Apuntes para La Práctica de Álgebra II: Sugerencias, Desarrollos Teóricos y Ejercicios Resueltos

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 308

Apuntes para la práctica de

Álgebra II
Sugerencias, desarrollos teóricos y ejercicios resueltos

Maximiliano Contino
2021
Resumen

Este apunte tiene por objetivo cubrir todos los temas de la práctica correspondiente a la
asignatura Álgebra II de la Facultad de Ingeniería de la Universidad de Buenos Aires. En cada
capítulo, se hace un repaso de los contenidos teorícos mínimos para resolver los distintos ejercicios
haciendo hincapié en las respectivas demostraciones. En varios casos, se agregaron aplicaciones
teóricas que amplian el alcance de algunos conceptos de la materia.
Los ejercicios específicos que corresponden a la guía de Álgebra II tienen la misma numeración
que en dicha guía. Como referencia se tomó la versión de la guía de marzo de 2021 aunque con el
paso de los cuatrimestres dichos ejercicios podrían cambiar de numeración o desaparecer. También,
se agregaron ejercicios similares a los que figuran en la guía o ejercicios de parciales y finales con el
objetivo de profundizar en algunos conceptos determinados, dichos ejercicios aparecen ordenados
con letras mayúsculas.
En el Capítulo 0 se comienza con las definiciones básicas y la notación que se usará a lo largo de
todo el apunte. En el Capítulo 1, estudiamos las nociones de espacio vectorial, subespacios, sistema
de generadores e independencia lineal. En el Capítulo 2, se definen y estudian las transformaciones
lineales y se comienza con el estudio de ecuaciones diferenciales a coeficientes constantes. En
el Capítulo 3, seguimos con las nociones de espacios con producto interno reales y complejos y
las proyecciones ortogonales. La diagonalización de matrices, las formas de Jordan en espacios
de dimensión finita y los sistemas de ecuaciones diferenciales se desarrollan a continuación en el
Capítulo 4 seguidas por el estudio de matrices hermíticas, matrices simétricas y la descomposición
en valores singulares de matrices en el Capítulo 5. Concluimos con el estudio de formas cuadráticas
en el Capítulo 6.
Siempre serán bienvenidas todas las correcciones y aportes que permitan mejorar este apunte.

Maximiliano Contino

I
Índice general

Resumen I

Índice general III

0 Introducción 1

1 Espacios Vectoriales 5
1.1 Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3 Combinaciones lineales y sistema de generadores . . . . . . . . . . . . . . . . . . . 13
1.4 Conjuntos linealmente independientes . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.5 Wronskiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.6 Bases de espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.7 Igualdad de subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.8 Ecuaciones diferenciales de segundo orden . . . . . . . . . . . . . . . . . . . . . . 29
1.9 Subespacios fundamentales de una matriz . . . . . . . . . . . . . . . . . . . . . . 31
1.10 Algoritmos para producir una base a partir de un sistema de generadores . . . . . 36
1.11 Coordenadas de un vector en una base . . . . . . . . . . . . . . . . . . . . . . . . 41
1.12 Matriz de cambio de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
1.13 Operaciones entre subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

2 Transformaciones Lineales 55
2.1 Imagen y núcleo de una transformación lineal . . . . . . . . . . . . . . . . . . . . 57
2.2 Buena definición de transformaciones lineales . . . . . . . . . . . . . . . . . . . . 63
2.3 Transformaciones lineales inversibles . . . . . . . . . . . . . . . . . . . . . . . . . 68
2.4 Matriz de una transformación lineal . . . . . . . . . . . . . . . . . . . . . . . . . . 73
2.5 Proyectores y simetrías . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
2.6 Rotaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
2.7 Ecuaciones diferenciales. Operador derivación . . . . . . . . . . . . . . . . . . . . 96

3 Espacios Euclídeos 111


3.1 Producto interno y propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
3.2 Espacios normados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
3.3 Matriz de Gram, Gramiano y triángulos . . . . . . . . . . . . . . . . . . . . . . . 117
3.4 Subespacio ortogonal, sistemas y bases ortonormales . . . . . . . . . . . . . . . . 128
3.5 Proyección ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
3.6 Matriz de la proyección ortogonal y distancia mínima . . . . . . . . . . . . . . . . 136
3.7 Mínimos cuadrados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
3.8 Distancia mínima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
3.9 Algoritmo de Gram-Schmidt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163

III
Índice general

3.10 Descomposición QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167


3.11 Teorema de representación de Riesz . . . . . . . . . . . . . . . . . . . . . . . . . . 172
3.12 Aplicaciones del Teorema de representación de Riesz . . . . . . . . . . . . . . . . 175

4 Diagonalización 185
4.1 Autovalores y autovectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
4.2 Diagonalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
4.3 Polinomios matriciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
4.4 Teorema espectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
4.5 Formas de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
4.6 Matrices semejantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
4.7 Sistemas de ecuaciones diferenciales . . . . . . . . . . . . . . . . . . . . . . . . . . 221
4.8 Sistemas de ecuaciones diferenciales: caso no diagonalizable . . . . . . . . . . . . . 225
4.9 Sistema de ecuaciones diferenciales no homogéneo . . . . . . . . . . . . . . . . . . 232

5 Matrices Unitarias 235


5.1 Matrices unitarias y ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
5.2 Matrices hermíticas y diagonalización unitaria . . . . . . . . . . . . . . . . . . . . 238
5.3 Clasificación de transformaciones ortogonales . . . . . . . . . . . . . . . . . . . . . 242
5.4 Matrices definidas y semidefinidas positivas . . . . . . . . . . . . . . . . . . . . . 253
5.5 Descomposición en valores singulares . . . . . . . . . . . . . . . . . . . . . . . . . 256
5.6 DVS y los subespacios fundamentales de una matriz . . . . . . . . . . . . . . . . . 259
5.7 Solución por mínimos cuadrados de norma mínima. Pseudo-inversa de Moore-Penrose 261
5.8 Imagen por una transformación lineal de la circunferencia unitaria . . . . . . . . . 266
5.9 Descomposición Polar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 268

6 Formas Cuadraticas 271


6.1 Definición de formas cuadráticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271
6.2 Eliminación de productos cruzados . . . . . . . . . . . . . . . . . . . . . . . . . . 272
6.3 Clasificación de formas cuadráticas . . . . . . . . . . . . . . . . . . . . . . . . . . 274
6.4 Conjuntos de nivel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274
6.5 Optimización de formas cuadráticas . . . . . . . . . . . . . . . . . . . . . . . . . . 278
6.6 Optimización de formas cuadráticas con restricciones definidas positivas . . . . . 290

Bibliografía 301

IV
CAPÍTULO 0

Introducción

En todo el apunte usaremos la siguiente notación y propiedades básicas:

Conjuntos de números
N denota el conjunto de todos los números naturales, N = {1, 2, · · · }, Z el conjunto de los
números enteros, Z = {· · · , −2, −1, 0, 1, 2, · · · }, Q denota el conjunto de números racionales, es
decir
m
Q = { : m ∈ Z, n ∈ N}.
n
Finalmente R denota el conjunto de números reales y C el conjunto de los números complejos.
Por definición z ∈ C si z = a + ib con a, b ∈ R e i2 = −1. Si z = a + ib ∈ C entonces z := a − ib
es el conjugado de z. Observar que si z, y ∈ C entonces

z = z, z + y = z + y, zy = z y y

z = z, si y sólo si z ∈ R.
Además, si z = a + ib ∈ C tenemos que

z + z = 2a = 2 Re(z) y z − z = i2b = 2i Im(z).

La fórmula de Euler establece que para cada z = a + ib ∈ C vale que

ez = ea+ib = ea (cos(b) + i sin(b)).

Matrices, vectores, funciones continuas y polinomios


Sea K = C ó K = R. Entonces Km×n es el conjunto de todas las matrices de m filas y n
columnas con entradas (coeficientes) en K. Usaremos el símbolo In (ó cuando se infiera el contexto
simplemente I) para denotar a la matriz identidad de n × n. Dicha matriz In ∈ Kn×n se define
como
1 0 0
 

In :=  ... . . . ...  .
 

0 0 1

Dada A ∈ Km×n se denota por AT ∈ Kn×m a su matriz transpuesta. Si


 
a11 a12 · · · a1n
 a21 a22 · · · a2n 
A= . .. ..  ,
 
 .. . . 
am1 am2 ··· amn

1
0. Introducción

con aij ∈ K para i ∈ {1, 2, · · · , m} y j ∈ {1, 2, · · · , n}. Entonces


 
a11 a21 · · · am1
 a12 a22 · · · am2 
AT :=  . .. ..  .
 
 .. . . 
a1n a2n ··· amn

Dada A ∈ Kn×n , su traza se define como

tr(A) := a11 + · · · + ann ∈ K,

donde aii ∈ K son los elementos de la diagonal de A.


Dada A ∈ Km×n , A∗ ∈ Kn×n es la matriz traspuesta conjugada de A. Es decir, A∗ := AT .
Kn denota el conjunto de las matrices de n × 1 o de vectores (columnas) de Kn . Entonces si
x ∈ Kn , tenemos que  
x1
 x2 
x =  .  = [x1 x2 · · · xn ]T
 
 .. 
xn
con x1 , x2 , · · · , xn ∈ K.
1
 
 0 
El conjunto E := {e1 , · · · , en } ⊆ Kn cuyos elementos se definen por e1 = 
 · · ·  , e2 =

0
0 0
   
 1  0 
 · · ·  , · · · , en = 
 , se denomina la base canónica de Kn .

  
··· 
0 1
Dado un intervalo I ⊆ R,

C(I) := {f : I → R : f es continua},

y para cada n ∈ N, C n (I) denota el conjunto de las funciones de C(I) que son n veces derivables
y cuyas derivadas son continuas. C ∞ (I) denota el conjunto de todas las funciones infinitamente
derivables.
K[x] denota el conjunto de polinomios con coeficientes en K. Es decir,

K[x] := {p : p(x) = an xn + · · · + a1 x + a0 : n ∈ N, a0 , a1 , · · · , an ∈ K}.

Finalmente, dado n ∈ N, Kn [x] denota el conjunto de polinomios de K con grado menor o igual a n
unión el polinomio nulo 0(x) := 0. Es decir,

Kn [x] = {p ∈ K[x] : grado(p) ≤ n} ∪ {0}.

Conjuntos en general
Sean A, B dos conjuntos, las siguientes son algunas operaciones básicas que usaremos:

A ∩ B := {x : x ∈ A y x ∈ B}.

A ∪ B := {x : x ∈ A ó x ∈ B}.

A \ B := {x : x ∈ A y x 6∈ B}.

A × B := {(a, b) : a ∈ A, b ∈ B}.

2
Sean A, B dos conjuntos, las siguientes son algunas relaciones básicas entres A y B

A ⊆ B, si para cada x ∈ A vale que x ∈ B.


A ( B, si para cada x ∈ A vale que x ∈ B y existe z ∈ B tal que z 6∈ A.
A = B, si A ⊆ B y B ⊆ A.

Observar que A ⊆ B si y sólo si A ∩ B = A y, si y sólo si A ∪ B = B.


Denotaremos por ∅ al conjunto que no tiene ningún elemento. Entonces, es fácil ver que A∩∅ = ∅
y A ∪ ∅ = A.

Funciones en general
Sean X, Y dos conjuntos. Una función f : X → Y (de X a Y ), es una relación entre X e Y que
a cada elemento x ∈ X le asigna un único elemento del conjunto Y que se denota f (x).
Un ejemplo de función, es la función identidad, definida por idX : X → X,

idX (x) := x.

Sea f : X → Y una función de X a Y. Entonces, diremos que:

f es inyectiva si f (x1 ) = f (x2 ) implica que x1 = x2 para cualquier x1 , x2 ∈ X.


f es sobreyectiva si para todo y ∈ Y existe x ∈ X tal que y = f (x).
f es biyectiva si f es inyectiva y sobreyectiva.

Observar que si f es biyectiva, entonces podemos definir la relación f −1 : Y → X, como


f (y) := x, donde para cada y ∈ Y, x es el único elemento de X tal que f (x) = y. En este caso,
−1

f −1 es una función, pues como f es sobreyectiva, para cada elemento de Y existe un elemento de
x ∈ X tal que f (x) = y. Además como f es inyectiva, el elemento x ∈ X es único.
Sean X, Y, Z conjuntos. f : X → Y y g : Y → Z dos funciones. La composición de g con f es la
relación g ◦ f : X → Z, definida por

g ◦ f (x) := g(f (x)),

para cada x ∈ X. Es fácil ver que, la composición de funciones, también es una función.

3
CAPÍTULO 1

Espacios Vectoriales

1.1. Espacios vectoriales


En este capítulo vamos a estudiar un tipo de conjunto que nos acompañará a lo largo de toda la
matería. Estos conjuntos que llamaremos espacios vectoriales tiene la característica de que en ellos
podemos definir dos operaciones: la suma y el producto por escalares. Veremos varios resultados
relevantes y resolveremos ejercicios correspondientes a la Guía 1, así como también ejercicios de
examenes y ejercicios relacionados.
Para definir el concepto de espacio vectorial, primero vamos a definir lo que entendemos por
cuerpo.
Definición. Sea K un conjunto no vacío y sean + y · dos operaciones definidas en K. Se dice que
(K, +, ·) es un cuerpo si:

1. K es cerrado para las operaciones + y ·, es decir a + b ∈ K y a · b ∈ K para todo a, b ∈ K.

2. Las operaciones + y · son asociativas, es decir (a + b) + c = a + (b + c) y (a · b) · c = a · (b · c)


para todo a, b, c ∈ K.

3. Las operaciones + y · son conmutativas, es decir a + b = b + a y a · b = b · a para todo a, b ∈ K.

4. Las operaciones + y · tienen elemento neutro, es decir existe un elemento que llamaremos
0 ∈ K tal que a + 0 = 0 + a = a para todo a ∈ K y existe un elemento que llamaremos 1 ∈ K
tal que a · 1 = 1 · a = a para todo a ∈ K.

5. Cada a ∈ K tiene un elemento inverso respecto de la operación + y cada a ∈ K \ {0} tiene un


elemento inverso respecto de la operación ·. Es decir, para cada a ∈ K existe un elemento
que llamaeremos −a ∈ K tal que a + (−a) = (−a) + a = 0, donde 0 es el elemento neutro
para + y para cada a ∈ K \ {0} existe un elemento neutro que llamaremos a−1 ∈ K tal que
a · a−1 = a−1 · a = 1, donde 1 es el elemento neutro para ·.

6. Valen las propiedades distributivas: a · (b + c) = a · b + a · c y (b + c) · a = b · a + c · a para


todo a, b, c ∈ K.

Ejemplo 1.a.

Si + y · representan la suma y multiplicación usual de números, entonces los conjuntos


(Q, +, ·), (R, +, ·) y (C, +, ·), son cuerpos.

Consideremos el conjunto de dos elementos {0, 1}, definamos + como 0 + 0 = 0, 0 + 1 = 1,


1 + 0 = 1 y 1 + 1 = 0 y definamos · como 0 · 0 = 0, 0 · 1 = 0, 1 · 0 = 0 y 1 · 1 = 1. Entonces
({0, 1}, +, ·) es un cuerpo. Si no queda claro, demostrarlo como ejercicio.

Ejercicio 1.A. Sean + y · la suma y multiplicación usual de números y sea F := {r+s 3 : r, s ∈ Q}.
Entonces (F, +, ·) es un cuerpo.

5
1. Espacios Vectoriales

Dem. Probemos los axiomas √ de cuerpo. Claramente,


√ F es un conjunto no vacío. Por otra parte, si
a, b ∈ F entonces a = r1 + s1 3 y b = r2 + s2 3 para ciertos r1 , s1 , r2 , s2 ∈ Q. Entonces
√ √ √
a + b = r1 + s1 3 + r2 + s2 3 = (r1 + s1 ) + 3(r2 + s2 ) ∈ F,

pues r1 + s1 ∈ Q y r2 + s2 ∈ Q y además,
√ √ √ √
a · b = (r1 + s1 3) · (r2 + s2 3) = r1 · r2 + 3s1 · s2 + r1 · s2 3 + s1 · r2 3

= (r1 · r2 + 3s1 · s2 ) + (r1 · s2 + r1 · r2 ) 3 ∈ F,

pues = r1 · r2 + 3s1 · s2 ∈ Q y r1 · s2 + r1 · r2 ∈ Q. Por lo tanto, K es cerrado para las operaciones +


y· √ √
Como F ⊆ R, 0 = 0 + 3 0 ∈ F y 1 = 1 + 0 3 ∈ F. Es claro que las operaciones + y ·
son asociativas, conmutativas, 0 es un elemento neutro para +, 1 es un elemento neutro para ·
y valen las propiedades distributivas. Por otra parte, si a ∈ F, √ entonces −a := (−1)a ∈ F y −a
es un inverso para +. De hecho,√ si a ∈ F entonces a = r + s 3 para ciertos r, s ∈ Q. Entonces,
−a = (−1) · a = (−r) + (−s) 3 ∈ F, pues −r, −s ∈ Q y claramente a + −a = 0.
Sólo nos resta √probar que todo elemento no nulo de F√ tiene inverso √ para ·. Sea a ∈ F \ {0}.
Entonces a = r + s 3, para cierto r, s ∈ √ Q. Entonces (r + s 3) · (r − s 3) = r2 − 3s2 6= 0. De hecho,
si fuera que r2 − 3s2 = 0, entonces |r| = 3|s|. Pero como s ∈ Q, entonces r 6∈ Q (número irracional
multiplicado por√número racional) lo cual √ es absurdo pues r ∈ Q. Entonces, como r2 − 3s2 6= 0 se
sigue que (r + s 3) = r2 −3s2 − r2 −3s2 3 ∈ F porque r2 −3s
−1 r s r
2 ∈ Q y r 2 −3s2 ∈ Q. Claramente
s
√ √
a−1 := (r + s 3)−1 = r2 −3s r s
2 − r 2 −3s2 3 ∈ F es un inverso de a para ·. 

De ahora en más, usaremos los cuerpos de escalares (R, +, ·) y (C, +, ·) con las suma y
producto usuales. En general, cuando no queramos diferenciar entre el cuerpo real o complejo,
directamente usaremos la notación K para referirnos a los mismos.

Definición. Sea K un cuerpo (K = R ó K = C). Sea V un conjunto no vacío donde se define una
operación + llamada suma entre dos elementos de V y una acción · llamada producto por escalares
entre un elemento de V y un escalar del cuerpo K. Diremos que (V, +, K, ·) es un K-espacio vectorial
si:
1. La suma + es una ley de composición interna, es decir u + v ∈ V para todo u, v ∈ V.
2. La suma + es conmutativa, es decir u + v = v + u para todo u, v ∈ V.
3. La suma + es asociativa, es decir (u + v) + w = u + (v + w) para todo u, v, w ∈ V.
4. La suma + tiene elemento neutro, es decir existe un elemento que llamaremos 0V ∈ V tal que
u + 0V = 0V + u = u para todo u ∈ V.
5. Para cada u ∈ V existe un elemento inverso respecto de la suma +. Es decir, para cada u ∈ V
existe un elemento que llamaremos −u ∈ V tal que u + (−u) = (−u) + u = 0V , donde 0V es
un elemento neutro de la suma.
6. El producto por escalares · es una ley de composición externa, es decir α · v ∈ V para todo
α ∈ K y para todo v ∈ V.
7. El producto por escalares · es distributivo respecto de los escalares, es decir (α+β)·u = α·u+β·u
para todo α, β ∈ K y para todo u ∈ V.
8. El producto por escalares · es distributivo respecto de la suma de vectores, es decir
α · (u + v) = α · u + α · v para todo α ∈ K y para todo u, v ∈ V.
9. El producto por escalares · es asociativo respecto de los escalares, es decir (αβ) · u = α · (β · v)
para todo α, β ∈ K y para todo u ∈ V.

6
1.1. Espacios vectoriales

10. El escalar 1 ∈ K cumple que 1 · u = u para todo u ∈ V.

Ejercicio 1.B. Sea I ⊆ R un intervalo y C(I) = {f : I → R : f es continua}. En C(I) definimos la


operación suma + como

(f + g)(x) = f (x) + g(x) para cada f, g ∈ C(I) y x ∈ I.

Para el cuerpo de escalares K = R definimos la acción producto por escalares de R en C(I) como

(α · f )(x) = αf (x) para cada f ∈ C(I), α ∈ K y x ∈ I.

Demostar que (C(I), +, R, ·) es un R-espacio vectorial.

Antes de comenzar el ejercicio, dado que vamos a trabajar con igualdad de funciones, repasemos
qué significa eso. Supongamos que tenemos f, g : I → R (es decir dos funciones definidas en un
intervalo I ⊆ R que toman valores en R). Entonces

f = g si y sólo si f (x) = g(x) para todo x ∈ I. (1.1)

En palabras, dos funciones son iguales si y sólo si tienen el mismo dominio y coinciden en todo
punto de su dominio. (
13 si x = 0
Por ejemplo, consideremos f, g : R → R con f (x) = y g(x) = x. Entonces f 6= g
x si x 6= 0
simplemente porque f (0) 6= g(0).

Dem. Vamos a verificar que se cumplen los axiomas de los espacios vectoriales.
Observemos que C(I) es un conjunto no vacío. Por ejemplo si definimos la función 0 : I → R
como 0(x) = 0, para todo x ∈ I. Claramente 0 ∈ C(I).
Ax. 1: Veamos que + es una ley de composición interna. Sean f, g ∈ C(I) entonces f +g ∈ C(I),
esto es así debido a que la suma usual (tal como se definió en este caso) de funciones continuas es
también una función continua. Esta propiedad se vio en el curso de Análisis Matemático del CBC.
Ax. 2: La suma + es conmutativa en C(I). Queremos probar que f + g = g + f para todo
f, g ∈ C(I).
Vamos a probar que la igualdad anterior ocurre para todo x ∈ I. Sean f, g ∈ C(I) y x ∈ I,
entonces (f + g)(x) = f (x) + g(x) = g(x) + f (x) = (g + f )(x), donde usamos que la suma de
números reales es conmutativa. Entonces como (f + g)(x) = (g + f )(x), para todo x ∈ I (fijarse que
la igualdad anterior la obtuvimos para cualquier x), entonces (aplicando la definición de igualdad
de funciones) f + g = g + f.
Ax. 3: La suma + es asociativa en C(I). Queremos probar que (f + g) + h = f + (g + h) para
todo f, g, h ∈ C(I). Vamos a operar de manera similar a lo que hicimos en la prueba del axioma 2.
Sean f, g, h ∈ C(I) y x ∈ I, entonces ((f + g) + h)(x) = (f + g)(x) + h(x) = f (x) + g(x) + h(x) =
f (x) + (g(x) + h(x)) = f (x) + (g + h)(x) = (f + (g + h))(x), donde usamos que la suma de números
reales es asociativa. Como la igualdad anterior vale para todo x ∈ I, tenemos lo que queríamos
probar.
Ax. 4: Existe un elemento neutro en C(I) respecto de la suma. En este ítem, tenemos que
proponer un elemento de C(I) que sea elemento neutro para la suma y verificar que dicho elemento
cumple. Por ejemplo, podemos proponer como elemento neutro la función nula 0 ∈ C(I) que
definimos arriba. Veamos que f + 0 = f para todo f ∈ C(I). Sean f ∈ C(I) y x ∈ I, entonces
(f + 0)(x) = f (x) + 0(x) = f (x) + 0 = f (x). Como la igualdad anterior vale para todo x ∈ I,
tenemos lo que queríamos probar.
Observación: Se puede probar que el elemento neutro de un espacio vectorial es único. Por lo
tanto, en este caso, la función nula 0 ∈ C(I), no sólo es “un” elemento neutro sino que es “el”
elemento neutro. Meditar sobre la diferencia de estas expresiones.

7
1. Espacios Vectoriales

Ax. 5: Para cada f ∈ C(I) existe opuesto (inverso aditivo) en C(I) respecto de la suma.
En este ítem, tenemos que proponer un elemento de C(I) que sea un inverso aditivo para la
suma y verificar que dicho elemento cumple, es decir, queremos proponer una función g ∈ C(I)
tal que para cada f ∈ CC(I) se cumple f + g = 0 (observar que ya verificamos que 0 es el
elemento neutro para la suma). Sean f ∈ C(I) y x ∈ I. Se define la función g : I → R por
g(x) = −f (x). Entonces veamos que g es un inverso aditivo de f . Claramente g ∈ C(I) porque el
producto de una función continua por el escalar −1 es también una función continua. Por otra
parte (f + g)(x) = f (x) + g(x) = f (x) + −f (x) = 0 = 0(x) y como la igualdad anterior vale para
todo x ∈ I, tenemos lo que queríamos probar.
Observación: Se puede probar que el inverso aditivo de cada vector de un espacio vectorial es
único.
Ax. 6: Veamos que el producto por escalares · es una ley de composición externa. Sean f ∈ C(I)
y α ∈ R entonces α · f ∈ C(I); esto es así debido a que en primer lugar, αf (x) ∈ R para todo x ∈ I
y además, porque el producto de un número real por una función continua (tal como se definió) es
también una función continua. Esta propiedad se vio en el curso de Análisis Matemático del CBC.
Ax. 7: El producto por escalares · es distributivo respecto de la suma de escalares. Queremos
ver que (α + β) · f = α · f + β · f, para todo f ∈ C(I) y α, β ∈ R. Sean f ∈ C(I), x ∈ I y α, β ∈ R,
entonces ((α + β) · f )(x) = (α + β)f (x) = αf (x) + βf (x) = (α · f )(x) + (β · f )(x) = (α · f + β · f )(x),
donde usamos la propiedad distributiva de los números reales. Finalmente, como la igualdad anterior
vale para todo x ∈ I, tenemos lo que queríamos probar.
Ax. 8: El producto por escalares · es distributivo respecto de la suma de vectores. Queremos
ver que α · (f + g) = α · f + α · g, para todo f, g ∈ C(I) y α ∈ R. Sean f, g ∈ C(I), x ∈ I y α ∈ R,
entonces (α · (f + g))(x) = α((f + g)(x)) = α(f (x) + g(x)) = αf (x) + αg(x) = (α · f )(x) + (α · g)(x) =
(α · f + α · g)(x), donde usamos la propiedad distributiva de los números reales. Finalmente, como
la igualdad anterior vale para todo x ∈ I, tenemos lo que queríamos probar.
Ax. 9: El producto por escalares · es asociativo respecto de los escalares. Queremos ver que
(αβ) · f = α · (β · f ), para todo f ∈ C(I) y α, β ∈ R. Sean f ∈ C(I), x ∈ I y α, β ∈ R, entonces
((αβ) · f )(x) = (αβ)f (x) = α(βf (x)) = α((β · f )(x)) = (α · (β · f ))(x), donde usamos la propiedad
asociativa de los números reales. Finalmente, como la igualdad anterior vale para todo x ∈ I,
tenemos lo que queríamos probar.
Ax. 10: El escalar 1 ∈ R cumple que 1 · f = f, para todo f ∈ C(I). Sean f ∈ C(I) y x ∈ I,
entonces (1 · f )(x) = 1f (x) = f (x) y como la igualdad anterior vale para todo x ∈ I, tenemos lo
que queríamos probar. 
El siguiente ejercicio recopila algunas propiedades importantes respecto del elemento neutro y
el inverso aditivo de un espacio vectorial.
Ejercicio 1.C. Sea K un cuerpo y (V, +, K, ·) un K-espacio vectorial. Sea 0V el elemento neutro de
V y dado v ∈ V notaremos como −v al inverso aditivo de v. Demostar que, para todo v ∈ V,
0 · v = 0V y − v = (−1) · v.
Para demostrar estas propieades usaremos los axiomas que verifican los espacios vectoriales.
Dem. Por el Ax. 7, vale que 0 · v = (0 + 0) · v = 0 · v + 0 · v. Sea w el inverso aditivo de 0 · v, que
existe por el Ax.5. Entonces:
0V = 0 · v + w = (0 · v + 0 · v) + w = 0 · v + (0 · v + w) = 0 · v + 0V = 0 · v.
Donde se usaron los Ax. 3, 4 y 5.
Finalmente,
v + (−1) · v = 1 · v + (−1) · v = (1 − 1) · v = 0 · v = 0V .
Donde se usaron los Ax. 7 y 10 y la igualdad anterior. Por lo tanto (−1) · v es el inverso aditivo de
v, es decir −v = (−1) · v. 

A continuación veremos un ejemplo (delirante pero) interesante de espacios vectoriales. Este


ejemplo es similar al Ejercicio 1.1.

8
1.1. Espacios vectoriales

 
x1
Ejemplo 1.b. Sean V := { ∈ R2 : x1 , x2 > 0} y K = R. Se define
x2
         
x1 x2 x1 y1 x1 y1
⊕ := para cada x = ∈ V, y = ∈Vy
y1 y2 x2 y2 x2 y2


     
x1 x1
α := 1
para cada x = ∈ V, α ∈ R.
x2 xα
2 x2
Demostrar que (V, ⊕, R, ) es un R-espacio vectorial.

Dem. Vamos a verificar que se cumplen los axiomas de los espacios vectoriales.
Observemos que V es un conjunto no vacío. Por ejemplo (1, 1) ∈ V.    
x1 y1
Ax. 1: Veamos que ⊕ es una ley de composición interna. Sean x = , y= ∈V
x2 y2
entonces  
x1 y1
x⊕y = ∈ V,
x2 y2
esto es así debido a que como x, y ∈ V, tenemos que x1 , x2 > 0 e y1 , y2 > 0. Entonces
x1 x2 > 0, y1 y2 > 0.    
x1 y1
Ax. 2: La suma ⊕ es conmutativa en V. Sean x = , y= ∈ V entonces
x2 y2
   
x1 y1 y1 x1
x⊕y = = = y ⊕ x,
x2 y2 y2 x2

donde usamos que el producto de números reales es conmutativo.


     
x1 y1 z1
Ax. 3: La suma ⊕ es asociativa en V. Sean x = , y = , z = ∈V
x2 y2 z2
entonces

(x1 y1 )z1 x1 (y1 z1 )


     
x1 y1
(x ⊕ y) ⊕ z = ⊕z = = = x ⊕ (y ⊕ z),
x2 y2 (x2 y2 )z2 x2 (y2 z2 )

donde usamos que el producto de números reales es asociativo.


Ax. 4: Existe un elemento
  neutro en V respecto  de la suma. Vamos proponer como elemento
1

x1
neutro al vector 0V := ∈ V. Sea x = ∈ V, entonces
1 x2

1 x1 1
       
x1 x1
x ⊕ 0V = ⊕ = = = x.
x2 1 x2 1 x2

1
 
Por lo tanto, 0V = ∈ V es el elemento neutro para la suma.
1
 5: Para cada x ∈ V existe opuesto (inverso aditivo) en V respecto
Ax.  1  de la suma. Sea
x1
x= ∈ V, vamos proponer como inverso aditivo al vector −x := x1
1 ∈ V. El vector −x
x2 x2
que definimos es un elemento de V pues como x ∈ V tenemos que x1 , x2 > 0 y el inverso de un
número real positivo es otro número real positivo. Entonces
 1   x1 
1
   
x1
x ⊕ −x = ⊕ x1
= x1
= = 0V .
x2 1
x2
x2
x2 1
 1 
Por lo tanto, −x := x1
1 ∈ V es el inverso aditivo de x.
x2

9
1. Espacios Vectoriales

Ax. 6: Veamos que es una ley de composición externa. Sean x ∈ V y α ∈ R entonces


 α 
x1
α x= ∈ V,
xα2

esto es así debido a que como x ∈ V, tenemos que x1 , x2 > 0 y entonces xα 1 , x2 > 0.
α

Ax. 7: El producto por escalares es distributivo respecto de la suma de escalares. Sean x ∈ V


y α, β ∈ R, entonces
 α+β   α β   α   β 
x1 x1 x1 x1 x1
(α + β) x = α+β = α β
= α ⊕ = α x ⊕ β x.
x2 x2 x2 x 2 xβ2

donde usamos propiedades de potenciación.


Ax. 8: El producto por escalares es distributivo respecto de la suma de vectores. Sean
x, y ∈ V y α ∈ R, entonces

(x1 y1 )α
     α α   α   α 
x1 y1 x1 x2 x1 y1
α (x ⊕ y) = α = = = ⊕ = α x ⊕ α y,
x2 y2 (x2 y2 )α y1α y2α xα2 y2α

donde usamos propiedades de potenciación.


Ax. 9: El producto por escalares es asociativo respecto de los escalares. Sean x ∈ V y
α, β ∈ R, entonces
 αβ   β α   β 
x1 (x1 ) x1
(αβ) x = αβ = β α =α = α (β x),
x2 (x2 ) xβ2

donde usamos propiedades de potenciación.


Ax. 10: El escalar 1 ∈ R cumple que 1 x = x, para todo x ∈ V. Sea x ∈ V, entonces
 1   
x1 x1
1 x= = = x.
x12 x2


Los siguientes ejemplos son algunos de los K-espacios vectoriales con los que trabajaremos con
más frecuencia:
Ejemplo 1.c.
Sea K = R ó K = C. En Cn definimos, para x, y ∈ Cn y α ∈ K la suma como

x1 + y1
     
x1 y1
 x2   y2   x2 + y2 
x+y =  . +  . =  ..
     
.
 .   . .  .


xn yn xn + yn

y el producto por escalares como


 
αx1
 αx2 
α·x=  .. .
 
 . 
αxn

Entonces: (Cn , +, C, ·) es un C-espacio vectorial y (Cn , +, R, ·) es un R-espacio vectorial. Con


la misma suma y producto por escalares también tenemos que (Rn , +, R, ·) es un R-espacio
vectorial. Notar que si estamos tabajando en Rn y tomamos como cuerpo C entonces el
producto por escalares que definimos NO es una ley de composición externa, por lo que
(Rn , +, C, ·) NO es un C-espacio vectorial.

10
1.2. Subespacios

Sea K = R ó K = C. En Cm×n definimos, para A, B ∈ Cm×n y α ∈ K la suma como

a11 + b11 a1n + b1n


     
a11 · · · a1n b11 · · · b1n ···
 .. . .. ..  +  ...
. .. ..  =  .. .. ..
A+B =  . . .  . . .
  
 
am1 ··· amn bm1 ··· bmn am1 + bm1 ··· amn + bmn

y el producto por escalares como


 
αa11 ··· αa1n
α·A=  .. .. ..
. . . .
 

αam1 ··· αamn

Entonces: (Cm×n , +, C, ·) es un C-espacio vectorial y (Cm×n , +, R, ·) es un R-espacio vectorial.


Con la misma suma y producto por escalares también tenemos que (Rm×n , +, R, ·) es un
R-espacio vectorial. Notar que si estamos tabajando en Rm×n y tomamos como cuerpo C
entonces el producto por escalares que definimos NO es una ley de composición externa, por
lo que (Rm×n , +, C, ·) NO es un C-espacio vectorial.

Sea K = R y

R[x] := {p : p(x) = an xn + · · · + a1 x + a0 : n ∈ N ∪ {0}, a0 , a1 , · · · , an ∈ R}.

Para cada p, q ∈ R[x] y α ∈ R definimos la suma y el producto por escalares de la misma


manera que lo hicimos en el ejemplo de arriba para las funciones continuas. Entonces
(R[x], +, R, ·) es un R-espacio vectorial.

1.2. Subespacios
Cuando un subconjunto S de un K-espacio vectorial V es en sí mismo un K-espacio vectorial
con las mismas operaciones definidas en V diremos que S es un subespacio. Es decir, si V es un
K-espacio vectorial, un subespacio de V es un subconjunto de V que es un K-espacio vectorial con
las mismas operaciones + y · restringidas a dicho subconjunto.
Definición. Sea K un cuerpo y (V, +, K, ·) un K-espacio vectorial. Un subconjunto S ⊆ V es un
subespacio de V si (S, +, K, ·) es un K-espacio vectorial.
Teorema 1.2.1. Sea K un cuerpo y (V, +, K, ·) un K-espacio vectorial. Un subconjunto S ⊆ V es
un subespacio de V si y sólo si:

i) S =
6 ∅,

ii) si u, v ∈ S entonces u + v ∈ S,

iii) si α ∈ K y v ∈ S entonces α · v ∈ S.

Dem. Supongamos que S es un subespacio de V. Entonces por definición (S, +, K, ·) es un K-espacio


vectorial. Por lo tanto, S =6 ∅ y se cumplen los 10 axiomas de la definición de espacio vectorial. En
particular, valen i), ii) y iii).
Recíprocamente, si valen i), ii) y iii) entonces S =
6 ∅. Por otra parte, si restringimos la suma
+ al subconjunto S entonces, por ii), la suma + es una ley de composición interna (en S) y
vale el axioma 1. De la misma manera, si restringimos el producto por escalares · al subconjunto
S entonces, por iii), el producto por escalares · es una ley de composición externa (en S) y se
cumple el axioma 6. Finalmente, como S ⊆ V y acabamos de ver que la suma + y el producto por
escalares · restringidos a S quedan bien definidos (porque son ley de composición interna y externa
respectivamente) entonces se siguen de manera inmediata los axiomas 2, 3, 8, 9 y 10. Sólo nos resta
probar los axiomas 4 y 5. Primero, veamos que cada elemento de S tiene un inverso aditivo en

11
1. Espacios Vectoriales

S. De hecho, sea v ∈ S (existe pues S es no vacío), entonces −v = (−1) · v ∈ S, donde usamos el


Ejercicio 1.C y que vale iii). Por lo tanto, cada elemento de S tiene un inverso aditivo en S y vale el
axioma 5. Finalmente, sea v ∈ S, si −v es el inverso aditivo de v (que ya vimos que es un elemento
de S), tenemos que 0V = v + −v ∈ S, donde usamos que vale ii) y entonces tenemos el axioma 4.
Por lo tanto (S, +, K, ·) es un K-espacio vectorial y entonces, por definición, S es un subespacio
de V. 

El item i) del teorema anterior se puede reemplazar por la condición i0 ) 0V ∈ S.

De hecho, si el item i) del teorema anterior se reemplaza por la condición i0 ), claramente tenemos
que S es no vacío (pues 0V ∈ S) y recuperamos i) del teorema anterior.
Recíprocamente, en la demostración del teorema anterior, vimos que que si valen i), ii), iii)
entonces 0V ∈ S.

Ejercicio 1.2 b, d). Verificar las siguientes afirmaciones:

El conjunto S := {α[1 0 0]T + β[1 0 1]T : α, β ∈ R} es un subespacio de R3 .


Pn
Para cada n ∈ N, el conjunto S := { k=0 ak xk : a0 , a1 , · · · , an ∈ R} es un subespacio de
R[x].

Dem. Vamos a usar el teorema anterior para probar esta afirmación. Entonces, para probar que
los conjuntos en cuestión son subespacios, basta ver los items i), ii), iii) del Teorema 1.2.1.
1.2 (b).

i) El vector [0 0 0]T = 0[1 0 0]T + 0[1 0 1]T ∈ S con α = β = 0.

ii) Si u, v ∈ S, entonces u = α1 [1 0 0]T + β1 [1 0 1]T para ciertos α1 , β1 ∈ R y v = α2 [1 0 0]T +


β2 [1 0 1]T para ciertos α2 , β2 ∈ R. Entonces u + v = (α1 + α2 )[1 0 0]T + (β1 + β2 )[1 0 1]T ∈ S
con α = α1 + α2 ∈ R y β = β1 + β2 ∈ R.

iii) Si u ∈ S, u = α1 [1 0 0]T + β1 [1 0 1]T para ciertos α1 , β1 ∈ R. Sea c ∈ R, entonces


cu = (cα1 )[1 0 0]T + (cβ1 )[1 0 1]T ∈ S, con α = cα1 ∈ R y β = cβ1 ∈ R.

Como se cumple i), ii), iii), por Teorema 1.2.1, S es un subespacio de R3 .

Al conjunto S lo notamos como S = gen{[1 0 0]T , [1 0 1]T }.

1.2 (d). Sea n ∈ N. Entonces:


Pn
i) El polinomio nulo 0(x) = 0 = k=0 0xk . En este caso a0 = a1 = · · · = an = 0. Entonces
0 ∈ S.
Pn Pn
ii) Si p, q ∈ S, entonces p(x) = k=0 bk xk , para ciertos P R y q(x) = Pk=0 ck xk ,
b0 , b1 , · · · bn ∈P
n n n
para ciertos c0 , c1 , · · · cn ∈ R. Entonces p(x) + q(x) = k=0 bk xk + k=0 ck xk = k=0 (bk +
ck )x . Entonces p + q ∈ S, con ai = bi + ci ∈ R para cada i ∈ {0, 1, · · · , n}.
k

Pn
iii) Si p ∈ S, entonces
Pn p(x) =P k=0 bk xk , para ciertos b0 , b1 , · · · bn ∈ R. Sea α ∈ R, entonces
n
αp(x) = α k=0 bk xk = k=0 (αbk )x . Entonces αp ∈ S, con ai = αbi ∈ R para cada
k

i ∈ {0, 1, · · · , n}.

Como se cumple i), ii), iii), por el Teorema 1.2.1, S es un subespacio de R[x]. 

12
1.3. Combinaciones lineales y sistema de generadores

1.3. Combinaciones lineales y sistema de generadores


Sea K un cuerpo y V un K-espacio vectorial. Sean a1 , a2 , · · · , ar ∈ K y v1 , v2 , · · · , vr ∈ V una
combinación lineal de los vectores v1 , v2 , · · · , vr es un elemento v ∈ V tal que

v = a1 v1 + a2 v2 + · · · + ar vr .

Notaremos como gen{v1 , · · · , vr } al conjunto de todas las combinaciones lineales de los vectores
v1 , · · · , vr . Es decir,

gen{v1 , v2 , · · · , vr } := {v : v = a1 v1 + a2 v2 + · · · + ar vr : a1 , a2 , · · · , ar ∈ K}.

Usando las ideas del Ejercicio 1.2 b, d), es claro que el conjunto gen{v1 , v2 , · · · , vr } es un subespacio
de V. Por otra parte, sea G := {v1 , v2 , · · · , vr } un subconjunto de r elementos de V. Entonces,

gen{G} := gen{v1 , v2 , · · · , vr }.

Definición. Sea K un cuerpo, V un K-espacio vectorial y S ⊆ V un subespacio de V. Diremos que


el conjunto G = {v1 , · · · , vr } ⊆ V es un sistema de generadores de S si

S = gen{G} = gen{v1 , · · · , vr }.

Es decir, todo elemento de S es una combinación lineal de elementos de G.


Finalmente enunciaremos la definición de sistema de generadores minimal.
Definición. Sea V un K-espacio vectorial y S ⊆ V un subespacio. Un conjunto G es un sistema de
generadores minimal de S si:

i) S = gen{G} (es decir G es un sistema de generadores de S),

ii) si G0 ( G (es decir G0 es un subconjunto propio de G) entonces G0 no es sistema generador


de S.

A partir de la definición anterior podemos decir que si G es un sistema de generadores minimal


de S entonces si algún conjunto G00 cumple que gen{G00 } = S es porque G ⊆ G00 . De esta propiedad
viene la idea de “minimal” (minimal respecto de la inclusión de conjuntos).

Ejercicio 1.6 c, d). En cada uno de los siguientes casos describir el subespacio S mediante un
sistema de generadores minimal.

2 0 2 0
   
S = {X ∈ R2×2 : X = X}.
0 3 0 3
R1 R1
S = {p ∈ R3 [x] : −1
p(x)dx = −1
xp(x)dx = 0}.
 
a b
Dem. 1.6 (c). Si X ∈ S entonces X ∈ R 2×2
, es decir X = con a, b, c, d ∈ R y además
c d

2 0 2 0
       
a b a b
= .
c d 0 3 0 3 c d

Operando, nos queda que


2a 3b 2a 2b
   
= .
2c 3d 3c 3d
Entonces nos quedó el siguiente sistema:

13
1. Espacios Vectoriales

2a = 2a


3b = 2b

2c = 3c


3d = 3d.

Lasolución del sistema es


 b =c = 0. Entonces, volviendo a la expresión de X nos queda
a 0 1 0 0 0

X= =a +d con a, d ∈ R. Entonces
0 d 0 0 0 1

2 0 2 0
   
S = {X ∈ R 2×2
:X = X}
0 3 0 3
1 0 0 0
   
= {X ∈ R 2×2
:X=a +d : a, d ∈ R}
0 0 0 1
1 0 0 0
   
= gen{ , }.
0 0 0 1

1 0 0 0
   
Además el conjunto G := { } es un sistema de generadores minimal de S.
,
0 0 0 1
1 0
 
Cualquier subconjunto propio de G por ejemplo G0 := { } ( G (¿qué otros subconjuntos
0 0
propios tiene G?) no es un sistema de generadores de S (¿por qué?).
1.6 (d). Sea p ∈ S entoces p ∈ R3 [x], es decir p(x) = ax3 + bx2 + cx + d con a, b, c, d ∈ R y
R1 R1
−1
p(x)dx = −1 xp(x)dx = 0. Entonces

1
2
Z
a 4 b 3 c 2
0= (ax3 + bx2 + cx + d)dx = x + x + x + dx|1−1 = b + 2d
−1 4 3 2 3
y
1
2 2
Z
a 5 b 4 c 3 d 21
0= x(ax3 + bx2 + cx + d)dx = x + x + x + x |−1 = a + c.
−1 5 4 3 2 5 3
Es decir
( nos quedó el siguiente sistema:
2
3 b + 2d = 0
5 a + 3 c = 0.
2 2

La solución del sistema es b = −3d y a = − 53 c. Entonces volviendo a la expresión de p nos


queda que p(x) = ax3 + bx2 + cx + d = − 53 cx3 − 3dx2 + cx + d con c, d ∈ R. Entonces

5 5
S = {p ∈ R3 [x] : p(x) = c(− x3 + x) + d(−3x2 + 1) : c, d ∈ R} = gen{− x3 + x, −3x2 + 1}.
3 3

Un sistema de generadores minimal de S puede ser G := {− 53 x3 + x, −3x2 + 1}; claramente


S = gen{G}, además G es minimal porque si G0 es un subconjunto propio de G (¿cuántos
subconjuntos propios tiene G?) no genera S. Por ejemplo, el subconjunto G0 := {−3x2 + 1} ( G
claramente no es un sistema de generadores de S (¿por qué?). De la misma manera se razona con
los demás subconjuntos propios de G. 

Ejercicio 1.5. Sea V un K-espacio vectorial y G = {v1 , v2 , v3 , v4 } un conjunto de vectores de V.


Sabiendo que 2v1 − v2 + v3 = 0 y 2v1 + v3 − v4 = 0. Hallar todos los subconjuntos de G que pueden
ser un sistema de generadores minimal del subespacio generado por G.

14
1.3. Combinaciones lineales y sistema de generadores

Para simplificar un poco la notación, vamos a llamar

S := gen{G} = gen{v1 , v2 , v3 , v4 }

es decir S es el subespacio generado por lo elementos de G.


Antes de empezar es crucial entender la diferencia entre G que es un conjunto de 4 elementos
(que en general no es un subespacio) y S que es el subespacio generado por los elementos de G
(que en general tiene infinitos elementos). Entendido eso, sigamos.
Dem. Por lo que nos dice el ejercicio, vale que v2 = 2v1 + v3 y v4 = 2v1 + v3 . Entonces, tenemos
que:
G = {v1 , v2 , v3 , v4 } = {v1 , 2v1 + v3 , v3 , 2v1 + v3 } = {v1 , v3 , 2v1 + v3 },
(la igualdad de conjuntos {v1 , 2v1 + v3 , v3 , 2v1 + v3 } = {v1 , v3 , 2v1 + v3 } se prueba fácilmente
probando doble inclusión). Y por otra parte

S = gen{G} = gen{v1 , 2v1 + v3 , v3 , 2v1 + v3 } = gen{v1 , v3 }.

Para obtener un sistema de generadores minimal del subespacio generado por G (que llamamos
S), tenemos que pensar en 6 casos:
Caso 1: v1 y v3 son LI. En este caso, los subconjuntos de G que pueden ser un sistema de
generadores minimal de S son: {v1 , v3 }, {v1 , 2v1 + v3 } y {v3 , 2v1 + v3 }. Veamos por qué:

a) Los conjuntos {v1 , v3 }, {v1 , 2v1 + v3 }, {v3 , 2v1 + v3 } son subconjuntos (todos distintos entre
sí) de G.

b) S = gen{v1 , v3 } = gen{v1 , 2v1 + v3 } = gen{v3 , 2v1 + v3 }. Entonces los conjuntos {v1 , v3 },


{v1 , 2v1 + v3 } y {v3 , 2v1 + v3 } son sistemas de generadores de S. Observar que los tres
conjuntos son distintos entre sí pero generan el mismo subespacio.

c) Los subconjuntos propios de {v1 , v3 } son: {v1 }, {v3 } y ∅. Claramente, ninguno de los tres
subconjuntos propios de {v1 , v3 } generan S (por ejemplo, el conjunto {v1 } no genera S pues
v3 ∈ S pero v3 6∈ gen{v1 } porque estamos suponiendo que v1 y v3 son LI, la misma idea se
puede usar para ver que los otros subconjuntos propios de {v1 , v3 } no generan S). Por lo
tanto {v1 , v3 } no sólo es un sistema de generadores de S sino que también es minimal. De la
misma manera podemos que ver que los conjuntos {v1 , 2v1 + v3 } y {v3 , 2v1 + v3 } también
son sistemas de generadores minimales de S.

Por a), b) y c), los conjuntos {v1 , v3 }, {v1 , 2v1 + v3 }, {v3 , 2v1 + v3 } son los subconjuntos de G
que pueden ser un sistema de generadores minimal del subespacio generado por G.
Por si alguien se hizo esta pregunta: Observar que el conjunto {15v1 , 16v3 } es un sistema
de generadores minimal de S (además es distinto a los 3 que ya enumeramos en este caso) pero
como NO es un subconjunto de G, no aparece como uno de los sistema de generadores minimales
de S que nos pide el ejercicio.

Caso 2: v1 y v3 son LD (y además v1 6= 0, v3 =


6 0 y 2v1 + v3 6= 0). En este caso, los subconjuntos
de G que pueden ser un sistema de generadores minimal de S son: {v1 }, {v3 } y {2v1 + v3 }. Veamos
por qué:

a) Los conjuntos {v1 }, {v3 }, {2v1 + v3 } son subconjuntos de G.

b) S = gen{v1 , v3 } = gen{v1 } = gen{v3 } = gen{2v1 + v3 }. Entonces los conjuntos {v1 }, {v3 } y


{2v1 + v3 } son sistemas de generadores de S.

c) El único subconjunto propio de {v1 }, {v3 } y {2v1 + v3 } es ∅ que claramente no genera S. Por
lo tanto {v1 }, {v3 } y {2v1 + v3 } no sólo son sistemas de generadores de S sino que también
son todos minimales.

15
1. Espacios Vectoriales

Por a), b) y c), los conjuntos {v1 }, {v3 } y {2v1 + v3 } son los subconjuntos de G que pueden ser
un sistema de generadores minimal del subespacio generado por G.
Acá hacemos la siguiente aclaración. Si en este caso, tenemos la suerte de que v1 = v3 . Entonces
en realidad tenemos sólo dos conjuntos (distintos entre sí) que pueden ser un sistema de generadores
minimal del subespacio generado por G, serían los conjuntos {v3 } y {2v1 + v3 } = {3v3 }.
Si en este caso, tenemos la suerte de que v1 = −v3 entonces tenemos sólo dos conjuntos (distintos
entre sí) que pueden ser un sistema de generadores minimal del subespacio generado por G : {v1 } y
{v3 } = {−v1 }.
Por último, con las hipótesis del caso 2, si v1 6= v3 y v1 6= −v3 , los tres conjuntos {v1 }, {v3 } y
{2v1 + v3 } son todos distintos entre sí.

Caso 3: v1 y v3 son LD (v1 = 6 0, v3 6= 0 y 2v1 + v3 = 0). En este caso, v3 = −2v1 6= 0 y


G = {v1 , −2v1 , 0}. Entonces, los subconjuntos de G que pueden ser un sistema de generadores
minimal de S son: {v1 }, {−2v1 }. Veamos por qué:
a) Los conjuntos {v1 }, {−2v1 } son subconjuntos (distintos entre sí) de G.
b) S = gen{v1 , v3 } = gen{v1 } = gen{−2v1 }. Entonces los conjuntos {v1 }, {−2v1 } son sistemas
de generadores de S.
c) El único subconjunto propio de {v1 }, {−2v1 } es ∅ que claramente no genera S. Por lo tanto
{v1 }, {−2v1 } no sólo son sistemas de generadores de S sino que también son todos minimales.
Por a), b) y c), los conjuntos {v1 }, {−2v1 } son los subconjuntos de G que pueden ser un sistema
de generadores minimal del subespacio generado por G.

Caso 4: v1 = 0 y v3 6= 0. Entonces 2v1 + v3 = v3 y G = {0, v3 , v3 } = {0, v3 }.


En este caso, el único subconjunto de G que puede ser un sistema de generadores minimal de S
es {v3 }. Veamos por qué:
a) {v3 } es subconjunto de G.
b) S = gen{v1 , v3 } = gen{v3 }. Entonces {v3 } es un sistema de generadores de S.
c) El único subconjunto propio de {v3 } es ∅ que claramente no genera S. Por lo tanto {v3 } no
sólo es un sistema de generadores de S sino que también es minimal.
Por a), b) y c), el conjunto {v3 } es el único subconjunto de G que puede ser un sistema de
generadores minimal de S.

Caso 5: v1 6= 0 y v3 = 0. Entonces, 2v1 + v3 = 2v1 6= 0 y G = {v1 , 0, 2v1 }. En este caso, los


subconjuntos de G que pueden ser un sistema de generadores minimal de S son: {v1 } y {2v1 }.
Veamos por qué:
a) {v1 } y {2v1 } son subconjuntos (distintos entre sí) de G.
b) S = gen{v1 , v3 } = gen{v1 } = gen{2v1 }. Entonces {v1 } y {2v1 } son sistemas de generadores
de S.
c) El único subconjunto propio de {v1 } y {2v1 } es ∅ que claramente no genera S. Por lo tanto
{v1 } y {2v1 } no sólo son sistemas de generadores de S sino que también son minimal.
Por a), b) y c), los conjuntos {v1 } y {2v1 } son los subconjuntos de G que puede ser un sistema
de generadores minimal de S

El último caso excede los alcances de la materia pero lo vamos a ver igual para
aquellos que tengan curiosidad.
Caso 6: v1 = 0 y v3 = 0. Entonces 2v1 + v3 = 0 y G = {0, 0, 0} = {0}.
En este caso (veremos a continuación que) el único subconjunto de G que puede ser un sistema
de generadores minimal de S es ∅. Veamos por qué:

16
1.3. Combinaciones lineales y sistema de generadores

a) ∅ es un subconjunto de G.

b) S = gen{0} = {0} = gen{∅}. Para probar esto vamos a tener que definir qué entendemos por
“gen{∅}”. Ver más abajo.

c) El conjunto ∅ no tiene subconjuntos propios.

Por a), b) y c), el conjunto ∅ es el único subconjunto de G que puede ser un sistema de generadores
minimal de S. 

Veamos por qué podemos decir que vale que {0} = gen{∅}

Antes de contestar esta pregunta, vamos a probar una propiedad que nos será muy útil.
Proposición 1.3.1. Sea V un K-espacio vectorial. Consideremos H = {v1 , v2 , · · · , vr } donde
v1 , v2 , · · · , vr ∈ V. Entonces, si S es cualquier subespacio de V, vale que
\
gen{H} = S.
H⊆S

En palabras, afirmamos que el subespacio gen{H} es igual a la intersección de todos los


subespacios S de V que contienen al conjunto H.
Dem. Probemos la doble inclusión. Supongamos que

v ∈ gen{H} := {a1 v1 + a2 v2 + · · · + ar vr : a1 , a2 , · · · , ar ∈ K}

entonces,
v = a1 v1 + a2 v2 + · · · + ar vr ,
para ciertos a1 , a2 , · · · , ar ∈ K. Entonces, sea S cualquier subespacio de V que contiene al conjunto
H. Como v1 , v2 , · · · , vr ∈ H, tenemos que v1 , v2 , · · · , vr ∈ S y como S es un subespacio, se sigue
que a1 v1 + a2 v2 + · ·T· + ar vr ∈ S. Como lo anterior vale para cualquier S subespacio que contenga
a H, entonces v ∈ S.
H⊆S
Recíprocamente, si v ∈ S, entonces v ∈ S para todo S subespacio de V que contiene a H.
T
H⊆S
Como (ya vimos que) el conjunto gen{H} = {a1 v1 + a2 v2 + · · · + ar vr : a1 , a2 , · · · , ar ∈ K} es un
subespacio de V y claramente

H ⊆ {a1 v1 + a2 v2 + · · · + ar vr : a1 , a2 , · · · , ar ∈ K}

(verificarlo). Entonces, en particular, tenemos que v ∈ gen{H} = {a1 v1 + a2 v2 + · · · + ar vr :


1 , a2 , · · · , ar ∈ K} y probamos la doble inclusión. Es decir, efectivamente tenemos que gen{H} =
aT
S. 
H⊆S

Volviendo al Caso 6 del Ejercicio 1.5, veamos que

{0} = gen{∅}.

Para probar esto último, es necesario definir qué entendemos por gen{∅}. Hasta ahora, sólo vimos
qué entendemos por gen{H} cuando H es un conjunto (finito) de vectores (de hecho definimos
gen{H} como todas las combinaciones lineales de los elementos de H) y con esa definición podemos
hacer prácticamente todos los ejercicios de la Guía (salvo quizás el Caso 6) del Ejercicio 1.5).

17
1. Espacios Vectoriales

Vamos a dar una definición (razonable) de gen{∅} que a su vez extienda la definición para el
caso en que H sea no vacío (que fue la que ya vimos). Entonces, por lo que acabamos de probar en
la Proposición 1.3.1, resulta natural definir:
\ \
gen{∅} := S= S,
∅⊆S S

donde la última igualdad vale porque todo conjunto (en particular todo subespacio) contiene al
conjunto vacío.
Veamos entonces, que S = {0}. De hecho, es claro que 0 ∈ S para todo S subespacio de V,
T
S
entonces \
{0} ⊆ S.
S

Por otra parte, como en particular {0} es un subespacio entonces,


\
S ⊆ {0}.
S

Probamos la doble inclusión y entonces se sigue que


\
gen{∅} = S = {0}.
S

Con estas ideas y la prueba del Ejercicio 1.7 (a continuación) se puede demostrar también
que el conjunto ∅ es (la única) base del subespacio {0}.

1.4. Conjuntos linealmente independientes


Definición. Sea V un K-espacio vectorial. El conjunto {v1 , v2 , · · · , vr } ⊆ V es linealmente
independiente (de ahora en más abreviamos LI) si dados a1 , a2 , · · · , ar ∈ K tales que

a1 v1 + a2 v2 + · · · + ar vr = 0V

entonces a1 = a2 = · · · = ar = 0. Cuando un conjunto no es LI diremos que es linealmente


dependiente (de ahora en más abreviamos LD).
Recordar que 0V denota el elemento neutro del K-espacio vectorial V.
El siguiente ejemplo demuestra que la independencia lineal de vectores depende del K-espacio
vectorial considerado.
Ejemplo 1.d. Sea (V, ⊕, R, ) el R-espacio vectorial del Ejemplo 1.b y consideremos
   (R, +, R, ·)
2

2 4
con la suma y producto por escalares usuales en R2 . Entonces el conjunto { , } es LD
1 1
en (V, ⊕, R, ) pero es LI en (R2 , +, R, ·).

Dem. Observar que


4 22 2
     
= =2 .
1 12 1
Entonces
4 2 4 2 4 44 1
       −2     1   1   
1 ⊕ (−2) = ⊕ = ⊕ 4 = = = 0V .
1 1 1 1−2 1 1 1 1

2 4
   
Tenemos una combinación lineal no nula de los vectores y igualada a 0V . Por lo
1 1
2 4
   
tanto, concluimos que el conjunto { , } es LD en (V, ⊕, R, ).
1 1

18
1.4. Conjuntos linealmente independientes

Por otra parte, supongamos que existen a, b ∈ R tales que

2 4 0
     
a +b = 0R2 = .
1 1 0

Entonces 2a + 4b = 0 y a + b = 0.Ese
 sistema sólo tiene como solución a = b = 0. Por lo tanto,
2 4

concluimos que el conjunto { , } es LI en (R2 , +, R, ·). 
1 1

Para resolver el próximo ejercicio, vamos a usar la ayuda que nos dan. La ayuda nos pregunta
qué significa que G sea un sistema de generadores que no es minimal. Si lo hacemos de esta manera
estaremos probando el contrarrecíproco del ejercicio, es decir probaremos que vale “no p si y sólo si
no q” que es equivalante a “p si y sólo si q”.
Ejercicio 1.7. Sea V un K-espacio vectorial y G = {v1 , v2 , v3 } un sistema de generadores de V.
Probar que G es un sistema de generadores minimal de V si y sólo si G es LI.

Dem. Supongamos que G es un sistema de generadores de V que no es minimal. Entonces, por


definición, existe un subconjunto (propio) G0 ( G no vacío tal que V = gen{G0 }. Sabemos por
hipótesis que V = gen{G} = gen{v1 , v2 , v3 }. Entonces gen{G0 } = gen{v1 , v2 , v3 }. Para continuar,
observemos que todos los subconjuntos propios (no vacíos) de G posibles son: {v1 }, {v2 }, {v3 },
{v1 , v2 }, {v1 , v3 } y {v2 , v3 }. Supongamos que G0 = {v1 } (la misma idea vale si G0 es cualquiera de
los otros subconjunto propios de G posibles). Entonces, como gen{v1 } = gen{G0 } = gen{v1 , v2 , v3 },
tenemos que (por ejemplo) v2 ∈ gen{v1 } entonces existe a ∈ K tal que v2 = av1 y entonces
el conjunto {v1 , v2 , v3 } no es LI. Finalmente, observar que con lo que vimos en el Caso 6) del
Ejercicio 1.5), si G0 es el conjunto vacío (que es un subconjunto propio de G), tendríamos que
gen{∅} = {0} = gen{G} = gen{v1 , v2 , v3 }. Entonces, claramente {v1 , v2 , v3 } no es LI y arribamos
a la misma conclusión.
Recíprocamente, si G no es un conjunto linealmente independiente de V, entonces existen
a1 , a2 , a3 ∈ K (no todos nulos) tales que 0V = a1 v1 + a2 v2 + a3 v3 . Supongamos que a1 6= 0 (es
lo mismo si suponemos que a2 6= 0 o que a3 6= 0). Entonces, v1 = − aa21 v2 − aa31 v3 , por lo tanto
V = gen{v1 , v2 , v3 } = gen{v2 , v3 }. Entonces, si llamamos G0 := {v2 , v3 }, tenemos que G0 es un
subconjunto propio de G (eso es así porque G0 está contenido en G y además v1 pertenece a G y no
pertenece a G0 ) y que V = gen{G0 }. Entonces G no puede ser un sistema de generadores minimal
de V. 

Ejercicio 1.8. Sean V un K-espacio vectorial, {v1 , v2 , · · · , v2 } ⊆ V un conjunto


Pn LI, y A =
[aij ] ∈ Kn×n . Para cada j ∈ {1, 2, · · · , n} se definen los vectores wj := i=1 ij i . Mostrar
a v
que {w1 , w2 , · · · , wn } es LI si y sólo si det(A) 6= 0.

Dem. Vamos a probar el ejercicio usando la definición de independencia lineal. Sean α1 , α2 , · · · αn ∈


K tales que
α1 w1 + α2 w2 + · · · + αn wn = 0V . (1.2)
Entonces, el conjunto {w1 , w2 , · · · , wn } es LI si y sólo si α1 = α2 = · · · = αn = 0.
Veamos entonces, qué pinta tiene la expresión (1.2) desarrollándola. De hecho, sabiendo que
w1 = a11 v1 + a21 v2 + · · · + an1 vn , w2 = a12 v1 + a22 v2 + · · · an2 vn , etc., tenemos que

α1 w1 + α2 w2 + · · · + αn wn = α1 (a11 v1 + a21 v2 + · · · + an1 vn )+


α2 (a12 v1 + a22 v2 + · · · an2 vn ) + · · · + αn (a1n v1 + a2n v2 + · · · ann vn ) = 0V .

Si sacamos factor común los vectores v1 , v2 , · · · , vn en la expresión de arriba, nos queda que:

v1 (α1 a11 + α2 a12 + · · · + αn a1n ) + v2 (α1 a21 + α2 a22 + · · · + αn a2n ) + · · · +


vn (α1 an1 + α2 an2 + · · · + αn ann ) = 0V .

19
1. Espacios Vectoriales

Como el conjunto {v1 , v2 , · · · , vn } es LI (por hipótesis) y arriba tenemos una CL de dichos vectores
igualada a 0V tenemos que cada escalar que multiplica a dichos vectores es nulo, es decir:

α1 a11 + α2 a12 + · · · + αn a1n = 0





α a + α a + · · · + α a = 0

1 21 2 22 n 2n


···
α1 an1 + α2 an2 + · · · + αn ann = 0.

 
a11 ··· a1n
 .. .. ..  ∈ Kn×n , el sistema de ecuaciones anterior es equivalente
Como A = [aij ] =  . . . 
an1 ··· ann
a  
α1
 α2 
A  · · ·  = 0. (1.3)

αn
Por lo tanto {w1 , w2 , · · · , wn } es LI si y sólo si α1 = α2 = · · · = αn = 0, si y sólo si la única
solución del sistema (1.3) es la trivial, si y sólo si A es inversible (acá usamos que A es cuadrada),
si y sólo si det(A) 6= 0. 

Independencia lineal de conjuntos en Kn


A continuación, vamos a justificar por qué cuando se tiene una cantidad (finita) de vectores
de Kn (K = R ó K = C) para verificar su independencia lineal basta con colocarlos en filas (o en
columnas) en una matriz, triangular y ver si una (o más) fila/s (columna/s) se anulan. La siguiente
proposición también resultará útil para entender los algoritmos del Ejercicio 1.13.
Proposición 1.4.1. Sea V un K-espacio vectorial y {v1 , v2 , · · · , vr } ⊆ V un conjunto de vectores.
Entonces:

1. {v1 , v2 , · · · , vi , · · · , vj , · · · , vr } es LI y sólo si {v1 , v2 , · · · , vj , · · · , vi , · · · , vr } es LI. Es decir


la independencia lineal de un conjunto no cambia si cambiamos el orden de los elementos del
conjunto.

2. {v1 , v2 , · · · , vi , · · · , vr } es LI y sólo si {v1 , v2 , · · · , cvi , · · · vr } es LI, para todo c ∈ K \ {0}. Es


decir la independencia lineal de un conjunto no cambia si multiplicamos por un escalar no
nulo alguno de los vectores.

3. {v1 , v2 , · · · , vi , · · · , vj , · · · , vr } es LI y sólo si {v1 , v2 , · · · , vi , · · · , vj + λvi, · · · , vr } es LI para


todo λ ∈ K (acá λ puede ser 0). Es decir la independencia lineal de un conjunto no cambia si
a un vector lo reemplazamos por ese mismo vector sumado un multiplo de otro vector.

Dem. 1. : Es obvio.
2. : Se deja como ejercicio.
3. : Supongamos que el conjunto {v1 , v2 , · · · , vi , · · · , vj , · · · , vr } es LI.
Queremos ver que {v1 , v2 , · · · , vi , · · · , vj + λvi, · · · , vr } con λ ∈ K es LI. Lo haremos por
definición. Sean a1 , a2 , · · · , ar ∈ K tales que

a1 v1 + a2 v2 + · · · + ai vi + · · · + aj (vj + λvi) + · · · + ar vr = 0V .

Operando y sacando factor común v1 , v2 , · · · , vr , tenemos que:

a1 v1 + a2 v2 + · · · + (ai + aj λ)vi + · · · + aj vj + · · · + ar vr = 0V .

20
1.4. Conjuntos linealmente independientes

Nos quedó una CL de los vectores v1 , v2 , · · · , vr igualada a 0V . Entonces, usando la hipótesis


(es decir que {v1 , v2 , · · · , vi , · · · , vj , · · · , vr } es LI), tenemos que, a1 = a2 = · · · = (ai + aj λ) =
· · · = aj = · · · = ar = 0. Entonces, ai = −λaj = −λ0 = 0. Entonces, como concluimos que
a1 = a2 = · · · = ai = · · · = aj = · · · = ar = 0 tenemos que {v1 , v2 , · · · , vi , · · · , vj + λvi, · · · , vr } es
LI y probamos lo que queríamos (observar que λ era cualquier elemento del cuerpo K, por lo tanto,
lo que probamos vale para todo λ ∈ K).
Recíprocamente, supongamos que {v1 , v2 , · · · , vi , · · · , vj + λvi, · · · vr } es LI para todo λ ∈ K.
Queremos ver que el conjunto {v1 , v2 , · · · , vi , · · · , vj , · · · vr } es LI. Observar que
{v1 , v2 , · · · , vi , · · · , vj , · · · vr } = {v1 , v2 , · · · , vi , · · · , vj + λvi + (−λ)vi , · · · vr }
que es LI por lo que acabamos de ver. 
Recordemos que cuando triangulamos una matriz, podemos realizar las siguientes operaciones
entre las filas:
1. intercambiar filas,
2. multiplicar una fila por un escalar no nulo,
3. reemplazar una fila por esa fila sumada a un multiplo de otra.
Por lo tanto, a partir de la Proposición 1.4.1, para decidir si un conjunto de vectores {v1 , v2 , · · · , vr }
de Kn es linealmente idependiente, basta con colocar dichos vectores en filas (o en columnas) en
una matriz y luego triangular. Si una (o más) fila/s (columna/s) se anulan, el conjunto es LD. De
lo contrario, el conjunto es LI.
La utilidad de este “método” (que sólo sirve para vectores de Kn ) está en que si al triangular la
matriz (que resulta de colocar los vectores en filas), una fila hubiera dado nula, entonces el vector
que originalmente estaba en dicha fila es LD con el resto de los vectores. La desventaja de este
método es que (obviamente) sólo se puede aplicar a una cantidad finita de vectores de Kn (con la
suma y el producto por escalares usuales de Kn ).

Ejercicio 1.10 a). Determinar cuáles de los siguientes subconjuntos son LI en su correspondiente
espacio vectorial:
1 3 0
     

El subconjunto {  3  ,  5  ,  −5 }.
−2 −6 6

Dem. 1.10 (a). Vamos a resolver el problema de dos maneras.


Por definición: Sean a, b, c ∈ R tales que
1 3 0 0
       

a  3  +b  5  +c  −5  =  0 .
−2 −6 6 0

1 3 0 0
     
a
Operando, nos queda el siguiente sistema a resolver,  3 5 −5   b  =  0  .
−2 −6 6 c 0
Resolviendo el sistema, obtenemos que a = b = c = 0. Entonces el conjunto es LI.
Triangulando la  matriz
 que resulta  de colocar los vectores en fila:
1 3 0
 

Llamemos v1 =  3  , v2 =  5  , v3  −5  , coloquemos dichos vectores en las filas


−2 −6 6
de una matriz y triangulemos.
1 3 −2 1 3 −2 1 3 −2
       
v1
 v2  =  3 5 −6  ⇒  0 −4 0  ⇒  0 −4 0  .
v2 −3v1 →v20 v3 − 45 v20 →v30
v3 0 −5 6 0 −5 6 0 0 6

21
1. Espacios Vectoriales

En la Proposición 1.4.1, vimos que las operaciones que realizamos entre los vectores (colocados
en las filas de una matriz) cuandotriangulamos dicha
 matriz  no modifican su independencia lineal.
1 0 0
 

Es decir, si llamamos v10 =  3  , v20 =  −4  y v30 =  0  , entonces claramente {v10 , v20 , v30 }
−2 0 6
es un conjunto LI. Entonces, por la Proposición 1.4.1, el conjunto original {v1 , v2 , v3 } era LI. 

Ejercicio 1.12 a). Hallar todos los valores de a ∈ R para los cuales los siguientes subconjuntos son
linealmente dependientes (LD) en su correspondiente espacio vectorial.

El subconjunto {1 + ax + 3x2 , 4 + 5x + 7x2 , a + x + x2 } en R2 [x].

Dem. Para este ejercicio no podemos usar la Proposición 1.4.1 (no tenemos vectores de Rn sino
polinomios) así que lo haremos por definición. Sean α, β, γ ∈ R tales que

α(1 + ax + 3x2 ) + β(4 + 5x + 7x2 ) + γ(a + x + x2 ) = 0 para todo x ∈ R.

Buscaremos para qué valores de a ∈ R, obtenemos que α = β = γ = 0; para esos valores de a el


conjunto será LI, o equivalentemente, cuando a NO adquiera eso valores el conjunto será LD.
Operando y sacando factor común 1, x, x2 en la ecuación anterior, tenemos que:

1(α + 4β + aγ) + x(aα + 5β + γ) + x2 (3α + 7β + γ) = 0 = 0(x) para todo x ∈ R,

donde 0 denota al polinomio nulo (es decir al elemento neutro de R2 [x]). Como sabemos que el
conjunto {1, x, x2 } es LI en R2 [x] y tenemos una CL de dichos vectores igualada al elemento neutro
de R2 [x] vale que α + 4β + aγ = aα + 5β + γ = 3α + 7β + γ = 0. Escrito de manera matricial, el
sistema anterior es equivalente a

1 4 a 0
     
α
 a 5 1   β  =  0 .
3 7 1 γ 0

Como tenemos una matriz cuadrada de 3 × 3, sabemos que el determinante de dicha matriz es
no nulo si y sólo si la solución del sistema anterior es la trivial (α = β = γ = 0) si y sólo si el
subconjunto de vectores iniciales es LI. Equivalentemente, el determinante de la matriz en cuestión
es nulo si y sólo si la solución del sistema es no trivial si y sólo si el subconjunto de vectores iniciales
es LD. Calculemos eldeterminante:
1 4 a

det(  a 5 1 ) = 7a2 − 19a + 10. Entonces 7a2 − 19a + 10 = 0 si y sólo si a = 57 ó a = 2.


3 7 1
Para eso valores de a el subconjunto {1+ax+3x2 , 4+5x+7x2 , a+x+x2 } es LD o equivalentemente
si a ∈ R \ { 57 , 2} el subconjunto {1 + ax + 3x2 , 4 + 5x + 7x2 , a + x + x2 } es LI. 
Observar que podemos usar el “método” del determinante (tal como hicimos en el ejercicio
anterior) cuando el sistema a resolver tiene la misma cantidad de incógnitas que de ecuaciones (es
decir nos quedan matrices cuadradas). Si ese no es el caso, el determinante no está definido y hay
que buscar otras maneras de resolver el problema. Por ejemplo, triangulando la matriz que nos
quedó (al plantear la independencia lineal por definición) y viendo para que valores de a una (o
más) filas se anulan.

1.5. Wronskiano
En este sección vamos a estudiar una condición suficiente para determinar la independencia
lineal de un conjunto de funciones. Sea I ⊆ R un intervalo y sean {f1 , f2 , · · · , fn } un conjunto de

22
1.5. Wronskiano

n funciones pertenecientes a C n−1 (I) (es decir funciones continuas con n − 1 derivadas continuas).
Se define el wronskiano de {f1 , f2 , · · · , fn } en x0 ∈ I como
f1 (x0 ) f2 (x0 ) fn (x0 )
 
···
 f10 (x0 ) f20 (x0 ) ··· fn0 (x0 ) 
W (f1 , · · · , fn )(x0 ) = det  .. .. . . .
 
 . . .. .. 

f1n−1 (x0 ) f2n−1 (x0 ) · · · fnn−1 (x0 )
En este sección 0 denotará a la función nula (es decir al elemento neutro de C(I)).
Veamos un ejemplo. Sean f1 (x) = x2 , f2 (x) = x, f3 (x) = 1. Claramente, {f1 , f2 , f3 } es un
conjunto de 3 funciones pertenecientes a C 2 (R) (en realidad son infinitamente derivables con
derivadas continuas). Entonces
x x 1
 2 

W (f1 , f2 , f3 )(x) = det(  2x 1 0 ) = −2.


2 0 0
El siguiente resultado nos da una condición suficiente para determinar la independencia lineal
de un conjunto de n funciones en C n−1 (I).
Teorema 1.5.1. Sean {f1 , f2 , · · · , fn } un conjunto de funciones pertenecientes a C n−1 (I) (es decir
funciones continuas con n−1 derivadas continuas) tal que existe x0 ∈ I tal que W (f1 , · · · , fn )(x0 ) 6=
0. Entonces el conjunto {f1 , f2 , · · · , fn } es LI.

Dem. Vamos a probar el resultado usando la definición de independencia lineal. Sean a1 , · · · , an ∈ K


tales que
a1 f1 + a2 f2 + · · · + an fn = 0.
Queremos ver que a1 = a2 = · · · = an = 0. Para probar esto, derivemos la ecuación anterior n − 1
veces (lo podemos hacer porque las funciones involucradas pertenecen todas a C n−1 (I)). Nos queda
el siguiente sistema de n ecuaciones y n incógnitas.

a1 f1 + a2 f2 + · · · + an fn = 0



a1 f10 + a2 f20 + · · · + an fn0 = 0


.. .


 .
a1 f1n−1 + a2 f2n−1 + · · · + an fnn−1 = 0.

En particular, si evaluamos el sistema de ecuaciones anterior en x0 tenemos que

a1 f1 (x0 ) + a2 f2 (x0 ) + · · · + an fn (x0 ) = 0(x0 ) = 0





a1 f10 (x0 ) + a2 f20 (x0 ) + · · · + an fn0 (x0 ) = 0(x0 ) = 0


.. .


 .
a1 f1n−1 (x0 ) + a2 f2n−1 (x0 ) + · · · + an fnn−1 (x0 ) = 0(x0 ) = 0.

Sea
f1 (x0 ) f2 (x0 ) fn (x0 )
 
···
 f10 (x0 ) f20 (x0 ) ··· fn0 (x0 ) 
A :=  .. .. .. .. .
 
 . . . . 
f1n−1 (x0 ) f2n−1 (x0 ) · · · fnn−1 (x0 )
Entonces, el sistema anterior, nos queda escrito matricialmente como
0
   
a1
 a2   0 
A  .  =  . .
   
 ..   .. 
an 0

23
1. Espacios Vectoriales

Como A ∈ Rn×n (está definido el determinante de A) y

f1 (x0 ) f2 (x0 ) fn (x0 )


 
···
 f10 (x0 ) f 0
2 (x 0 ) · · · f n (x0 )
0 
det(A) = det  .. .. .. ..  = W (f1 , · · · , fn )(x0 ) 6= 0,
 
 . . . . 
f1 (x0 ) f2 (x0 ) · · · fn (x0 )
n−1 n−1 n−1

donde para la última igualdad usamos la hipótesis. Entonces, rg(A) = n y por lo tanto, la solución
del sistema anterior es la trivial. Es decir, a1 = a2 = · · · = an = 0. Entonces, el conjunto
{f1 , f2 , · · · , fn } es LI. 
Observar que el Teorema 1.5.1 NO es un “si y sólo si”. Es un teorema del tipo “si p entonces
q”. Es decir, con ese teorema podemos decir que si el conjunto de funciones es LD, entonces el
Wronskiano se anula en todo punto (“no q entonces no p”). El Teorema NO nos dice qué pasa si el
Wronskiano se anula en todo punto. De hecho, el Ejercicio 1.E que veremos más adelante, es un
ejemplo de un conjunto LI cuyo Wronskiano se anula en todo punto.

Veamos una aplicación del teorema anterior:


Ejercicio 1.11 b). Determinar cuáles de los siguientes conjuntos de funciones son L.I
G = {1 + 3 sin(x) − 2 cos(x), 3 + 5 sin(x) − 6 cos(x), −5 sin(x) + 6 cos(x)}.
Recordemos que, dadas f, g : I → R (es decir dos funciones definidas en un intervalo I ⊆ R que
toman valores en R). Entonces

f = g si y sólo si f (x) = g(x) para todo x ∈ I.

Dem. Vamos a resolverlo de dos maneras. Usando el teorema anterior y por definición.
Para eso llamemos, f (x) = 1 + 3 sin(x) − 2 cos(x), g(x) = 3 + 5 sin(x) − 6 cos(x), h(x) =
−5 sin(x) + 6 cos(x).
Usando el Teorema anterior:
Claramente f, g, h ∈ C 2 (R) (de hecho son infinitamente derivables con derivadas continuas).
Calculamos el wronskiano.

W (f, g, h)(x) =
1 + 3 sin(x) − 2 cos(x) 3 + 5 sin(x) − 6 cos(x) −5 sin(x) + 6 cos(x)
 

= det   3 cos(x) + 2 sin(x) 5 cos(x) + 6 sin(x) −5 cos(x) − 6 sin(x)  .


−3 sin(x) + 2 cos(x) −5 sin(x) + 6 cos(x) 5 sin(x) − 6 cos(x)
Ahora deberíamos calcular el determinante de esa matriz de 3 × 3. Recordar que el Teorema 1.5.1
nos dice que basta con encontrar un punto donde el Wronskiano no se anule para probar que el
conjunto es LI. Entonces podemos hacer eso, es decir, proponemos un valor (conveniente) y vemos
qué pasa con el wronskiano en ese valor. De esa manera, nos ahorramos de calcular el Wronskiano
de manera general para todo x. Por ejemplo, podemos tomar x = 0. Entonces,
−1 −3 6
 

W (f, g, h)(0) = det   3 5 −5  = 24 6= 0.


2 6 −6

Como encontramos un punto (en este caso x = 0) donde W no se anula, por el Teorema 1.5.1,
concluimos que el conjunto es LI.
Por definición: Sean a, b, c ∈ R tales que

af + bg + ch = 0. (1.4)

Veamos que a = b = c = 0. Observar que en la ecuación anterior 0 representa a la función nula, es


decir la función tal que 0(x) = 0 para todo x ∈ R. Vimos que 0 es el elemento neutro del R-espacio

24
1.5. Wronskiano

vectorial C(R) (de manera similar se puede probar que 0 es el elemento de neutro de C n (R) para
cualquier n ∈ N). Observar que en (1.4) tenemos una igualdad de funciones. Entonces, usando lo
que vimos arriba para igualdad de funciones, tenemos que vale que:

af (x) + bg(x) + ch(x) = 0(x) = 0 para todo x ∈ R.

Donde ahora el 0 obviamente es el número real 0. Escribiendo la expresión de las funciones, nos
queda:

a(1 + 3 sin(x) − 2 cos(x)) + b(3 + 5 sin(x) − 6 cos(x)) + c(−5 sin(x) + 6 cos(x)) = 0 para todo x ∈ R.

Usando esa expresión, tenemos que probar que a = b = c = 0. Como la ecuación anterior vale
para todo x ∈ R, podemos proponer 3 valores de x y evaluar dicha ecuación en esos valores. Si
hacemos eso, nos quedará un sistema de 3 ecuaciones con 3 incógnitas, resolvemos el sistema y
vemos si su solución es la trivial.
Por ejemplo, si proponemos x = 0, nos queda: −a − 3b + 6c = 0. Si proponemos, x = π2 , nos
queda 4a + 8b − 5c = 0. Por último, si proponemos x = − π2 , nos queda −2a − 2b + 5c = 0.

−a − 3b + 6c = 0

Es decir, nos queda el sistema: 4a + 8b − 5c = 0 .
−2a − 2b + 5c = 0

Resolviendo, nos queda que a = b = c = 0, es decir la única solución es la trivial. Por lo tanto el
conjunto {f, g, h} es LI. 

Ejercicio 1.D. Supongamos que con los 3 valores de x que propusimos en la resolución del ejercicio
anterior (por definición) hubieramos obtenido un sistema de ecuaciones indeterminado. En ese caso,
¿se puede concluir entonces que el sistema es LD?
Spoiler alert: NO. Tratar de meditar esto.
Ejercicio 1.E. Sean f, g ∈ C 1 (R) las funciones definidas por f (x) := x3 y g(x) := |x|3 . Comprobar
que {f, g} es un conjunto LI pero el Wronskiano de dicho conjunto es nulo para todo x ∈ R.

Dem. Notar que g = x3 si x ≥ 0 y g(x) = −x3 si x < 0. Además, es claro que g 0 (x) = 3x2 si x > 0,
g 0 (x) = −3x2 si x < 0 y, por definición, podemos probar que g 0 (0) = 0. Entonces,

f (x) g(x)
 
W (f, g)(x) = det( ).
f 0 (x) g 0 (x)

Calculemos el Wronskiano para los distintos valores que puede tomar x. Si x > 0, tenemos que
 3
x3

x
W (f, g)(x) = det( ) = 0.
3x2 3x2

Si x < 0, tenemos que


x3 −x3
 
W (f, g)(x) = det( ) = 0.
3x2 −3x2
Si x = 0,
f (0)
 
g(0)
W (f, g)(0) = det( ) = 0.
f 0 (0) g 0 (0)
Por lo tanto, W (f, g)(x) = 0 para todo x ∈ R. Sin embargo, el conjunto {f, g} es LI. De hecho,
sean a, b ∈ R tales que
af + bg = 0,

25
1. Espacios Vectoriales

donde 0 denota la función nula (el elemento neutro del espacio vectorial C 1 (R)). Entonces

af (x) + bg(x) = ax3 + b|x|3 = 0 para todo x ∈ R.

En particular, si x = 1, tenemos que a(1)3 + b|1|3 = a + b = 0 y, si x = −1, tenemos que


a(−1)3 + b| − 1|3 = −a + b = 0. Entonces, a + b = a − b = 0, por lo tanto a = b = 0 y el conjunto
{f, g} resulta LI. 

Ejercicio 1.F (De Parcial). Observar que el siguiente conjunto de funciones está contenido en el
R-espacio vectorial C ∞ (R) y comprobar que es linealmente independiente.
{eλ1 x , eλ2 x , · · · , eλn x }, donde λ1 < λ2 < · · · < λn .
Observar que si λ1 < λ2 < · · · < λn como λi − λn < 0 para todo i ∈ {1, 2, · · · , n − 1} vale que

lı́m e(λi −λn )x = 0,


x→∞

para todo i ∈ {1, 2, · · · , n − 1}. Este es un resultado visto en el CBC en Análisis Matemático (si no
están convencidos, vuelvan a repasar eso).
Más aún, si a1 , · · · , an−1 ∈ R, usando las propiedades de límite (de sucesiones convergentes)
también vale que
n−1
X
lı́m ai e(λi −λn )x = 0.
x→∞
i=1

Dem. Claramente {eλ1 x , eλ2 x , · · · , eλn x } ⊆ C ∞ (R), ya que todas las funciones del conjunto en
cuestión son infinitamente derivables con derivadas continuas.
A continuación vamos a probar que el conjunto dado es LI por inducción en i.
Si i = 1, el conjunto {eλ1 x } es LI, porque tiene un sólo elemento (que no es la función nula).
Si i = 2 (no es necesario probar este caso pero lo vamos a hacer para fijar ideas) el conjunto
{eλ1 x , eλ2 x } también es LI. Supongamos que no, es decir supongamos que dicho conjunto es LD.
Entonces existe a1 ∈ R tal que

eλ2 x = a1 eλ1 x para todo x ∈ R.

Equivalentemente, como eλ2 x > 0 para todo x (es decir nunca se anula), tenemos que

eλ1 x
1 = a1 = a1 e(λ1 −λ2 )x para todo x ∈ R.
eλ2 x
Ahora, tomando límite a ambos lados de la igualdad anterior, tenemos que

1 = lı́m 1 = lı́m a1 e(λ1 −λ2 )x = 0,


x→∞ x→∞

donde usamos lo que probamos arriba. Por lo tanto llegamos a un absurdo y el conjunto {eλ1 x , eλ2 x }
no puede ser LD. Entonces es LI.
Hipótesis inductiva (HI): para i = n − 1, el conjunto {eλ1 x , eλ2 x , · · · , eλn−1 x } es LI.
Con la HI, vamos a probar que para i = n el conjunto {eλ1 x , eλ2 x , · · · , eλn−1 x , eλn x } también es
LI. Supongamos que no, es decir que dicho conjunto es LD. Entonces, por hipótesis inductiva, no
queda otra que eλn x sea una CL de los elementos de {eλ1 x , eλ2 x , · · · , eλn−1 x } (antes de continuar,
pensar por qué pasa esto). Es decir, existen a1 , · · · , an−1 ∈ R, tales que

eλn x = a1 eλ1 x + a2 eλ2 x + · · · + an−1 eλn−1 x .

Operando de la misma manera que para el caso i = 2, tenemos que


n−1
a1 eλ1 x + a2 eλ2 x + · · · + an−1 eλn−1 x X
1= λ x
= ai e(λi −λn )x para todo x ∈ R.
e n
i=1

26
1.6. Bases de espacios vectoriales

Ahora, tomando límite a ambos lados de la igualdad anterior (como en el caso i = 2), tenemos que
n−1
X
1 = lı́m 1 = lı́m ai e(λi −λn )x = 0,
x→∞ x→∞
i=1

donde usamos lo que probamos arriba. Por lo tanto llegamos a un absurdo y el conjunto
{eλ1 x , eλ2 x , · · · , eλn−1 x , eλn x } no es LD. Por lo tanto es LI y probamos lo que queríamos. 

1.6. Bases de espacios vectoriales


Definición. Sea V un K-espacio vectorial, S ⊆ V un subespacio. El conjunto {v1 , v2 , · · · , vr } es
una base de S si

i) S = gen{v1 , v2 , · · · , vr },

ii) el conjunto {v1 , v2 , · · · , vr } es LI.

En este caso, se define la dimensión de S como dim(S) = #{v1 , v2 , · · · , vr } = r, es decir el cardinal


(el número de elementos) de alguna base de S.
Observar que de la definición de base se sigue que v1 , v2 , · · · , vr ∈ S.

Ejercicio 1.5 a). Hallar una base y determinar la dimensión de cada uno de los siguientes
subespacios:

S = {p ∈ R2 [x] : p(1) = 0}.

Dem. Si p ∈ S, entonces p ∈ R2 [x] es decir p(x) = ax2 + bx + c, con a, b, c ∈ R y además,


0 = p(1) = a · 12 + b · 1 + c = a + b + c. Despejando, nos queda (por ejemplo) a = −b − c. Por lo
tanto,

p(x) = ax2 + bx + c = (−b − c)x2 + bx + c = b(−x2 + x) + c(−x2 + 1) con b, c ∈ R.

Por lo tanto, S = {p ∈ R2 [x] : p(x) = b(−x2 +x)+c(−x2 +1) con b, c ∈ R} = gen{−x2 +x, −x2 +1}.
Una base de S, podría ser
BS = {−x2 + x, −x2 + 1}.
Entonces, dim(S) = 2. 

Ejercicio 1.G. Hallar una base y determinar la dimensión del siguiente subespacio:

S = {p ∈ R[x] : p(n) = 0}. Con n algún número natural.

Dem. Primero entendamos qué elementos de R[x] viven en S. Observar que p ∈ R[x] pertenece a
S si y sólo si p(n) = 0. Donde p(n) denota la derivada n-ésima de p y 0 denota al polinomio nulo, es
decir el polinomio que vale 0 en todo punto (en otros ejercicios lo hemos notado como 0). Como
verán, tenemos en realidad una igualdad de polinomios (de funciones), es decir, p ∈ S si y sólo si
p(n) (x) = 0 para todo x ∈ R, donde ahora 0 denota al número real 0.
Paréntesis para ver si se entendió lo de arriba: Es crucial entender cuándo el 0 denota
una función y cuando denota un número real dado que la notación del ejercicio no diferencia
entre ambos casos, pero por contexto lo podemos inferir. Es decir como p(n) es un polinomio, no
tendría sentido la igualdad p(n) = 0 con 0 un número real, porque un polinomio y un número no
se comparan. En cambio, como p(n) (x) es un número real (es decir al evaluar un polinomio en un
punto x obtenemos un número real) en la igualdad p(n) (x) = 0, el símbolo 0 denota al número real
0. Fin del paréntesis

27
1. Espacios Vectoriales

En conclusión, S contiene a todos los polinomios de grado menor o igual a n − 1 y al polinomio


nulo (que técnicamente no tiene grado). Esto es así porque si el grado de p es n − 1 (o menor), su
derivada n-ésima es nula en todo x; por el contrario, si el grado de p es n o mayor, su derivada
n-ésima no se anula. Conclusión

S = Rn−1 [x] = {p ∈ R[x] : grado(p) ≤ n − 1} ∪ {0}.

Una base de S podría ser BS = {1, x, · · · , xn−1 } y dim(S) = n. 

Ejercicio 1.H (De Parcial). Consideremos V = Cn con cuerpo K = R y sean v1 , v2 , · · · , vm ∈ Rn


(m vectores con todas sus componentes reales). Demostrar que el conjunto B = {v1 , v2 , · · · , vm } no
puede ser base de V.
Hay muchas maneras de demostrar este ejercicio. Propongo que piensen otras formas alternativas.
Dem. Vamos a probarlo por el absurdo. Supongamos que B es una base de V. Entonces, dado
v ∈ Cn , existen a1 , · · · , am ∈ K = R tales que

v = a1 v1 + a2 v2 + · · · + am vm .

Entonces v ∈ Rn puesto que es la combinación lineal real de m vectores de Rn . Como v era cualquiera
concluimos entonces que Cn ⊆ Rn (básicamente porque cualquier vector v de Cn pertenece también
a Rn ). Eso claramente es absurdo, por ejemplo el vector v = [i 0 · · · 0]T ∈ Cn pero v 6∈ Rn (la
primera componente es no real). El absurdo se produjo por creer que B es una base de V. Por lo
tanto B no puede ser base de V. 

1.7. Igualdad de subespacios


Recordemos que dados A, B dos conjuntos, entonces:
A ⊆ B, si para cada x ∈ A vale que x ∈ B.
A ( B, si para cada x ∈ A vale que x ∈ B y existe z ∈ B tal que z 6∈ A.
A = B, si A ⊆ B y B ⊆ A.
Si ahora los conjuntos S, T son además subespacios de un K-espacio vectorial, vale la siguiente
propiedad que usaremos ampliamente:

Teorema 1.7.1. Sea V un K-espacio vectorial, S, T ⊆ V dos subespacios. Entonces S = T


si y sólo si S ⊆ T y dim(S) = dim(T ).

Dem. Una de las implicaciones es obvia. Porque si S = T entonces claramente S ⊆ T y


dim(S) = dim(T ).
Recíprocamente, si S ⊆ T y dim(S) = dim(T ). Veamos que S = T . Lo vamos a probar por el
absurdo. Supongamos que S 6= T , esto significa que S ( T (si no son iguales, como por hipótesis
S ⊆ T no queda otra que S esté totalmente contenido en T ). Es decir, existe un vector z ∈ T
pero z 6∈ S. Supongamos que dim(S) = r y sea {s1 , · · · , sr } una base de S. Entonces el conjunto
{s1 , · · · , sr , z} es LI (eso es porque z 6∈ S, meditar por qué pasa eso) y además {s1 , · · · , sr , z} ⊆ T
puesto que s1 , · · · , sr ∈ S ⊆ T y teníamos que z ∈ T . Entonces T contiene al menos r + 1 vectores
LI, por lo tanto dim(T ) ≥ r + 1, pero dim(T ) = dim(S) = r, lo cual es absurdo (r no es mayor o
igual que r + 1). Por lo tanto S = T . 

A continuación veremos dos ejercicios donde aplicaremos el Teorema 1.7.1.


Ejercicio 1.I (De Parcial). Sea V un K−espacio vectorial tal que dim(V) = n. Demostrar que:

28
1.8. Ecuaciones diferenciales de segundo orden

i) n vectores LI de V forman una base de V.

ii) n vectores que generan V forman una base de V.

Dem. Veamos el item i). El otro hacerlo de ejercicio.


Sea {v1 , · · · , vn } algún conjunto de n vectores de V linealmente independientes. Entonces,
dim(gen{v1 , · · · , vn }) = n = dim(V). Como claramente gen{v1 , · · · , vn } y V son subespacios y
gen{v1 , · · · , vn } ⊆ V, por el el Teorema 1.7.1, tenemos que gen{v1 , · · · , vn } = V. Entonces el
conjunto {v1 , · · · , vn } es una base de V. 

Ejercicio 1.J (De Parcial). Sean S = {p ∈ R3 [x] : p(1) = p0 (1) = 0} y T = gen{x2 + mx + 1, x3 +


x2 − 5x + (5 + m), −x3 + (m + 3)x2 + x − 1}. Hallar m ∈ R (si existe) tal que S = T .

Dem. Como S y T son subespacios, podemos usar el Teorema 1.7.1 y probar para qué valores
de m se cumple que T ⊆ S y dim(S) = dim(T ). Si pasa eso, entonces por el resultado anterior,
S =T.
Llamemos p(x) = x2 + mx + 1, q(x) = x3 + x2 − 5x + (5 + m), r(x) = −x3 + (m + 3)x2 + x − 1.
Entonces T ⊆ S si y sólo si p, q, r ∈ S ( ¿por qué?).
Verifiquemos si p ∈ S. Evaluando p(1) = m + 2 = 0 entonces m = −2 y p0 (1) = 2(1) + m =
2 − 2 = 0. Entonces m = −2 (si m toma otro valor, no hay manera de que T ⊆ S). Reemplazando
m = −2, tenemos que p(x) = x2 − 2x + 1, q(x) = x3 + x2 − 5x + 3, r(x) = −x3 + x2 + x − 1. Falta
verificar que q, r ∈ S (si eso no ocurre entonces no existe tal m y nunca podría pasar que S = T ).
Verificando, se ve que q(1) = 0, q 0 (1) = 0 y r(1) = 0, r0 (1) = 0. Entonces, si m = −2, T ⊆ S. Falta
verificar que para ese valor de m, vale que dim(S) = dim(T ). En ese caso, observar dim(S) = 2, pues
S = gen{x3 − 3x + 2, x2 − 2x + 1}. Además, como q+r 2 = p, vale que T = gen{p, q, r} = gen{q, r}.
Como q y r no son multiplos entonces son LI y dim(T ) = 2 = dim(S). Entonces, si m = −2 tenemos
que S = T . 

1.8. Ecuaciones diferenciales de segundo orden


A continuación comenzaremos a estudiar ecuaciones diferenciales lineales homogéneas de orden
2 que tienen la forma
y 00 + a1 y 0 + a0 y = 0,
con a0 , a1 ∈ R. En el siguiente ejercicio analizaremos las soluciones de dicha ecuación diferencial.
Ejercicio 1.17. Sean a0 , a1 ∈ R. Sabiendo que el espacio solución de la ecuación diferencial lineal
homogénea de orden 2
y 00 + a1 y 0 + a0 y = 0, (1.5)
tiene dimensión 2, comprobar que

a) cualesquiera sean a, b ∈ R con b = 6 a, el conjunto de funciones {eax , ebx } es una base del
espacio solución de la ecuación y − (a + b)y 0 + aby = 0;
00

(b) para cualquier a ∈ R, el conjunto de funciones {eax , xeax } es una base del espacio solución de
la ecuación y 00 − 2ay 0 + a2 y = 0;

(c) cualesquiera sean a, b ∈ R con b 6= 0, el conjunto de funciones {eax cos(bx), eax sin(bx)} es
una base del espacio solución de la ecuación y 00 − 2ay 0 + (a2 + b2 )y = 0.

Dem. a) : Llamemos S := {y ∈ C ∞ (R) : y 00 − (a + b)y 0 + aby = 0}. Es decir, S es el conjunto de


soluciones de la ecuación diferencial y 00 − (a + b)y 0 + aby = 0. Por un lado, es claro que S es un
subespacio y por el otro lado, tomando a1 = −(a + b) y a0 = ab en (1.5), se sigue que S es un
subespacio de dimensión 2.

29
1. Espacios Vectoriales

Notar que las funciones eax y ebx son soluciones de la ecuación y 00 − (a + b)y 0 + aby = 0. De
hecho,
(eax )00 − (a + b)(eax )0 + ab(eax ) = a2 eax − a(a + b)eax + ab(eax ) = 0.

De la misma manera se prueba que ebx es una solución de la ecuación y 00 − (a + b)y 0 + aby = 0. Por
lo tanto eax ∈ S y ebx ∈ S. Veamos que el conjunto {eax , ebx } es LI, podemos probarlo calculando
el Wronskiano (por ejemplo):

eax ebx
 
W (eax , ebx )(x) = det( ) = (b − a)e(a+b)x 6= 0,
aeax bebx

donde usamos que e(a+b)x > 0 para todo x ∈ R y b 6= a. Por lo tanto, {eax , ebx } es un conjunto LI.
Conclusión: tenemos 2 vectores LI de S (que es un subespacio de dimensión 2). Entonces, por el
Ejercicio 1.I, el conjunto {eax , ebx } es una base de S o equivalentemente, {eax , ebx } es una base del
espacio solución de la ecuación y 00 − (a + b)y 0 + aby = 0.
b) : Se resuelve igual que el item a) viendo que los vectores eax y xeax son soluciones de la
ecuación y 00 − 2ay 0 + a2 y = 0 y observando que el conjunto {eax , xeax } es un conjunto LI (pueden
probarlo calculando el Wronskiano por ejemplo). Tomando, a1 = −2a y a0 = a2 en (1.5), tenemos
que el subespacio que es el conjunto de soluciones de la ecuación y 00 − 2ay 0 + a2 y = 0 tiene dimensión
2. Por lo tanto, por el Ejercicio 1.I, el conjunto {eax , xeax } es una base del espacio solución de la
ecuación y 00 − 2ay 0 + a2 y = 0.
c) : Se resuelve igual que el item a) viendo que los vectores eax cos(bx) y eax sin(bx) son
soluciones de la ecuación y 00 − 2ay 0 + (a2 + b2 )y = 0 y observando que, como b 6= 0, el conjunto
{eax cos(bx), eax sin(bx)} es un conjunto LI (pueden probarlo calculando el Wronskiano por ejemplo).
Tomando a1 = −2a y a0 = a2 + b2 en (1.5), tenemos que el subespacio que es el conjunto de
soluciones de la ecuación y 00 − 2ay 0 + (a2 + b2 )y = 0 tiene dimensión 2. Por lo tanto, por el
Ejercicio 1.I, el conjunto {eax cos(bx), eax sin(bx)} es una base del espacio solución de la ecuación
y 00 − 2ay 0 + (a2 + b2 )y = 0. 
Veamos una aplicación del Ejercicio 1.17.
Ejercicio 1.18 b). Hallar la solución y ∈ C ∞ (R) de la ecuación diferencial indicada que satisface
las siguientes condiciones: y(0) = 1, y 0 (0) = 1.

y 00 + 4y 0 + 4y = 0.

Dem. Notar que la ecuación diferencial dada la podemos pensar como

y 00 − 2(−2)y + (−2)(−2)y = 0.

Es decir, la ecuación diferencial es de la forma y 00 − 2ay 0 + a2 y = 0 con a = −2. Entonces, por el


Ejercicio 1.17, {e−2x , xe−2x } es una base del espacio solución de la ecuación y 00 + 4y 0 + 4y = 0.
Es decir, todas las soluciones de la ecuación diferencial son de la forma

y(x) = αe−2x + βxe−2x con α, β ∈ R.

Buscamos de todas las soluciones, aquellas que cumplen que y(0) = 1, y 0 (0) = 1. Es decir,
1 = y(0) = αe−2·0 + β0e−2·0 = α y como y 0 (x) = −2αe−2x + β(e−2x − 2xe−2x ), tenemos que
1 = y 0 (0) = −2α + β = −2 · 1 + β. Entonces β = 3. Por lo tanto la solución de la ecuación diferencial
que satisface y(0) = 1, y 0 (0) = 1 es

y(x) = e−2x + 3xe−2x .

30
1.9. Subespacios fundamentales de una matriz

1.9. Subespacios fundamentales de una matriz


Definición. Sea A ∈ Kn×m (es decir una matriz de n × m cuyas componentes son elementos de
K). Supongamos que A = [A1 A2 · · · Am ], donde A1 , A2 , · · · , Am ∈ Kn son las columnas de A. Se
define:
El espacio nulo de A: nul(A) := {x ∈ Km : Ax = 0Kn } ⊆ Km ,
El espacio columna de A: col(A) := gen{A1 , A2 , · · · , Am } ⊆ Kn ,
El espacio fila de A: fil(A) := col(AT ) ⊆ Km .
Dada A ∈ Kn×m , observar que el rango de A, es decir el número de columnas (o filas) de A
linealmente independientes (lo notamos rg(A)), coincide con la dimensión del subespacio col(A).
Es decir rg(A) = dim(col(A)).
Recordemos el Teorema de la dimensión para matrices que usaremos ampliamente en estos
ejercicios.
Teorema 1.9.1. Sea A ∈ Rn×m . Entonces,
dim(nul(A)) + rg(A) = m.
Sea A ∈ Cn×m y supongamos que estamos trabajando en el cuerpo K = C. Entonces,
dim(nul(A)) + rg(A) = m.
Sea A ∈ C n×m
y supongamos que estamos trabajando en el cuerpo K = R. Entonces,
dim(nul(A)) + rg(A) = 2m.
En el caso en que A ∈ Cn×m , para el teorema de la dimensión debemos discriminar en los casos
en que estamos trabajando en el cuerpo K = C ó K = R. Esto es así, porque en el primer caso,
dim(CmC ) = m y en el segundo caso dim(CR ) = 2m y eso se ve reflejado en dicho teorema.
m

La demostración del Teorema 1.9.1 se vio en el CBC, de todas maneras, más adelante
enunciaremos y demostraremos una generalización de este teorema para transformaciones lineales.
Proposición 1.9.2. Sea A ∈ Km×n y b ∈ Kn . Entonces, si existe solución del sistema Ax = b,
todas las soluciones xs del sistema Ax = b se pueden expresar como
xs = xp + xh ,
donde xp es una solución particular (es decir Axp = b) y xh ∈ nul(A) (es decir xh es solucion del
sistema homogéneo Ax = 0).

Dem. Primero veamos que efectivamente xs resuelve el sistema Ax = b. Esto es así pues,
Axs = A(xp + xh ) = Axp + Axh = b + 0 = b.
Por útlimo, veamos que toda solución del sistema se puede escribir como queremos. Sea xp
una solución particular del sistema Ax = b (que existe por hipótesis), entonces Axp = b. Por otra
parte, supongamos que xs es cualquier solución del sistema Ax = b. Entonces Axs = b. Restando
estas dos ecuaciones, nos queda que 0 = b − b = Axs − Axp = A(xs − xp ), entonces si llamamos
xh := xs − xp , claramente xh ∈ nul(A). Finalmente, xs = xp + (xs − xp ) = xp + xh , con xp una
solución particular y xh ∈ nul(A), y obtenemos lo que queríamos probar. 

El siguiente ejercicio parece sencillo a primera vista, pero requiere bastante atención.
1 i
 
Ejercicio 1.20. Sea A = . Hallar una base de cada uno de los cuatro subespacios
i −1
fundamentales de A. 
2 − 3i
Sea b = . ¿Existe x ∈ C2 tal que Ax = b? Si la respuesta es afirmativa, hallar todas
3 + 2i
las soluciones del sistema Ax = b.

31
1. Espacios Vectoriales

Dem.
Primero
 vamos
  a obtener el subespacio col(A). Fácilmente vemos que col(A) =
1 i
gen{ , }. La dificultad del ejercicio está en que no se aclara el cuerpo donde se
i −1
está trabajando. Veremos que las respuestas serán distintas si tomamos como cuerpo R ó C.
1
   
i
Si pensamos a C como C-espacio vectorial, como
2
= −i , entonces
i −1
1 1
   
col(A) = gen{ } y una base de col(A) puede ser Bcol(A) = { }. Por otra parte, si
i i
1
   
i
pensamos a C2 como R-espacio vectorial, no existe a ∈ R tal que =a , por
i −1
1
   
i
lo tanto el conjunto { , } el LI y en este caso, una base de col(A) puede ser
i −1
1
   
i
Bcol(A) = { , }.
i −1
Para el calculo de nul(A) también tendremos que pensar en esos dos casos. Si pensamos a
C2 como C-espacio vectorial, como en este caso dim(C2C ) = 2, el Teorema de la Dimensión
1.9.1, nos dice que dim(nul(A)) + rg(A) =
 2. Entonces, dim(nul(A)) = 2 − rg(A) = 2 −
 1 =1.
1 1
Entonces, como (por ejemplo) el vector ∈ nul(A), tenemos que nul(A) = gen{ }.
i i
Otra forma de encontrar nul(A) (en este caso
 donde pensamos a C2 como C-espacio vectorial)
0

es resolver el sistema homogéneo Ax = . Conclusión, una base de nul(A) podría ser
0
1
 
Bnul(A) = { }.
i
Por otra parte, si pensamos a C2 como R-espacio vectorial (recordemos que en este caso
dim(C2R ) = 4), también por el Teoremade la  Dimensión  1.9.1, tenemos que dim(nul(A)) =
1

i
4 − rg(A) = 4 − 2 = 2. Entonces como y ∈ nul(A) y además, como no existe
i −1  
1 1
    
i i
a ∈ R tal que =a , el conjunto { , } es LI. Por lo tanto, una
−1 i i −1
1
  
i
base de nul(A) podría ser Bnul(A) = { , }.
i −1
Otra forma de hallar nul(A) cuando pensamos a C2 como R-espacio vectorial es la siguiente:
x pertenece
 anul(A)  si x ∈ C yademás
2
Ax = 0. En este caso, una base de C2R puede ser
1 0 0

i
BC2R = { , , , } y se ve claramente que dim(C2R ) = 4. Como x ∈ C2 ,
0 0 1 i
existen a, b, c, d ∈ R tales que
1 0 0
       
i
x=a +b +c +d .
0 0 1 i

0 1 0 0
         
i
Entonces, si 0 = Ax tenemos que = A(a +b +c +d )=
0 0 0 1 i
1
       
i i −1
a +b +c +d . Operando, nos queda el sistema 0 =
i −1 −1 −i
a + bi + ci − d, 0 = ai − b − c − di. Entonces,

(b + c)i = d − a y b + c = (a − d)i.

Observar que a, b, c, d ∈ R por lo que b + c ∈ R y d − a ∈ R. Pero las ecuaciones anteriores


nos indican que b + c = (a − d)i, entonces b + c también es un número complejo puro (pues es

32
1.9. Subespacios fundamentales de una matriz

igual al número real a − d multiplicado por i), pero el único número que es real y complejo
puro a la vez es 0. Por lo tanto b + c = 0, por lo que c = −b y d = a.
1 0 0
       
i
Volviendo a la expresión de x, tenemos que x = a +b +c +d =
0 0 1 i
1 0 0 1
           
i i
a +b + (−b) +a =a +b , con a, b ∈ R. Por lo
0 0 1 i i −1
1
   
i
tanto nul(A) = gen{ , } y como esos generadores son LI, una base de nul(A)
i −1
1
   
i
podría ser Bnul(A) = { , }.
i −1

Para obtener fil(A) y nul(AT ), observar que en este caso en particular (es decir en este
ejercicio) AT = A. Entonces nul(AT) = nul(A) ycomo fil(A) = col(AT ), tenemos que
1

i
fil(A) = col(AT ) = col(A) = gen{ , }. Entonces, si pensamos a C2 como
i −1
1
 
C-espacio vectorial, una base de fil(A) puede ser Bfil(A) = { } y una base de
i
1
 
nul(AT ) = nul(A) podría ser Bnul(AT ) = { }.
i
Si pensamos
  a C como R-espacio vectorial, una base de fil(A)
2
 puede
  ser Bfil(A) =
1 i 1 i
{ , } y una base de nul(AT ) podría ser Bnul(AT ) = { , }.
i −1 i −1

2 − 3i 1 2
       
i
Finalmente, observar que b = =2 + (−3) =A . Entonces,
3 + 2i i −1 −3
2
 
si llamamos xp := ∈ C2 , tenemos que Axp = b, es decir el sistema Ax = b tiene al
−3
menos una solución (es compatible).
Cuando existe solución del sistema Ax = b, vimos en la Proposición 1.9.2, que todas las
soluciones de dicho sistema se pueden expresar como xs = xp + xh , donde xp es una
solución particular y xh ∈ nul(A). Entonces, si pensamos aC2 
como C-espacio vectorial,
2 1

todas las soluciones del sistema son xs = +a , con a ∈ C. Por otra
−3 i
parte, si pensamos a C como
2
 R-espacio vectorial, todas las soluciones del sistema son
2 1
 
i
xs = +a +b , con a, b ∈ R.
−3 i −1

El siguiente ejercicio resultará útil para resolver el Ejercicio 1.19.


Ejercicio 1.K. Sean A ∈ Kn×m y b ∈ Kn .

a) El sistema Ax = b es compatible si y sólo si b ∈ col(A).

b) Si b ∈ col(A), el sistema Ax = b tiene un única solución si y sólo si nul(A) = {0}.

Dem. a): Vamos a suponer que A = [A1 A2 · · · Am ], donde A1 , A m ∈ K son las columnas
2 , · · · , A
n

x01
 x02 
de A. Si el sistema Ax = b es compatible, entonces existe x0 =  .  ∈ Km tal que Ax0 = b.
 
 .. 
x0m

33
1. Espacios Vectoriales

 
x01
 x02 
Entonces, tenemos que b = Ax0 = [A1 A2 · · · Am ]  ..  = x01 A1 + x02 A2 + · · · + x0m Am . Por
 
 . 
x0m
lo tanto (como b es combinación lineal de las columnas de A) b ∈ gen{A1 , A2 , · · · , Am } = col(A).
Recíprocamente, si b ∈ col(A), entonces existen a1 , a2 , · · · , am ∈ K tales que

b = a1 A1 + a2 A2 + · · · + am Am .
 
a1
 a2 
Operando, nos queda que b = a1 A1 + a2 A2 + · · · + am Am = [A1 A2 · · · Am ]  ..  . Llamando
 
 . 
am
 
a1
 a2 
x0 :=  ..  ∈ Km , claramente Ax0 = b (es decir encontramos x0 ∈ Km tal que b = Ax0 ).
 
 . 
am
Entonces el sistema Ax = b es compatible.
b): Si b ∈ col(A), entonces por a) vale que el sistema Ax = b es compatible, es decir tiene al menos
una solución x0 ∈ Km tal que Ax0 = b. Supongamos que el sistema tiene otra solución x00 ∈ Km , es
decir Ax00 = b. Restanto estas dos igualdades nos queda que 0Kn = b − b = Ax0 − Ax00 = A(x0 − x00 ).
Por lo tanto x0 − x00 ∈ nul(A). Entonces nul(A) = {0} si y sólo si x0 − x00 = 0Km si y sólo si x0 = x00
(y el sistema Ax = b tiene una única solución). 
A partir del Ejercicio 1.K, tenemos otra manera de caracterizar el espacio col(A):
Proposición 1.9.3. Sea A ∈ Kn×m . Entonces

col(A) = {y ∈ Kn : existe x ∈ Km : y = Ax} = {Ax : x ∈ Km }.

Dem. Vamos probar la doble inclusión, sea y ∈ col(A), entonces, por el Ejercicio 1.K,
el sistema Ax = y es compatible, es decir existe x0 ∈ Km tal que y = Ax0 , entonces
y ∈ {y ∈ Kn : existe x ∈ Km : y = Ax}.
Reciprocamente, si y ∈ {y ∈ Kn : existe x ∈ Km : y = Ax}, entonces existe x ∈ Km tal que
y = Ax. Entonces el sistema es compatible y, por el Ejercicio 1.K, y ∈ col(A). 

Ejercicio 1.L (De Parcial). Si A ∈ R5×4 es una matriz tal que rg(A) = 4 y b ∈ R5 , entonces el
sistema Ax = b no tiene solución cuando la matriz ampliada del sistema [A b] ∈ R5×5 es inversible.

Dem. Vamos a probar el contrarrecíproco de lo que queremos ver. Es decir, vamos a probar que
si la matriz ampliada del sistema [A b] ∈ R5×5 no es inversible, entonces el sistema Ax = b tiene
solución (es decir probaremos “no q entonces no p” por lo que también valdrá que “p entonces q”).
Supongamos que A = [A1 A2 A3 A4 ], donde A1 , A2 , A3 , A4 ∈ R5 son las 4 columnas de A.
Si la matriz ampliada del sistema [A b] ∈ R5×5 no es inversible, eso significa que el conjunto
{A1 , A2 , A3 , A4 , b} (es decir, el conjunto de las columnas de la matriz ampliada [A b]) no es LI
(ó lo que es lo mismo es LD). Pero como 4 = rg(A) = dim(col(A)), tenemos que el conjunto
{A1 , A2 , A3 , A4 } (las columnas de A) es LI. Por lo tanto, la única posibilidad que queda es que b
sea una CL de A1 , A2 , A3 , A4 (si no están convencidos de esto, meditarlo un poco). Es decir, existen
a1 , a2 , a3 , a4 ∈ R, tales que
   
a1 a1
 a2   a2 
b = a1 A1 + a2 A2 + a3 A3 + a4 A4 = [A1 A2 A3 A4 ] 
 a3  = A  a3  .
  

a4 a4

34
1.9. Subespacios fundamentales de una matriz

 
a1
 a2 
Llamando x0 :=   a3  ∈ R . Tenemos que Ax0 = b, y el sistema es compatible. En conclusión
 4

a4
probamos que si [A b] es no inversible entonces el sistema Ax = b tiene solución, por contrarrecíproco
vale que si Ax = b no tiene solución entonces [A b] es inversible y probamos lo que queríamos. 

Ejercicio 1.M (De Parcial). Sean A ∈ Rp×m y B ∈ Rm×n . Demostrar que:


a) col(AB) ⊆ col(A). Además, si rg(B) = m vale la igualdad, pero la recíproca no es cierta.
b) nul(B) ⊆ nul(AB). Además, si rg(A) = m vale la igualdad, pero la recíproca no es cierta.
c) rg(AB) ≤ mı́n{rg(A), rg(B)}.

Dem. a) : Para probar col(AB) ⊆ col(A), tomemos y ∈ col(AB) y veamos que y ∈ col(A). Sea
y ∈ col(AB), entonces por la Proposición 1.9.3), existe x ∈ Rn tal que y = ABx = A(Bx); entonces
si llamamos x0 := Bx ∈ Rm , claramente y = Ax0 . Encontramos un vector x0 tal que y = Ax0 ,
entonces (por la misma proposición) y ∈ col(A). Y probamos que col(AB) ⊆ col(A).
Si rg(B) = m, entonces como col(B) ⊆ Rm y dim(col(B)) = rg(B) = m, tenemos que
col(B) = Rm (usamos la propiedad que dice que dos subespacios son iguales si y sólo si uno
está contenido en el otro y tienen misma dimensión). Entendida esta observación, veamos la otra
inclusión. Sea y ∈ col(A) entonces, existe x ∈ Rm tal que y = Ax, pero como x ∈ Rm = col(B),
existe z ∈ Rn tal que x = Bz, por lo tanto y = Ax = A(Bz) = (AB)z y tenemos que y ∈ col(AB).
Entonces probamos que col(A) ⊆ col(AB) y como siempre vale la otra inclusión, en este caso,
tenemos que col(AB) = col(A).
La recíproca no vale. Es decir col(AB) = col(A), no implica que rg(B) = m. De hecho, si
tomamos A = 0Rp×m , B = 0Rm×n tenemos que col(A) = {0Rp } y rg(B) = 0 6= m. Sin embargo,
col(AB) = col(0Rp×n ) = {0Rp } = col(A).
b) : Si x ∈ nul(B) entonces Bx = 0. Entonces, ABx = A(Bx) = A0 = 0, por lo tanto
x ∈ nul(AB) y tenemos la inclusión nul(B) ⊆ nul(AB).
Si rg(A) = m, por el Teorema de la dimensión, tenemos que dim(nul(A)) = m − rg(A) = 0.
Entonces nul(A) = {0}. En este caso, veamos que tenemos la otra inclusión. Si x ∈ nul(AB)
entonces 0 = ABx = A(Bx). Entonces Bx ∈ nul(A), pero como nul(A) = {0}, tenemos que Bx = 0
y por lo tanto x ∈ nul(B). Entonces tenemos que nul(AB) ⊆ nul(B) y como siempre vale la otra
inclusión, concluimos que nul(AB) = nul(B).
La recíproca no vale. Es decir nul(AB) = nul(B), no implica que rg(A) = m. Observar que sirve
el mismo ejemplo que usamos en a).
c) : Por el ítem a) tenemos que col(AB) ⊆ col(A), entonces rg(AB) = dim(col(AB)) ≤
dim(col(A)) = rg(A). Por otra parte, por el ítem b), tenemos que dim(nul(B)) ≤ dim(nul(AB)).
Entonces, por el Teorema de la dimensión, tenemos que rg(AB) = n − dim(nul(AB)) ≤
n − dim(nul(B)) = rg(B). Esto implica que rg(AB) ≤ mı́n{rg(A), rg(B)}.
Para enteder mejor por qué vale esto, observar que sólo tenemos dos opciones
mı́n{rg(A), rg(B)} = rg(A) ó mı́n{rg(A), rg(B)} = rg(B).
Por ejemplo si rg(A) < rg(B), tendremos la primera opción. Como vimos que rg(AB) ≤ rg(B) y
rg(AB) ≤ rg(A), tenemos lo que queríamos probar. 

Ejercicio 1.24. Sean A ∈ R3×3 y B ∈ R3×4 dos matrices tales que


10 −10 −5 5
 

AB =  11 −11 −4 7  ,
11 −11 −5 6

donde rg(A) = 3, y B satisface que B[1 1 1 1]T = [0 3 1]T , B[1 0 1 0]T = [5 7 6]T . Hallar todas las
soluciones del sistema Bx = [5 1 4]T .

35
1. Espacios Vectoriales

Dem. Observar que


[5 7 6]T − 2[0 3 1]T = [5 1 4]T .
Por lo tanto

B([1 0 1 0]T − 2[1 1 1 1]T ) = B[1 0 1 0]T + (−2)B[1 1 1 1]T = [5 7 6]T − 2[0 3 1]T = [5 1 4]T .

Entonces, el vector [1 0 1 0]T − 2[1 1 1 1]T = [−1 − 2 − 1 − 2]T es una solución del sistema
Bx = [5 1 4]T . En la Proposición 1.9.2 vimos que como existe solución del sistema Bx = [5 1 4]T ,
todas las soluciones xs del sistema se pueden expresar como

xs = xp + xh ,

donde xp es una solución particular y xh ∈ nul(B). Ya encontramos una solución particular


xp = [−1 − 2 − 1 − 2]T , sólo nos resta calcular nul(B).
Haciendo la cuenta podemos ver que

nul(AB) = gen{[1 1 0 0]T , [−1 0 − 1 1]T },

pero por el Ejercicio 1.M, como rg(A) = 3, vale que nul(AB) = nul(B) (notar que en general sólo
vale que nul(B) ⊆ nul(AB), pero como vimos en el Ejercicio 1.M, en este caso como rg(A) = 3
tenemos la igualdad).
Por lo tanto nul(B) = gen{[1 1 0 0]T , [−1 0 − 1 1]T } y todas las soluciones del sistema
Bx = [5 1 4]T son

xs = xp + xh = [−1 − 2 − 1 − 2]T + α[1 1 0 0]T + β[−1 0 − 1 1]T con α, β ∈ R.

1.10. Algoritmos para producir una base a partir de un sistema de


generadores
Para resolver el Ejercicio 1.13 necesitamos recordar varias definiciones, notaciones y un
resultado que será fundamental.
Sea A ∈ Km×n , llamamos Ai∗ ∈ Kn a la i-ésima fila de A, denotamos por A∗j ∈ Km la j-ésima
columna de A y Aij ∈ K es la entrada ij de A. Por ejemplo, si

0
 
2 −5 8 9 3 8
   
0
0 0 −2 1 7 −2
A= . Entonces, A2∗ = −2 , A∗3 =   y A25 = 7.
 
0 0 0 1 4 0
    
1
0 0 0 0 0 0
7

Sea A ∈ Km×n , definimos por r al número de filas no nulas de A

r := #{i ∈ {1, · · · , m} : Ai∗ 6= 0}.

En cada fila no nula, denotemos por pi al índice de la primera entrada no nula de A:

pi := mı́n{j ∈ {1, · · · , n} : Aij 6= 0} para i = 1, 2, · · · , r.

Diremos que una matriz es escalonada por filas si vale que:

1. Ai∗ 6= 0 para todo 1 ≤ i ≤ r y Ai∗ = 0 para r < i ≤ m.

2. p1 < p2 < · · · < pr .

36
1.10. Algoritmos para producir una base a partir de un sistema de generadores

Si la matriz A es escalonada, entonces las entradas con índices (i, pi ) con 1 ≤ i ≤ r se llaman
pivotes. A las columnas correspondientes A∗pi con i ≤ i ≤ r las llamamos columnas pivotales.
Veamos ejemplos de matrices que son escalonadas por filas y matrices que no lo son:
Ejemplo 1.e.

2 −5 8 9 3
 
0 0 −2 1 7
A= .
0 0 0 1 4

0 0 0 0 0
Entonces, r = 3, A1∗ =
6 0, A2∗ 6= 0, A3∗ =
6 0 y A4∗ = 0. Por otra parte, p1 = 1, p2 = 3 y p3 = 4
y tenemos que p1 < p2 < p3 . Por lo tanto, A es escalonada por filas.

0 −5 7 1
 

A = 0 0 −2 0
0 0 0 0
Entonces, r = 2, A1∗ =6 0, A2∗ 6= 0 y A3∗ = 0. Por otra parte, p1 = 2 y p2 = 3 y tenemos que
p1 < p2 . Por lo tanto, A es escalonada por filas.

2 −5 8 9 3
 
0 0 0 0 0
A= 0 0 −2 1 7 .

0 0 0 0 0
Entonces, r = 2 pero A2∗ = 0. Entonces, A NO es escalonada por filas.

2 −5 8 9 3
 

A = 0 1 3 4 0 .
0 5 −2 1 7
Entonces, r = 3, p2 = p3 = 2. Por lo tanto p2 6< p3 . Entonces, A NO es escalonada por filas.

Una matriz se llama escalonada reducida (por filas) si cumple con las propiedades 1. y 2. y
además con las siguientes propiedades 3. y 4.:

3. Aipi = 1 para todo 1 ≤ i ≤ r. Es decir, en cada fila no nula, el elemento delantero diferente
de cero (pivote) es igual a uno.

4. Ak,pi = 0 para todo 1 ≤ k ≤ i − 1 y 2 ≤ i ≤ r. Es decir, todos los elementos por encima de


los pivotes son nulos.

Veamos ejemplos de una matriz que es escalonadas reducida (por filas) y otra que no:
Ejemplo 1.f.

0 1 0 0 0 4
 
0 0 0 1 0 0
A= .
0 0 0 0 1 6

0 0 0 0 0 0
Entonces, r = 3, A1∗ 6= 0, A2∗ 6= 0, A3∗ =
6 0 y A4∗ = 0. Por otra parte, p1 = 2, p2 = 4 y p3 = 5
y tenemos que p1 < p2 < p3 . Por lo tanto, A es escalonada por filas. Además, A1p1 = A12 = 1,
A2p2 = A24 = 1 y A3p3 = A35 = 1. Finalmente, A1p2 = A14 = 0, A1p3 = A15 = 0,
A2p3 = A25 = 0. Por lo tanto, A es escalonada reducida por filas. En este caso A∗2 , A∗4 y A∗5
son las columnas pivotales de A.

1 1 0
 

A = 0 1 0 .
0 0 0

37
1. Espacios Vectoriales

Entonces, r = 2, A1∗ 6= 0, A2∗ =6 0 y A3∗ = 0. Por otra parte, p1 = 1 y p2 = 2 y tenemos que


p1 < p2 . Por lo tanto, A es escalonada por filas. Además, A1p1 = A11 = 1, y A2p2 = A22 = 1.
Sin embargo, A1p2 = A12 = 1 6= 0. Por lo tanto, A NO es escalonada reducida por filas.
El siguiente resultado será fundamental para resolver el Ejercicio 1.13 b):
Proposición 1.10.1. Sea A ∈ Km×n . Entonces, las columnas de A correspondientes a las columnas
pivotales de E (la forma reducida por filas de A) forman una base de col(A).
Antes de demostrar la Proposición 1.10.1 veamos un ejemplo concreto:
0 3 −9 12 −9 0 −9
 
0 0 2 −4 4 2 −6
Ejemplo 1.g. Sea A =  0 0 3 −6 6 4 −5 . Mostrar que las columnas de A

0 0 0 0 0 1 4
correspondientes a las columnas pivotales de E (la forma reducida por filas de A) forman una base
de col(A).
En primer lugar, obtengamos E la forma escalonada reducida (por filas) de A. De hecho,
triangulando A podemos ver que
0 1 0 −2 3 0 −24
 
0 0 1 −2 2 0 −7 
E=0
.
0 0 0 0 1 4 
0 0 0 0 0 0 0
Entonces, r = 3 y los índices de E son p1 = 2, p2 = 3 y p3 = 6. Las columnas pivotales de E son
E∗p1 = E∗2 , E∗p2 = E∗3 y E∗p3 = E∗6 . Claramente, el conjunto {E∗p1 , E∗p2 , E∗p3 } es un conjunto
LI, pues E∗p1 = e1 , E∗p2 = e2 y E∗p3 = e3 , donde e1 , e2 , e3 son los primeros 3 elementos de la base
canónica de R4 .
Recordemos que como E es la forma escalonada reducida (por filas) de A vale que
Ax = 0 si y sólo si Ex = 0. (1.6)
Es decir, las soluciones al sistema homogéneo asociado a A y a E coinciden.
Veamos que las columnas de A correspondientes a las columnas pivotales de E que son
{A∗p1 , A∗p2 , A∗p3 } = {A∗2 , A∗3 , A∗6 } forman un conjunto LI. De hecho, sean a1 , a2 , a3 ∈ R tales
que
a1 A∗p1 + a2 A∗p2 + a3 A∗p3 = 0.
0 0
   
a1  a1 
   
a2  a2 
Entonces A  0  = 0 y, por (1.6), tenemos que E  0  = 0 = a1 E∗p1 + a2 E∗p2 + a3 E∗p3 . Pero,
   
0 0
   
   
a3  a3 
0 0
como {E∗p1 , E∗p2 , E∗p3 } es un conjunto LI, tenemos que a1 = a2 = a3 = 0 y por lo tanto,
{A∗p1 , A∗p2 , A∗p3 } = {A∗2 , A∗3 , A∗6 } es un conjunto LI.
0
   
−2
0 −2
Por otra parte, las columnas no pivotales de E son u1 = E∗1 =  0 , u2 = E∗4 =  0  ,
  

0 0
3
   
−24
2  −7 
u3 = E∗5 =   y u4 = E∗7 =   . Como
0 4 
  

0 0
uik = 0 para todo 1 ≤ i ≤ 4, 3 < k ≤ 4,

38
1.10. Algoritmos para producir una base a partir de un sistema de generadores

se sigue las columnas ui para i = 1, 2, 3, 4 son una C.L. de las 3 columnas pivotales de E. Es decir,

E∗1 = u1 = 0E∗p1 + 0E∗p2 + 0E∗p3 = 0e1 + 0e2 + 0e3 ,


E∗4 = u2 = −2E∗p1 + −2E∗p2 + 0E∗p3 = −2e1 + −2e2 + 0e3 ,
E∗5 = u3 = 3E∗p1 + 2E∗p2 + 0E∗p3 = 3e1 + 2e2 + 0e3 ,
E∗7 = u4 = −24E∗p1 − 7E∗p2 + 4E∗p3 = −24e1 − 7e2 + 4e3 .

Entonces (escribiendo las ecuaciones de arriba en forma matricial), nos queda:


0 0 0
       
−1
0 −2 3 −24
0 2
       
−2  −7 
 0  = 0, E −1 = 0, E  0  = 0 E  0  = 0.
       
E       
0 0 −1  0 
0 0 0  4 
       

0 0 0, −1

Entonces, nuevamente por (1.6), vale que


0 0 0
       
−1
0 −2 3 −24
0 2
       
−2  −7 
 0  = 0, A −1 = 0, A  0  = 0 A  0  = 0.
       
A       
0 0 −1  0 
0 0 0  4 
       

0 0 0, −1
Entonces

A∗1 = 0A∗p1 + 0A∗p2 + 0A∗p3 = 0A∗2 + 0A∗3 + 0A∗6 ,


A∗4 = −2A∗p1 − 2A∗p2 + 0A∗p3 = −2A∗2 − 2A∗3 + 0A∗6 ,
A∗5 = 3A∗p1 + 2A∗p2 + 0A∗p3 = 3A∗2 + 2A∗3 + 0A∗6 ,
A∗7 = −24A∗p1 − 7A∗p2 + 4A∗p3 = −24A∗2 − 7A∗3 + 4A∗6 .

Por lo tanto las columnas de A correspondientes a las columnas no pivotales de E que son
A∗1 , A∗4 , A∗5 , A∗7 , son C.L. de las columnas de A correspondientes a las columnas pivotales de E.
Por lo tanto, col(A) = gen{A∗1 , A∗2 , A∗3 , A∗4 , A∗5 , A∗6 , A∗7 } = gen{A∗2 , A∗3 , A∗6 }. Entonces
{A∗2 , A∗3 , A∗6 } es un conjunto LI que genera col(A) por lo tanto es una base de col(A) y probamos
lo que queríamos.
Demostración. (de la Proposición 1.10.1)
Sea E := [wp1 wp2 · · · wpr u1 · · · un−pr ] la forma escalonada reducida (por filas) de A. Donde,
wp1 , wp2 , · · · , wpr son las r columnas pivotales de E y u1 , · · · , un−pr son las columnas no pivotales
de E. Nota: para simplificar la demostración estamos suponiendo que las primeras r filas de E
corresponden a las columnas pivotales de E. Eso no tiene por qué ocurrir en general, pero la prueba
sería similar si las columnas pivotales de E tuvieran otro orden.
Entonces, si ei denota el elemento i de la base canónica de Km , tenemos que

w p1 = e 1 , w p2 = e 2 , · · · , w pr = e r .

Por lo tanto, como p1 < p2 < · · · < pr , es claro que {wp1 , wp2 , · · · , wpr } es un conjunto LI. Por
otra parte, como u1 , · · · , un−pr son las columnas no pivotales de E, por definición vale que

uik = 0 para todo 1 ≤ i ≤ n − pr , r < k ≤ m.

39
1. Espacios Vectoriales

Entonces, es claro que las columnas ui son una C.L. de las r columnas pivotales de E. Es decir
r
X r
X
ui = uik wpk = uik ek . (1.7)
k=1 k=1

Recordemos que, como E es la forma escalonada reducida (por filas) de A vale que

Ax = 0 si y sólo si Ex = 0. (1.8)

Es decir, las soluciones al sistema homogéneo asociado a A y a E coinciden.


Vamos a escribir  = [vp1 vp2 · · · vpr z1 · · · zn−pr ], donde vp1 vp2 · · · vpr son las r columnas
de A correspondientes a las columnas pivotales de E y z1 , · · · , zn−pr son las columnas de A
correspondientes a las columnas no pivotales de E. Como sólo reordenamos las columnas de A
para obtener Â, si bien A y  podrían no coincidir, es claro que, col(A) = col(Â). Veamos que
{vp1 , vp2 , · · · , vpr } es un conjunto LI de Kn . De hecho, sean a1 , · · · , ar ∈ K tales que

a1 vp1 + a2 vp2 + · · · + ar vpr = 0.

Entonces, (escribiendo las ecuaciones de arriba en forma matricial), nos queda:


   
a1 a1
 a2   a2 
   
· · · · · ·
A  ar  = a1 vp1 + a2 vp2 + · · · + ar vpr = 0 y, por (1.8), E 
 ar  = 0 = a1 wp1 + a2 wp2 + · · · ar wpr .
   
  
0 0
   
· · · · · ·
0 0

Pero, como {wp1 , wp2 , · · · , wpr } es un conjunto LI, tenemos que a1 = a2 = · · · = ar = 0 y por lo
tanto, {vp1 , vp2 , · · · , vpr } es un conjunto LI.
Por otra parte, observar que por (1.7), si i = 1, vale que
r
X
0 = −u1 + u1k wpk .
k=1
   
u11 u11
u12  u12 
   
· · · · · ·
   
u1r 
Es decir, E   = −u1 + r u1k wp = 0 entonces, por (1.8), A u1r  = −z1 + Pr u1k vp =
P  
 −1  k=1 k  −1  k=1 k

 0   0 
   
   
· · · · · ·
0 0
Pr
0. Por lo tanto z1 = k=1 uik v p k
y z 1 es C.L. de las las columnas de A correspondientes a
las columnas pivotales de E. De la misma manera, se prueba que las otras columnas de A
correspondientes a las columnas no pivotales de E que son z2 , · · · , zn−pr son C.L. de las columnas
de A correspondientes a las columnas pivotales de E. Por lo tanto,

col(A) = col(Â) = gen{vp1 , vp2 , · · · , vpr , z1 · · · , zn−pr } = gen{vp1 , vp2 , · · · , vpr }.

Entonces {vp1 , vp2 , · · · , vpr } es un conjunto LI que genera col(A) por lo tanto es una base de col(A)
y probamos lo que queríamos. 

Ejercicio 1.13. Explicar por qué los siguientes algoritmos producen una base B de un subespacio
S a partir de un sistema de generadores G del mismo.

40
1.11. Coordenadas de un vector en una base

(a) Algorithm 1 espacio filas:


Requiere G = {v1 , · · · , vm } ⊆ Kn sistema de generadores de S. Ensure: B una base de S.

1. Construir A ∈ Km×n cuyas filas son v1T , · · · , vm


T
.
2. Construir E ∈ Km×n la matriz escalonada por filas reducidas de A.
3. Listar las filas no nulas de E : {Ep1 ∗ , · · · , Epr ∗ }
4. B ← {Ep1 ∗ , · · · , Epr ∗ }.
5. return B.

(b) Algorithm 2 espacio columnas:


Requiere G = {v1 , · · · , vn } ⊆ Km sistema de generadores de S. Ensure: B una base de S.

1. Construir A ∈ Km×n cuyas columnas son v1 , · · · , vn .


2. Construir E ∈ Km×n la matriz escalonada por filas reducidas de A.
3. Listar las columnas de A que corresponden a las columnas pivotales de E : {vj1 , · · · , vjp }
4. B ← {vj1 , · · · , vjp }
5. return B.

Demostración. a :) Sea G := {v1 , · · · , vm } ⊆ Kn un sistema de generadores de S. Construimos la


matriz cuyas filas son v1T , · · · , vm
T
, es decir tomamos
 T 
v1
A :=  · · ·  . Notar que S = fil(A) = col(AT ).
T
vm

Luego, triangulando A obtenemos E la matriz escalonada por filas de A y listamos las filas no
nulas de E que llamaremos {Ep1 ∗ , · · · , Epr ∗ }. Entonces, por la Proposición 1.4.1, se sigue que
S = fil(A) = fil(E) = gen{Ep1 ∗ , · · · , Epr ∗ } y además, como {Ep1 ∗ , · · · , Epr ∗ } es un conjunto LI,
tenemos que {Ep1 ∗ , · · · , Epr ∗ } es una base de fil(A) = fil(E) = S. Por lo tanto, el algoritmo produce
una base B de S a partir del sistema de generadores G.
b :) Sea G := {v1 , · · · , vn } ⊆ Km un sistema de generadores de S. Construimos la matriz cuyas
columnas son v1 , · · · , vn , es decir tomamos

A := [v1 · · · vn ]. Notar que S = col(A).

Luego, construimos E la matriz escalonada por filas reducida de A y listamos las columnas de A
que corresponden a las columnas pivotales de E. Entonces, por la Proposición 1.10.1, las columnas
de A correspondientes a las columnas pivotales de E forman una base de col(A) = S. Por lo tanto,
el algoritmo produce una base B de S a partir del sistema de generadores G. 

1.11. Coordenadas de un vector en una base


Sea V un K-espacio vectorial de dimensión finita y sea B = {v1 ; · · · ; vn } una base (ordenada)
de V. 
 Dado x ∈ V existen únicos a1 , · · · , an ∈ K tales que x = a1 v1 + · · · + an vn . El vector
a1
 .. 
 .  ∈ K se llama el vector de coordenadas de x en la base B y será denotado por [x]B , por
n

an
CB (x) ó por [x]B .

Vamos a usar la notación [x]B , que es la que se usa en la guía. Para entender la definición (y la
notación) que acabamos de ver, supongamos que estamos en R2 [x] y tomamos B = {1, x2 , x} que es

41
1. Espacios Vectoriales

1
 

una base de R2 [x]. Si q(x) = 1−x entonces [q]B =  0  ∈ R3 , porque q(x) = 1·x+0·x2 +(−1)·x,
−1
para todo x ∈ R.
1
 

Por otra parte, si p ∈ R2 [x] es tal que [p]B =  2  , entonces p(x) = 1 · 1 + 2 · x2 + 3 · x =


3
1 + 2x2 + 3x y de esa manera obtenemos el vector p sabiendo sus coordenadas en una base.
1
 

Notar que la expresión [  0 ]B NO tiene sentido. En la notación que definimos: [v]B , el vector
−1
1 1
   

v es un elemento de V. En este caso en particular,  0  ∈ R3 , claramente  0  6∈ R2 [x] y


−1 −1
no tiene sentido calcularle las coordenadas en una base de R2 [x] a un vector que no esté en dicho
espacio.

Observar que si V es un K espacio vectorial tal que la dim(V) = n, dado v ∈ V el vector


de coordenadas
  [v] siempre es un vector de K . Y si B = {v1 , · · · , vn } es una base de V y
B n

a1
 .. 
[v] =  .  ∈ Kn entonces v = a1 v1 + · · · + an vn y recuperamos al vector v.
B

an

Proposición 1.11.1. Sea V un K-espacio vectorial de dimensión finita y sea B =


{v1 ; · · · ; vn } una base (ordenada) de V. Si v, w ∈ V y α, β ∈ K, entonces

[αv + βw]B = α[v]B + β[w]B .

Es decir, “tomar coordenadas” es lineal


   
a1 b1
Dem. Supongamos que [v]B =  ...  y [w]B =  ...  . Entonces v = a1 v1 + · · · + an vn
   

an bn
y w = b1 v1 + · · · + bn vn . Entonces, αv + βw = α(a1 v1 + · · · + an vn ) + β(b1 v1 + · · · + bn vn ) =
(αa1 + βb1 )v1 + · · · + (αan + βbn )vn . Por lo tanto,
αa1 + βb1
 

[αv + βw]B =  ..
 = α[v] + β[w] .
B B
.
 

αa1 + βb1

Este tema suele traer muchas confusiones por lo que a continuación vamos resolver algunos
ejercicios para fijar ideas.

Ejercicio 1.N. Sean V = gen{1, ex , e−x } un R-espacio vectorial, B = {1, ex , e−x } un conjunto de
V y g(x) = senh(x). Entonces:
a) Demostrar que B es una base de V.
b) Obtener [g]B .
1
 

c) Encontrar un vector h ∈ V tal que [h]B =  2  . ¿Existe otro vector h0 con esas
−1
coordenadas en la base B?

42
1.11. Coordenadas de un vector en una base

Antes de comenzar a resolver el ejercicio, es importante entender que cada elemento del conjunto
B es una función (no un número real). En general se suele abusar un poco de la notación y eso
puede llegar a confundir un poco. Estrictamente hablando, si definimos las funciones f1 (x) = 1 (la
función que siempre vale 1), f2 (x) = ex , f3 (x) = e−x , entonces B = {f1 , f2 , f3 } y es como se debe
interpretar esa notación. Meditar un poco sobre esto porque es crucial para resolver el ejercicio.
Dem. a): Observar que cada elemento de B pertenece a V. Por definición de V, el conjunto
{f1 , f2 , f3 } es un sistema de generadores de V. Sólo falta probar que el conjunto es LI. Para eso,
por ejemplo, podemos calcular el Wronskiano.

1 ex e−x
 

W (f1 , f2 , f3 )(x) = det(  0 ex −e−x ) = ex e−x + e−x ex = 1 + 1 = 2 6= 0.


0 ex e−x

Por lo tanto el conjunto es LI. Entonces B es una base de V y dim(V) = 3.


a
−x
b) : Recordar que g(x) = senh(x) = e −e
x
∈ V. Si [g]B
=  b  , entonces ex −e−x =
2 2
c
a · 1 + b · ex + c · e−x para todo x ∈ R. Entonces 0 = a · 1 + (b − 12 ) · ex + (c + 12 ) · e−x , para todo
x ∈ R. Si 0 es la función nula (que es el elemento neutro de V), la ecuación anterior es equivalente
a 0 = af1 + (b − 12 )f2 + (b + 12 )f3 . Como recién vimos que B es una base (en particular un conjunto
LI) y tenemos una CL de los elementos de B igualadas al elemento neutro de V,se sigue  que a = 0,
0
b − 12 = 0 y c + 12 = 0. Entonces a = 0, b = 12 , c = − 12 y por lo tanto [g]B =  12  .
− 21
1
 

c) : Si [h]B =  2  , por definición de las coordenadas de un vector en una base,


−1
h(x) = 1 + 2ex − e−x . Por supuesto que no existe otra función con esas  coordenadas en
1

base B. Supongamos que sí, es decir, que existe h0 ∈ V tal que [h0 ]B =  2  . Entonces
−1
h0 (x) = 1 + 2ex − e−x = h(x) para todo x ∈ R. Entonces h0 = h. 

Ejercicio 1.26. Sean p1 (x) = 12 (x − 1)(x − 2), p2 (x) = −x(x − 2) y p3 (x) = 21 x(x − 1).

a) Demostrar que B = {p1 , p2 , p3 } es una base de R2 [x].

b) Si p ∈ R2 [x] entonces
 
p(0)
[p]B =  p(1)  .
p(2)

c) Hallar [p]B si p(x) = x2 − x + 1.

Dem. a): Claramente, p1 , p2 , p3 ∈ R2 [x]. Recordar que en el Ejercicio 1.I, probamos que “n
vectores LI de un subespacio de dimensión n forman un base de dicho subespacio”. Entonces, como
dim(R2 [x])=3, sólo basta ver que B es un conjunto LI para probar que B es una base de R2 [x].
Veamos que es LI, por ejemplo, calculando el Wronskiano:

2 (x − 1)(x − 2) −x(x − 2) 2 x(x − 1)


 1 1

W (p1 , p2 , p3 )(x) = det(  x − 23 −2x + 2 x − 21 ).


1 −2 1

43
1. Espacios Vectoriales

0 1 0
 

Si evaluamos el Wronskiano en x = 1, nos queda W (p1 , p2 , p3 )(1) = det(  − 12 0 1 


2 )=
1 −2 1
1 1
(−1)(− − ) = 1 6= 0. Encontramos un punto donde el Wronskiano no se anula, por lo tanto B es
2 2
un conjunto LI y (por los argumentos
  que dimos arriba) es una base de R2 [x].
a
b): Sea p ∈ R2 [x], si [p]B =  b  , entonces p(x) = ap1 (x) + bp2 (x) + cp3 (x), para todo x ∈ R.
c
Entonces,
p(0) = ap1 (0) + bp2 (0) + cp3 (0) = a · 1 + b · 0 + c · 0 = a,
p(1) = ap1 (1) + bp2 (1) + cp3 (1) = a · 0 + b · 1 + c · 0 = b,
p(2) = ap1 (2) + bp2 (2) + cp3 (2) = a · 0 + b · 0 + c · 1 = c.
   
a p(0)
Por lo tanto [p]B =  b  =  p(1)  .
c p(2) 
0 −0+1 1
  2   
p(0)
c): Usando b), tenemos que [p]B =  p(1)  =  12 − 1 + 1  =  1  . 
p(2) 22 − 2 + 1 3

1.12. Matriz de cambio de base


En esta sección estudiaremos una herramienta que nos permitirá obtener las coordenadas de
un cierto vector en una base determinada sabiendo las coordenadas de dicho vector en otra base.
Dicha herramienta es la matriz de cambio de base:
Definición. Sea V un K-espacio vectorial de dimensión n y sean B1 = {v1 , · · · , vn } y B2 =
{w1 , · · · , wn } dos bases de V. Se llama la matriz de cambio de base de B1 a B2 y se nota
MBB12 ∈ Kn×n , a la matriz
MBB12 := [[v1 ]B2 [v2 ]B2 · · · [vn ]B2 ],
es decir a la matriz cuya columna i-ésima es el vector de coordenadas de vi (de la base B1 ) en la
base B2 , para cada i ∈ {1, 2, · · · , n}.
Para entender la definición anterior hagamos el siguiente ejercicio, similar al Ejercicio 1.28.

Ejercicio 1.Ñ. Supongamos que estamos en R2 [x] y tomamos como bases B1 = {1, x, x2 } y
B2 = {p1 , p2 , p3 } (donde p1 , p2 , p3 son los polinomios definidos en el Ejercicio 1.26), obtener
MBB12 .

Dem. Por definición,


1 0 0
 

MBB12 = [[1]B2 [x]B2 [x2 ]B2 ] =  1 1 1 ,


1 2 4
 
p(0)
donde usamos [p]B2 =  p(1)  , que ya lo probamos en el Ejercicio 1.26. 
p(2)
Si V es un K-espacio vectorial de dimensión n y B1 = {v1 , · · · , vn } y B2 = {w1 , · · · , wn } son
dos bases de V. Dado v ∈ V, se cumple que

[v]B2 = MBB12 [v]B1 (1.9)

44
1.12. Matriz de cambio de base

Entonces, la matriz de cambio de base de B1 a B2 (como era de esperar) nos permite obtener
las coordenadas de v en la base B2 sabiendo las coordenadas de dicho v enbase B
1.
a1
 a2 
La prueba de esta propiedad es muy simple. Supongamos que [v]B1 =  .  , entonces
 
.
 . 
an
 
a1
 a2 
MBB12 [v]B1 = [[v1 ]B2 [v2 ]B2 · · · [vn ]B2 ]  ..  = a1 [v1 ]B2 + a2 [v2 ]B2 + · · · + an [vn ]B2 =
 
 . 
an

= [a1 v1 + a2 v2 + · · · + an vn ]B2 ,
donde usamos que tomar coordenadas es lineal (Proposición 1.11.1). Por lo tanto, como v =
a1 v1 + a2 v2 + · · · + an vn , tenemos que MBB12 [v]B1 = [a1 v1 + a2 v2 + · · · + an vn ]B2 = [v]B2 y probamos
lo que queríamos.

El siguiente ejercicio es similar al Ejercicio 1.30.


Ejercicio 1.O. Sea E = {1, x, x2 } la base canónica de R2 [x].

1 −2 3
 

a) Hallar una base B de R2 [x] tal que MEB =  0 −1 2  .


0 1 −1

b) Para cada p ∈ R2 [x] determinar la expresión de las coordenadas de p en la base B.

c) Hallar todos los vectores p ∈ R2 [x] tales que [p]B = [p]E .

Dem. a): Por definición MEB = [[1]B [x]B [x2 ]B ]. Entonces, si B = {q, r, s} (con q, r, s polinomios
a determinar), tenemos que

1 = 1 · q(x) + 0 · r(x) + 0 · s(x), para todo x ∈ R, (1.10)

entonces q(x) = 1. También

x = (−2) · q(x) + (−1) · r(x) + 1 · s(x) = −2 − r(x) + s(x), para todo x ∈ R, (1.11)

y finalmente,

x2 = 3 · q(x) + 2 · r(x) + (−1) · s(x) = 3 + 2r(x) − s(x), para todo x ∈ R. (1.12)

Despejando en (1.11), nos queda que s(x) = x + 2 + r(x), para todo x ∈ R y reemplazando en
(1.12), tenemos que x2 = 3 + 2r(x) − s(x) = 3 + 2r(x) − (x + 2 + r(x)) = 1 − x + r(x), para todo
x ∈ R. Entonces r(x) = x2 + x − 1 y s(x) = r(x) + 2 + x = x2 + x − 1 + x + 2 = x2 + 2x + 1. Por lo
tanto, B = {q, r, s} = {1, x2 + x − 1, x2 + 2x + 1}.
Nota: En el próximo ejercicio, veremos que la matriz de cambio de base siempre es inversible y
que (MEB )−1 = MBE . Entonces, otra manera de resolver este ejercicio sería calcular

1 −1 1
 

(MEB )−1 =  0 1 2  = MBE = [[q]E [r]E [s]E ].


0 1 1

Por lo tanto q(x) = 1 · 1 + 0 · x + 0 · x2 = 1, r(x) = −1 · 1 + 1 · x + 1 · x2 = −1 + x + x2 , s(x) =


1 · 1 + 2 · x + 1 · x2 = 1 + 2x + x2 , y obtenemos lo mismo.

45
1. Espacios Vectoriales

 
a
b): Si p ∈ R2 [x] tiene como expresión p(x) = a+bx+cx2 con a, b, c ∈ R, entonces [p]E =  b  .
c
Por lo tanto
1 −2 3 a − 2b + 3c
     
a
[p]B = MEB [p]E =  0 −1 2   b  =  −b + 2c  .
0 1 −1 c b−c

c): Si p ∈ R2 [x] es tal que [p]B = [p]E , entonces, usando que [p]B = MEB [p]E , nos queda que

[p]B = MEB [p]E = [p]E .

Entonces
0


MEB [p]E − [p]E = (MEB − I)[p]E =  0  .


0
Entonces [p]E ∈ nul(MEB − I). Entonces, calculemos el espacio nulo de

1 −2 3 0 −2 3
   

MEB − I =  0 −1 2  − I =  0 −2 2  .
0 1 −1 0 1 −2

1
 

Resolviendo, tenemos que nul(MEB − I) = gen{  0 }. Entonces, [p]B = [p]E si y sólo si [p]E ∈
 0
1 1
    
a
gen{  0 }. Es decir, [p]E = a  0  =  0  , con a ∈ R. Entonces, p(x) = a·1+0·x+0·x2 = a,
0 0 0
con a ∈ R. Escrito de otra manera {p ∈ R2 [x] : [p]E = [p]B } = gen{1}. 

Ejercicio 1.P (De Parcial). Sea V un K-espacio vectorial de dimensión n y sean B1 , B2 , B3 tres
bases de V. Demostrar las siguientes afirmaciones:

a) MBB12 es una matriz inversible y además vale que MBB21 = (MBB12 )−1 .

b) MBB12 = MBB32 MBB13 .

Dem. a) : Supongamos que B1 = {v1 , · · · , vn } y B2 = {w1 , · · · , wn }. Entonces, por definición

MBB12 := [[v1 ]B2 [v2 ]B2 · · · [vn ]B2 ].

Veamos que las columnas de la matriz MBB12 (que son vectores de Kn ) son LI. Sean a1 , a2 , · · · , an ∈ K
tales que
a1 [v1 ]B2 + a2 [v2 ]B2 · · · an [vn ]B2 = 0K n .
Entonces, como tomar coordenadas es lineal (Proposición 1.11.1), tenemos que

0K n = a1 [v1 ]B2 + a2 [v2 ]B2 · · · an [vn ]B2 = [a1 v1 + a2 v2 + · · · + an vn ]B2 .

Entonces,
a1 v1 + a2 v2 + · · · + an vn = 0w1 + · · · + 0wn = 0V .
Finalmente, como {v1 , · · · , vn } es un conjunto LI (forman una base), y tenemos una CL de dichos
elementos igualada al elemento neutro de V, se sigue que a1 = a2 = · · · = an = 0. Es decir las

46
1.13. Operaciones entre subespacios

columnas de MBB12 son LI. Por lo tanto rg(MBB12 ) = dim(col(MBB12 )) = n y como MBB12 ∈ Kn×n ,
tenemos que MBB12 es inversible.
Por otra parte, sabemos que para todo v ∈ V vale que [v]B2 = MBB12 [v]B1 . Entonces, multiplicando
por (MBB12 )−1 a ambos lados de la igualdad anterior, tenemos que

(MBB12 )−1 [v]B2 = (MBB12 )−1 MBB12 [v]B1 = I[v]B1 = [v]B1 .

También sabemos que [v]B1 = MBB21 [v]B2 . Entonces, igualando ambas expresiones, nos queda que

(MBB12 )−1 [v]B2 = [v]B1 = MBB21 [v]B2 para todo v ∈ V.

Entonces MBB21 = (MBB12 )−1 como queríamos ver.


Justificación del último paso de la demostración anterior: Si no están convencidos de este
último paso, observar que tenemos que MBB21 [v]B2 = (MBB12 )−1 [v]B2 , para todo v ∈ V. Recordemos
1
 
 0 
que B2 = {w1 , · · · , wn }. Entonces, por ejemplo, [w1 ]B2 =  .  (pues w1 = 1.w1 +0.w2 +· · ·+0.wn )
 
 .. 
0
y entonces, volviendo a la iguladad anterior,
1 1
   
 0   0 
MBB21  .  = (MBB12 )−1  . .
   
 ..   .. 
0 0

1
 
 0 
Siempre que hacemos A  .  obtenemos la primera columna de la matriz A (si no se ve, hacer la
 
 .. 
0
cuenta). Entonces, la igualdad anterior nos indica que la primera columna de MBB21 y de (MBB21 )−1
coinciden. Si hacemos lo mismo para v = w2 , tendremos que la segunda columna de dichas matrices
coinciden y así sucesivamente. En definitiva, todas la columnas de ambas matrices coinciden y por
lo tanto son iguales.
b) : Sabemos que para todo v ∈ V vale que [v]B2 = MBB12 [v]B1 , [v]B2 = MBB32 [v]B3 y
[v] = MBB13 [v]B1 . Entonces
B3

MBB12 [v]B1 = [v]B2 = MBB32 [v]B3 = MBB32 (MBB13 [v]B1 ) = MBB32 MBB13 [v]B1 para todo v ∈ V.

Es decir, MBB12 [v]B1 = MBB32 MBB13 [v]B1 para todo v ∈ V. Por lo tanto, con la misma justificación que
usamos en a), tenemos que MBB12 = MBB32 MBB13 y probamos lo que queríamos. 

1.13. Operaciones entre subespacios


A continuación vamos a estudiar dos tipos de operaciones entre subespacios que nos devuelven
otro subespacio. Sea V un K-espacio vectorial y S y T subespacios de V :

Se llama intersección de S y T a S ∩ T := {v ∈ V : v ∈ S y v ∈ T }.
Se llama suma de S y T a S + T := {v ∈ V : ∃ s ∈ S, t ∈ T : v = s + t} = {s + t : s ∈
S, t ∈ T }.

47
1. Espacios Vectoriales

Proposición 1.13.1. Sea V un K-espacio vectorial y S y T subespacios de V. Entonces:

S1 ∩ S2 es el mayor subespacio contenido en S1 y S2 .

S1 + S2 es el menor subespacio que contiene a S1 y S2 .

Antes de probar este resultado, es importante destacar que en esta proposición, con “mayor” y
“menor” nos referimos respecto a la inclusión de conjuntos.
La inclusión de conjuntos permite“ordenar” conjuntos. Pero notar que a diferencia del orden
que conocemos de los números reales, este orden de conjuntos no es un orden total. Es decir, si
a, b ∈ R, sabemos que sólo tenemos tres opciones a = b ó a < b ó b < a. En el caso de conjuntos (y
la inclusión) no necesariamente
  pasa lo mismo  que en R con el orden usual. Por ejemplo, en R ,
2

1 0
consideremos S1 = gen{ } y S2 = gen{ }. Observar que, S1 6= S2 , S1 6⊆ S2 y S2 6⊆ S1 ,
0 1
es decir, en este caso, S1 y S2 no se comparan (no podemos decir nada acerca de quien es “mayor,
menor ó igual” respecto del orden que provee la inclusión de conjuntos). Sin embargo, hay casos
(como el de esta proposición) donde los conjuntos se comparan y uno es “mayor” o “menor” que el
otro.
Dem. Se deja como ejercicio probar que S1 ∩ S2 es un subespacio. Veamos ahora que S1 ∩ S2 es el
mayor subespacio contenido en S1 y S2 . Por un lado, claramente S1 ∩ S2 ⊆ S1 , pues si x ∈ S1 ∩ S2
entonces x ∈ S1 (y también x ∈ S2 ) y tenemos la inclusión S1 ∩ S2 ⊆ S1 . De la misma manera,
S1 ∩ S2 ⊆ S2 . Es decir, probamos que S1 ∩ S2 es un subespacio que está contenido en S1 y S2 . Falta
ver que es el mayor (respecto de la inclusión). Para eso, supongamos que tenemos otro subespacio
T tal que T ⊆ S1 y T ⊆ S2 (es decir contenido en S1 y S2 ) entonces T ⊆ S1 ∩ S2 , pues si x ∈ T
por hipótesis, tenemos que x ∈ S1 y x ∈ S2 . Entonces x ∈ S1 ∩ S2 y vale la inclusión que escribimos.
Por lo tanto, como T era cualquiera, concluimos que S1 ∩ S2 es el mayor subespacio (respecto de la
inclusión) contenido en S1 y S2 .
Se deja como ejercicio probar que S1 + S2 es un subespacio. Finalmente, veamos que S1 + S2 es
el menor subespacio que contiene a S1 y S2 . Primero veamos que S1 ⊆ S1 + S2 . Si x ∈ S1 entonces
como x = x + 0V y 0V ∈ S2 (porque S2 es un subespacio), por definición de la suma de subespacios,
x ∈ S1 + S2 y probamos la inclusión. De la misma manera, se prueba que S2 ⊆ S1 + S2 . Hasta acá
vimos que S1 + S2 es un subespacio que contiene a S1 y a S2 . Falta ver que es el menor (respecto
de la inclusión). Para eso, supongamos que T es un subespacio tal que S1 ⊆ T y S1 ⊆ T . Entonces
S1 + S2 ⊆ T , porque si x ∈ S1 + S2 , existen y ∈ S1 y z ∈ S2 tales que x = y + z, pero por hipótesis
y ∈ T y z ∈ T . Además, como T es un subespacio x + y ∈ T (la suma de elementos de T pertenece
a T ) entonces x = y + z ∈ T y tenemos que S1 + S2 ⊆ T . Como T era cualquiera, concluimos que
S1 + S2 es el menor subespacio (respecto de la inclusión) que contiene a S1 a S2 . 
La siguiente propiedad es muy útil para calcular un sistema de generadores de S + T conociendo
algún sistema de generadores de S y T . La idea vale para espacios vectoriales de cualquier dimensión,
pero para simplificar la notación, lo vamos a ver para un espacio vectorial de dimensión finita.

Proposición 1.13.2. Sea V un K-espacio vectorial de dimensión finita y S y T subespacios


de V tales que S = gen{v1 , · · · , vs } y T = gen{w1 , · · · , wt }. Entonces

S + T = gen{v1 , · · · , vs , w1 , · · · , wt }.

Dem. Vamos a probar la doble inclusión. Si v ∈ S + T , entonces existen s ∈ S y t ∈ T tales


que v = s + t. Entonces, existen a1 , · · · , as ∈ K y b1 , · · · , bt ∈ K tales que s = a1 v1 + · · · + as vs y
t = b1 w1 + · · · + bt wt . Por lo tanto

v = s + t = a1 v1 + · · · + as vs + b1 w1 + · · · + bt wt ∈ gen{v1 , · · · , vs , w1 , · · · , wt }.

Recíprocamente, si v ∈ gen{v1 , · · · , vs , w1 , · · · , wt } entonces existen a1 , · · · , as ∈ K y b1 , · · · , bt ∈ K


tales que v = a1 v1 + · · · + as vs + b1 w1 + · · · + bt wt . Sean s := a1 v1 + · · · + as vs ∈ S y

48
1.13. Operaciones entre subespacios

t := b1 w1 + · · · + bt wt ∈ T . Entonces v = s + t y v ∈ S + T . Como probamos la doble inclusión, se


sigue que S + T = gen{v1 , · · · , vs , w1 , · · · , wt }. 
Otra propiedad que usaremos ampliamente es la del Teorema de la dimensión para la suma de
subespacios:
Teorema 1.13.3. Sea V es un K-espacio vectorial de dimensión finita y S y T subespacios de V,
entonces

dim(S + T ) = dim(S) + dim(T ) − dim(S ∩ T ).

Dem. Sean s = dim(S), t = dim(T ) y r = dim(S ∩ T ). Si s = 0 entonces S = {0},


S ∩ T = {0} ∩ T = {0}, entonces r = 0 y S + T = {0} + T = T . Por lo tanto, se sigue
trivialmente que dim(S + T ) = t = 0 + t − 0 = dim(S) + dim(T ) − dim(S ∩ T ) y la igualdad vale.
Lo mismo si t = 0.
Supongamos que S ∩ T = {0}. Entonces r = 0 y sean BS = {v1 , · · · , vs } una base de S y
BT = {w1 , · · · , wt } una base de T . Entonces, {v1 , · · · , vs , w1 , · · · , wt } es una base de S + T . De
hecho, por la Proposición 1.13.2, dicho conjunto es un sistema de generadores de S + T . Veamos
que dicho conjunto es LI. Sean a1 , · · · , as , b1 , · · · , bt ∈ K tales que

a1 v1 + · · · + as vs + b1 w1 + · · · + bt wt = 0V .

Entonces,
a1 v1 + · · · + as vs = −b1 w1 − · · · − bt wt ∈ T .
Por lo tanto, a1 v1 + · · · + as vs ∈ S ∩ T = {0}. Entonces a1 v1 + · · · + as vs = b1 w1 + · · · + bt wt = 0V y
como {v1 , · · · , vs } es una base de S y {w1 , · · · , wt } una base de T se sigue que a1 = · · · = as = b1 =
· · · = bt = 0. Por lo tanto, efectivamente {v1 , · · · , vs , w1 , · · · , wt } es una base de S + T . Entonces,

dim(S + T ) = s + t = s + t − 0 = dim(S) + dim(T ) − dim(S ∩ T )

y vale la igualdad.
Finalmente, supongamos que S ∩ T 6= {0} y dim(S ∩ T ) = r > 0. Sea BS∩T = {u1 , · · · , ur }
una base de S ∩ T . Completemos dichos vectores para obtener bases de S y T es decir, sean
vr+1 , · · · , vs ∈ S tales que {u1 , · · · , ur , vr+1 , · · · , vs } es una base de S y sean wr+1 , · · · , wt ∈ T tales
que {u1 , · · · , ur , wr+1 , · · · , wt } es una base de T . Entonces, {u1 , · · · , ur , vr+1 , · · · , vs , wr+1 , · · · , wt }
es una base de S + T . Es claro que, por la Proposición 1.13.2, dicho conjunto es un sistema de
generadores de S +T . Veamos que dicho conjunto es LI. Sean, c1 , · · · , cr , ar+1 , · · · , as , br+1 , · · · , bt ∈
K tales que

c1 u1 + · · · + cr ur + ar+1 vr+1 + · · · + as vs + br+1 wr+1 + · · · + bt wt = 0V .

Entonces,

c1 u1 + · · · + cr ur + ar+1 vr+1 + · · · + as vs = −br+1 wr+1 − · · · − bt wt ∈ T

Por lo tanto, −br+1 wr+1 − · · · − bt wt ∈ S ∩ T . Entonces, existen d1 , · · · , dr ∈ K tales que

−br+1 wr+1 − · · · − bt wt = d1 u1 + · · · + dr ur .

Entonces,
d1 u1 + · · · + dr ur + br+1 wr+1 + · · · + bt wt = 0V .
Pero, como {u1 , · · · , ur , wr+1 , · · · , wt } es una base de T , tenemos que d1 = · · · = dr = br+1 =
· · · = bt = 0. Entonces, c1 u1 + · · · + cr ur + ar+1 vr+1 + · · · + as vs = −br+1 wr+1 − · · · − bt wt = 0V .
De igual manera, como {u1 , · · · , ur , vr+1 , · · · , vs } es una base de S, se sigue que c1 = · · · = cr =

49
1. Espacios Vectoriales

ar+1 = · · · = as = 0. Por lo tanto, {u1 , · · · , ur , vr+1 , · · · , vs , wr+1 , · · · , wt } es un conjunto LI y por


ende es una base de S + T . Entonces,

dim(S + T ) = r + (s − r) + (t − r) = s + t − r = dim(S) + dim(T ) − dim(S ∩ T )

y vale la igualdad. 
En el siguiente ejercicio (muy similar al Ejercicio 1.31) veremos por qué la unión de subespacios
en general no es un subespacio.
Ejercicio 1.Q. Sea V un K-espacio vectorial y sean S1 y S2 dos subespacios tales que ninguno
contiene al otro. Entonces S1 ∪ S2 NO es un subespacio.

Dem. Vamos a probar el ejercicio por el absurdo. Por hipótesis, S1 6⊆ S2 y S2 6⊆ S1 , entonces


existen vectores (distintos) v y w tales que v ∈ S2 \ S1 y w ∈ S1 \ S2 . Supongamos que S1 ∪ S2 es
un subespacio, entonces como v ∈ S1 ∪ S2 y w ∈ S1 ∪ S2 , tendríamos que v + w ∈ S1 ∪ S2 entonces,
v +w ∈ S1 ó v +w ∈ S2 . Como S1 es un subespacio, si v +w ∈ S1 , tenemos que v = (v +w)−w ∈ S1 ,
pues w ∈ S1 . Entonces v ∈ S1 lo cual es absurdo (teníamos que v ∈ S2 \ S1 ). De la misma manera,
como S2 es un subespacio, si v + w ∈ S2 , tenemos que w = (v + w) − v ∈ S2 , pues v ∈ S2 . Entonces
w ∈ S2 lo cual es absurdo (teníamos que w ∈ S1 \ S2 ). El absurdo se produjo por suponer que
S1 ∪ S2 era un subespacio. Por lo tanto, S1 ∪ S2 NO es un subespacio. 

Ejercicio 1.R. En V = gen{1, ex , e−x }, consideremos S = gen{3, 4ex } y T = {g ∈ V : g 0 (0) = 0}.


Hallar bases de S ∩ T y S + T .

Dem. Primero obtengamos S ∩ T . Si f ∈ S ∩ T , entonces f ∈ S, es decir f (x) = a3 + b4ex , con


a, b ∈ R y además, f ∈ T , entonces como f 0 (x) = (a3 + b4ex )0 = 4bex , tenemos que f 0 (0) = 4b = 0,
entonces b = 0. Por lo tanto f (x) = 3a, con a ∈ R. Entonces, S ∩ T = gen{1} y una base podría
ser BS∩T = {1}.
Ahora obtengamos S +T . Primero busquemos un sistema de generadores de T . Si g ∈ T entonces
g(x) = a1+bex +ce−x con a, b, c ∈ R y además como g 0 (x) = bex −ce−x , tenemos que g 0 (0) = b−c =
0, es decir b = c. Entonces g(x) = a1 + b(ex + e−x ), con a, b ∈ R. Entonces T = gen{1, ex + e−x } y
fácilmente vemos que dim(T ) = 2. De la misma manera vemos que dim(S) = 2. Entonces, usando
el teorema de la dimensión, dim(S + T ) = dim(S) + dim(T ) − dim(S ∩ T ) = 2 + 2 − 1 = 3. Por lo
tanto como S + T ⊆ V y dim(V) = dim(S + T ) = 3, tenemos que S + T = V. Una base de S + T
es cualquier base de V, por ejemplo, como vimos arriba, BS+T = {1, ex , e−x } es una base posible.


Ejercicio 1.32. Para las siguientes elecciones de S1 y S2 del espacio vectorial V, hallar una base
del mayor subespacio contenido en ambos y otra del menor subespacio que los contiene.

a) S1 := {x = [x1 x2 x2 x4 ]T ∈ R4 : x2 + x3 + x4 = 0} y S2 := {x = [x1 x2 x2 x4 ]T ∈ R4 :
x1 + x2 = x3 − 2x4 = 0}.

−1 1 1 1
 
−2
−1 0 3 −4 2
b) S1 = col(A) y S2 = nul(A) con A = −1 0 3 3
 
−5 .
−1 0 3 −6 4
−1 0 3 −6 4

1 1 4 2
       
 0   1   2   0
c) S1 = gen{ 
 2  ,  1 } y S2 = gen{  2  ,

}.
 2
     

1 1 0 0

Usando la Proposición 1.13.1 tenemos que S1 + S2 es el menor subespacio que contiene a S1 y


S2 y S1 ∩ S2 es el mayor subespacio contenido en S1 y S2 .

50
1.13. Operaciones entre subespacios

 
x1
x2 
Dem. a) : Calculemos S1 ∩ S2 . Si x = 
x3  ∈ S1 ∩ S2 entonces, por un lado x ∈ S1 y por lo tanto

x4
x2 + x3 + x4 = 0 y, por el otro lado x ∈ S2 y entonces x1 + x2 = 0 y x3 − 2x4 = 0. Entonces, x
cumple el sistema

x2 + x3 + x4 = x1 + x2 = x3 − 2x4 = 0.

Haciendo cuentas, se ve que las soluciones del sistema anterior son

3x4
   
x1
x2  −3x4 
x=
x3  =  2x4  con x4 ∈ R.
  

x4 x4

3 3
   
−3 −3
Entonces S1 ∩ S2 = gen{  2 } y una base de S1 ∩ S2 puede ser BS1 ∩S2 = { 2 }.
  

1 1
1 0 0 0
         
−1
0 −1 −1  1  0
Por otra parte, es claro que S1 = gen{ 0 ,  1  ,  0 } y S2 = gen{ 0  , 2}. Por lo
        

0 0 1 0 1
tanto, dim(S1 ) = 3 y dim(S2 ) = 2 y por el Teorema de la dimensión para la suma de subespacios
tenemos que dim(S1 + S2 ) = dim(S1 ) + dim(S2 ) − dim(S1 ∩ S2 ) = 3 + 2 − 1 = 4. Entonces
S1 + S2 = R4 y una base de S1 + S2 es cualquier base de R4 (por ejemplo la canónica).
b) Resolviendo el sistema homogéneo asociado a A, se puede  ver que S2 := nul(A) =
3 3
    
−2 −2
−1 2 −1 2
 0  , 1}. Una base de S2 = nul(A) puede ser BS2 = { 0  , 1}. Por otra parte,
       
gen{       
 1  0  1  0
1 0 1 0
por el Teorema de la Dimensión, vale que dim(col(A))        A−dim(nul(A))
= # columnas de =
1 1 1

−1 −2
−1 0 3 −4 2
5 − 2 = 3. Además, es claro que S1 := col(A) = gen{ −1 , 0 , 3 , −5 , 3}. Entonces,
         
        
−1 0 3 −6 4
−1 0 3 −6 4
para obtener una base de S1 = col(A) basta tomar 3 generadores LI de col(A). Por ejemplo,
1 1
     
−2
0 −4 2
BS1 = {0 , −5 , 3}. Ahora sólo resta calcular S1 ∩ S2 y S1 + S2 .
     
    
0 −6 4
0 −6 4
3
   
−2
−1 2
 0  + b 1 con a, b ∈ R y,
Si x ∈ S1 ∩ S2 entonces, por un lado x ∈ S2 , por lo tanto x = a 
   
  
1 0
1 0

51
1. Espacios Vectoriales

1 1
     
−2
0 −4 2
0 + d −5 + e 3 con c, d, e ∈ R. Por lo tanto
por el otro lado x ∈ S1 , entonces x = c 
     
    
0 −6 4
0 −6 4

3 1 1 0
           
−2 −2
−1 2 0 −4 2 0
 0  + b 1 − c 0 − d −5 − e 3 = 0 .
           
a           
1 0 0 −6 4 0
1 0 0 −6 4 0

Entonces, tenemos que resolver el sistema homogeneo

−2 3 −1 2 −1 a 0
    
−1 2 0 4 −2  b  0
   
0 1 0 5 −3  c  = 0 .

   
1 0 0 6 −4 d 0


1 0 0 6 −4 e 0

Resolviendo, nos queda que

a = 4e − 6d, b = 3e − 5d, c = −d.

Volviendo a cualquiera de las dos ecuaciones de x, tenemos que

3 3 1
           
−2 −2 −3
−1 2 −1 2 −4 2
x = a 0  + b 1 = (4e − 6d)  0  + (3e − 5d) 1 = d −5 + e 3 con d, e ∈ R.
           
          
1 0 1 0 −6 4
1 0 1 0 −6 4

1 1
       
−3 −3
−4 2 −4 2
Por lo tanto S1 ∩S2 = gen = {−5 , 3} y una base de S1 ∩S2 puede ser BS1 ∩S2 = {−5 , 3}.
       
      
−6 4 −6 4
−6 4 −6 4
3 1 1
         
−2 −2
−1 2 0 −4 2
Finalmente, es claro que S1 +S2 = gen{  0  , 1 , 0 , −5 , 3}. Además, dim(S1 +S2 ) =
         
        
 1  0 0 −6 4
1 0 0 −6 4
dim(S1 ) + dim(S2 ) − dim(S1 ∩ S2 ) = 2 + 3 − 2 = 3. Por lo tanto, debemos extraer 3 generadores LI
de S1 + S2 . Notar que

3 1 1 3
             
−2 −2 −2
−4 −1 2 0 2 −1 2
−5 = −6  0  − 5 1 + 0 y 3 = 4  0  + 3 1 .
             
1 0 0 4 1 0
             
−6
−6 1 0 0 4 1 0

3 1
     
−2
−1 2 0
Entonces, una base de S1 + S2 puede ser BS1 +S2 = {  0  , 1 , 0}.
     
    
 1  0 0
1 0 0

52
1.13. Operaciones entre subespacios

c) : Por la Proposición 1.13.2, tenemos que


1 1 4 2
       
 0   1   2   0 
S1 + S2 = gen{  2 , 
,   ,  }.
1   2   2 
 

1 1 0 0
Entonces sólo tenemos que extraer una base, viendo la independencia lineal de los generadores
de S1 + S2 . Lo podemos hacer por definición o colocando
 los vectores en la fila de una matriz
2

 0 
y triangulando. De cualquier manera veremos que   2  es CL de los otros vectores. Entonces

0
1 1 4
     
 0   1   2 
BS1 +S2 = {  2  ,  1  ,  2 }. Finalmente, calculemos S1 ∩ S2 . Sea x ∈ S1 ∩ S2 entonces,
    

1 1 0
1 1 4 2
       
 0   1   2   0 
x ∈ S1 y x ∈ S2 . Entonces x = a 
 2  + b  1  con a, b ∈ R y x = c  2  + d  2  con
      

1 1 0 0
c, d ∈ R. Entonces
1 1 4 2
       
 0   1   2   0 
 2  + b  1  = c  2  + d  2 .
a        

1 1 0 0
Operando, nos queda el siguiente sistema de ecuaciones,
a + b − 4c − 2d = 0, b − 2c = 0, 2a + b − 2c − 2d = 0, a + b = 0.
Despejando
 nos queda,
 a = −2c, b = 2c, d = −2c. Volviendo a la expresión de x, nos queda
1 1 0

 0   1   2 
x=a   2 +b  1 =c
  
 −2  , con c ∈ R. Nos hubiera dado lo mismo si reemplazamos en
 

1 1 0
4 2 0
     
 2   0   2 
la otra expresión de x. Es decir, x = c 
 2  + d  2  = c  −2  con c ∈ R. En conclusión
    

0 0 0
0 0
  
 2 
S1 ∩ S2 = gen{  } y una base podría ser BS ∩S = {  2 }.
 
 −2  1 2  −2  
0 0

Suma directa de subespacios


Definición. Sea V un K-espacio vectorial y S y T subespacios de V. Diremos que S y T están en
suma directa (y la notamos S ⊕ T ) si para cada v ∈ S + T existen únicos s ∈ S y t ∈ T tales que
v = s + t.
Proposición 1.13.4. Sea V un K-espacio vectorial y S y T subespacios de V. Entonces S y T
están en suma directa si y sólo si S ∩ T = {0}.

Dem. Supongamos que S y T están en suma directa. Sea x ∈ S ∩ T , entonces x ∈ S y x ∈ T .


Entonces
x = x + 0V = 0V + x.

53
1. Espacios Vectoriales

Como la escritura de x es única (estamos suponiendo que S y T están en suma directa), entonces
x = 0V y se sigue que S ∩ T = {0}.
Recíprocamente, supongamos que S ∩ T = {0}. Sea v ∈ S + T y supongamos que
v = s1 + t1 = s2 + t2 con s1 , s2 ∈ S y t1 , t2 ∈ T . Entonces (s1 − s2 ) = (t2 − t1 ). Por lo
tanto, (s1 − s2 ) ∈ S ∩ T = {0}. Entonces s1 = s2 y t1 = t2 . Es decir, cada v ∈ S + T se escribe de
manera única como v = s + t con s ∈ S y t ∈ T . Por lo tanto, S y T están en suma directa. 

El siguiente ejercicio es muy similar al Ejercicio 1.34.


Ejercicio 1.S. En R3 [x] consideremos los subespacios S1 = gen{1 + x, 1 − x2 , 1 + x3 } y S2 = {p ∈
R3 [x] : p(x) = 0}. Hallar un subespacio T de R3 [x] tal que

S1 ⊕ T = S2 ⊕ T = R3 [x].

¿Es único?

Dem. Primero busquemos un sistema de generadores de S2 . Sea p ∈ S2 , entonces p(x) =


ax3 + bx2 + cx + d con a, b, c, d ∈ R y además p(0) = d = 0. Entonces S2 = gen{x3 , x2 , x}. Observar
que dim(S1 ) = dim(S2 ) = 3. Entonces, como dim(R3 [x]) = 4, por el Teorema de la dimensión
(Teorema 1.13.3), dim(T ) = dim(S1 ⊕ T ) − dim(S1 ) − dim(S1 ∩ T ) = dim(R3 [x]) − 3 − 0 = 4 − 3 = 1
y T debe ser un subespacio de dimensión 1 que está en suma directa con S1 y S2 , es decir, el
generador de T debe ser LI con los 3 generadores de S1 y S2 . Proponemos T = gen{1}. Claramente
dim(T ) = 1, además como los conjuntos {1, 1 + x, 1 − x2 , 1 + x3 } y {1, x, x2 , x3 } son LI, se sigue
que S1 ∩ T = S2 ∩ T = {0} y el T propuesto cumple. El T posible no es único. Por ejemplo, el
subespacio T := gen{2 + x} también sirve. 

El siguiente ejercicio es muy similar al Ejercicio 1.35.


Ejercicio 1.T (De Parcial). En R3 [x] consideremos los subespacios S3 = gen{1 + x, 1 − x2 } y
S4 = {p ∈ R3 [x] : p(−1) = 0}. Hallar un subespacio T de R3 [x] tal que S3 ⊕ T = S4 .

Dem. Primero observar que S3 ⊆ S4 porque sino el ejercicio no tendría sentido. De hecho, si p ∈ S3
entonces p(x) = a(1 + x) + b(1 − x2 ) con a, b ∈ R. Entonces p(−1) = a · 0 + b · 0 = 0 y p ∈ S4 .
Entonces vale S3 ⊆ S4 .
Por otra parte, busquemos un sistema de generadores de S4 . Si p ∈ S4 entonces p(x) =
ax3 + bx2 + cx + d con a, b, c, d ∈ R y además p(−1) = −a + b − c + d = 0. Entonces a = b − c + d
y volviendo a la expresión de p, nos queda p(x) = b(x3 + x2 ) + c(x3 − x) + d(x3 + 1), entonces
S4 = gen{x3 + x2 , x3 − x, x3 + 1} y dim(S4 ) = 3. Entonces, el subespacio T que buscamos debe
cumplir 3 cosas:

1. T ⊆ S4 .
2. dim(T ) = dim(S3 ⊕ dim T ) − dim(S3 ) − dim(S3 ∩ T ) = dim(S4 ) − 2 − 0 = 3 − 2 = 1.
3. El generador de T debe ser LI con los dos generadores de S3 .
Proponemos T = gen{x3 + 1}. Claramente, T ⊆ S4 , dim(T ) = 1 y como el conjunto
{1 + x, 1 − x2 , x3 + 1} es LI entonces S3 ∩ T = {0}. Por lo tanto, el T propuesto cumple, ya
que T y S3 están en suma directa, T ⊕ S3 ⊆ S4 y dim(T ⊕ S3 ) = 3 = dim(S4 ), lo que nos da que
S3 ⊕ T = S4 . 
En el ejercicio anterior, observar que, por ejemplo, el subespacio T 0 = gen{x3 } está en suma
directa con S3 y tiene dimensión 1, pero como T 0 6⊆ S4 no sirve, es decir S3 ⊕ T 6= S4 .

54
CAPÍTULO 2

Transformaciones Lineales

En este capítulo introduciremos el concepto de transformaciones lineales que son las funciones
con las que trabajaremos en la materia. Veremos varias propieadades y resultados asociados a estas
funciones.
Definición. Sean V y W dos K-espacios vectoriales. Una función T : V → W se llama transformación
lineal (TL) de V en W si cumple:
i) T (v + v 0 ) = T (v) + T (v 0 ), para todo v, v 0 ∈ V,
ii) T (αv) = αT (v), para todo α ∈ K, v ∈ V.
El conjunto de todas las transformaciones lineales de V a W se denota por L(V, W). Si V = W
escribimos L(V) := L(V, V). A las transformaciones lineales de V a W = K (es decir aquellas cuya
imagen cae en el cuerpo) se las llama funcionales lineales.

Ejercicio 2.1 c). Verificar que la siguiente aplicación es una transformación lineal: T3 : R3 → R3
definida por
T3 ([x1 x2 x3 ]T ) := [−3x2 + 2x3 3x1 − x3 − 2x1 + x2 ]T .

−3x2 + 2x3 0 −3 2
       
x1 x1
Dem. Observar que T3 (  x2 ) :=  3x1 − x3  =  3 0 −1   x2  . Si llamamos
 3x −2x 1 + x 2 −2 1 0 x3
0 −3 2
  
x1
A :=  3 0 −1  entonces, si v =  x2  ∈ R3 , tenemos que T3 (v) = Av. Con esto en
−2 1 0 x3
mente, verifiquemos i) y ii) de la definición de transformaciones lineales.
Sean α ∈ R y v, v 0 ∈ R3 , entonces
i) T (v + v 0 ) = A(v + v 0 ) = Av + Av 0 = T (v) + T (v 0 ).
ii) T (αv) = A(αv) = α(Av) = αT (v).
Por lo tanto, como T cumple con i) y ii) de la definición de transformaciones lineales, tenemos
que T es una transformación lineal, es decir T ∈ L(R3 ). 
Operando tal como hicimos arriba podemos demostrar que si T ∈ L(Kn , Km ) entonces (siempre)
existe A ∈ Km×n tal que T (x) = Ax, para todo x ∈ Kn . Ver el Ejercicio 2.2.

Veamos otros ejemplos de transformaciones lineales:


Ejemplo 2.a. Verificar las siguientes afirmaciones:
Para cada A ∈ Km×n , la aplicación TA : Km×n → K definida por
TA (X) := tr(A∗ X)
es una funcional lineal de Km×n .

55
2. Transformaciones Lineales

Dados n ∈ N y a0 , a1 , · · · , an−1 ∈ R, la aplicación L : C ∞ (R) → C ∞ (R) definida por

dn y dn−1 y dy
L[y] := + an−1 + · · · + a1 + a0 y
dxn dxn−1 dx
es una trasformación lineal de C ∞ (R) a C ∞ (R).
Recordemos las propiedades de la traza de una matriz (se sugiere verificarlas haciendo la cuenta):

1. tr(A + B) = tr(A) + tr(B), para todo A, B ∈ Kn×n .


2. tr(αA) = α tr(A), para todo α ∈ K, A ∈ Kn×n .
3. tr(A∗ ) = tr(A), para todo A ∈ Kn×n ,
4. tr(AB) = tr(BA), para todo A ∈ Kn×m , B ∈ Km×n .

Dem. Verifiquemos i) y ii) de la definición de transformaciones lineales usando las propiedades


que acabamos de ver. Sean α ∈ R y X, Y ∈ Km×n , entonces
i) TA (X + Y ) = tr(A∗ (X + Y )) = tr(A∗ X + A∗ Y ) = tr(A∗ X) + tr(A∗ Y ) = TA (X) + TA (Y ),
donde usamos la propiedad 1 de la traza.
ii) TA (αX) = tr(A∗ (αX)) = tr(αA∗ X) = α tr(A∗ X) = αTA (X), donde usamos la propiedad 2
de la traza.
Entonces como TA cumple con i) y ii) de la definición de transformaciones lineales, tenemos que
TA ∈ L(Km×n , K) es decir es una funcional lineal de Km×n .

Verifiquemos i) y ii) de la definición de transformaciones lineales usando la linealidad de la


derivada. Sean α ∈ R e y, z ∈ C ∞ (R), entonces
n n−1
dn y dn z
n−1
i) L[y + z] = d dx
(y+z)
n + an−1 d dxn−1
(y+z)
+ · · · + a1 d(y+z)
dx + a0 (y + z) = dxn + dxn + an−1 dx
d
n−1 +
y
n−1
an−1 dxn−1 + · · · + a1 dx + a1 dx + a0 y + a0 z = L[y] + L[z].
d z dy dz

dn (αy) dn−1 (αy) d(αy) dn y n−1


ii) L[αy] = dxn + an−1 dxn−1 + · · · + a1 dx + a0 (αy) = α dxn + an−1 α dx
d
n−1 + · · · + a1 α dx +
y dy
n n−1
a0 αy = d y
α( dx n + an−1 dxn−1 + · · · + a1 dx + a0 y) = αL[y].
d y dy

Entonces como L cumple con i) y ii) de la definición de transformaciones lineales, tenemos que
L ∈ L(C ∞ (R)). 

Ejercicio 2.A. Sean V y W dos K-espacios vectoriales. Demostrar que

si T ∈ L(V, W) entonces T (0V ) = 0W .

Dem. Por un lado, observar que como 0V = 0V + 0V y T es TL, tenemos que T (0V ) =
T (0V + 0V ) = T (0V ) + T (0V ). Entonces, si −T (0V ) es el inverso aditivo de T (0V ) (existe porque
W es un K-espacio vectorial), tenemos que 0W = T (0V ) + −T (0V ) = (T (0V ) + T (0V )) + −T (0V ) =
T (0V ) + (T (0V ) + −T (0V )) = T (0V ) + 0W = T (0V ). 

Ejercicio 2.B. Explicar porque las siguientes funciones NO son transformaciones lineales:
a) T : K2×2 → K definida por T (X) := det(X).

56
2.1. Imagen y núcleo de una transformación lineal

1
 

b T : R3 → R3 , definida por T (x) :=  2  .


3
c) f : C → C, definida por f (z) := z.

Dem. Para demostrar que una función NO es una transformación lineal, basta con encontrar algún
contraejmplo donde i) o ii) de la definición de transformaciones lineales NO se cumpla.

1 0 0 0 1 0
     
a): Sean X = e Y = . Entonces T (X) + T (Y ) = det( )+
0 0  0 1  0 0
0 0 1 0 1 0
   
det( ) = 0 + 0 = 0 6= 1 = det( ) = T( ) = T (X + Y ). Entonces T NO
0 1 0 1 0 1
es una transformación lineal.
1 1
   

b): Basta tomar cualquier vector x, y ∈ R3 y ver que T (x) + T (y) =  2  +  2  =


3 3
2 1
   
 4  6=  2  = T (x + y). Entonces T NO es una transformación lineal.
6 3
c) : Sean α = i y x = 1. Entonces f (αx) = f (i · 1) = f (i) = i = −i =6 i · 1 = i · f (1) = αf (x).
Entonces f NO es una funcional lineal. 

2.1. Imagen y núcleo de una transformación lineal


Sean V y W dos K-espacios vectoriales y T ∈ L(V, W). El núcleo de T se denota por Nu(T ) y
se define como
Nu(T ) := {v ∈ V : T (v) = 0W } ⊆ V.
La imagen de T se denota por Im(T ) y se define como

Im(T ) := {w ∈ W : ∃v ∈ V : w = T (v)} = {T (v) : v ∈ V} ⊆ W.

Por otro lado, sean X ⊆ V y Z ⊆ W dos subconjuntos de V y W respectivamente, entonces: el


conjunto de todas las imágenes de los elementos de X se designa por T (X) y se define como:

T (X) := {w ∈ W : ∃x ∈ X : w = T (x)} = {T (x) : x ∈ X} ⊆ W.

El conjunto de todos los elementos de V cuyas imágenes pertenecen a Y se designa con T −1 (Y ) y


se define como:
T −1 (Y ) := {v ∈ V : T (v) ∈ Y } ⊆ V.
No confundir la preimagen de un conjunto con la existencia de inversa de una transformación lineal.
La preimagen de un conjunto siempre está definida (podría eventualmente dar el conjunto vacío)
sin embargo no siempre existe la inversa de una transformación lineal.

Observar que Nu(T ) = T −1 ({0W }) e Im(T ) = T (V).

Ejercicio 2.C (De Parcial). Sean V y W dos K-espacios vectoriales y T ∈ L(V, W). Demostrar las
siguientes afirmaciones:
a) Nu(T ) es un subespacio de V.
b) Im(T ) es un subespacio de W.
c) Si S es un subespacio de V entonces T (S) es un subespacio de W.

57
2. Transformaciones Lineales

d) Si T es un subespacio de W entonces T −1 (T ) es un subespacio de V.

e) Supongamos que S es un subespacio de V tal que S = gen{v1 , v2 , · · · , vr }. Entonces

T (S) = gen{T (v1 ), T (v2 ), · · · , T (vr )}.

f) Supongamos que V = gen{v1 , v2 , · · · , vn }. Entonces

Im(T ) = gen{T (v1 ), T (v2 ), · · · , T (vn )}.

Dem. a): Veamos que Nu(T ) es un subespacio de V.

i) 0V ∈ Nu(T ) pues como T es una TL, tenemos que T (0V ) = 0W . Ver Ejercicio 2.A.

ii) si u, v ∈ Nu(T ) entonces T (u) = 0W y T (v) = 0W . Entonces, como T es TL, T (u + v) =


T (u) + T (v) = 0W + 0W = 0W . Por lo tanto u + v ∈ Nu(T ).

iii) si α ∈ K y v ∈ Nu(T ) entonces T (v) = 0W . Entonces, como T es TL, T (αv) = αT (v) =


α0W = 0W . Por lo tanto αv ∈ Nu(T ).

b): Veamos que Im(T ) es un subespacio de V.

i) 0W ∈ Im(T ) pues como T es una TL, tenemos que T (0V ) = 0W (existe x ∈ V tal que
T (x) = 0W , en este caso x = 0V ). Ver Ejercicio 2.A.

ii) si u, v ∈ Im(T ) entonces existen x, y ∈ V tales que T (x) = u y T (y) = v. Entonces, como T
es TL, T (x + y) = T (x) + T (y) = u + v. Encontramos un vector, que en este caso es x + y,
tal que T (x + y) = u + v. Por lo tanto u + v ∈ Im(T ).

iii) si α ∈ K y v ∈ Im(T ) entonces existe x ∈ V tal que T (x) = v. Entonces, como T es TL,
T (αx) = αT (x) = αv. Encontramos un vector, que en este caso es αx, tal que T (αx) = αv.
Por lo tanto αv ∈ Im(T ).

c): Se deja como ejercicio (es muy parecido al ítem b).

d): Veamos que T −1 (T ) es un subespacio de V.

i) Veamos que 0V ∈ T −1 (T ). Como T es una TL, T (0V ) = 0W (ver Ejercicio 2.A) y como T
es un subespacio 0W ∈ T . Conclusión, T (0V ) = 0W ∈ T entonces 0V ∈ T −1 (T ).

ii) si u, v ∈ T −1 (T ) entonces T (u) ∈ T y T (v) ∈ T . Entonces, como T es un subespacio,


T (u) + T (v) ∈ T . Además como T es TL, tenemos que T (u + v) = T (u) + T (v) ∈ T . Entonces
u + v ∈ T −1 (T ).

iii) si α ∈ K y v ∈ T −1 (T ) entonces T (v) ∈ T . Entonces, como T es un subespacio, αT (v) ∈ T .


Además como T es TL, tenemos que T (αv) = αT (v) ∈ T . Entonces αv ∈ T −1 (T ).

e): Tenemos que probar una igualdad de conjuntos, así que vamos a probar la doble inclusión.
Por un lado, como v1 , v2 , · · · , vr ∈ S, tenemos que T (vi ) ∈ T (S) para todo i = 1, 2, · · · , r
(recordar la definición de T (S)) y además observar que en el ítem c) probamos que T (S) es un
subspacio (porque S es un subespacio). Entonces

gen{T (v1 ), T (v2 ), · · · , T (vr )} ⊆ T (S).

Veamos la otra inclusión. Supongamos que w ∈ T (S), entonces existe s ∈ S tal que w = T (s).
Entonces, como s ∈ S = gen{v1 , v2 , · · · , vr }, existen a1 , a2 , · · · , ar ∈ K tales que

s = a1 v1 + a2 v2 + · · · + ar vr .

58
2.1. Imagen y núcleo de una transformación lineal

Entonces como T es TL,


w = T (s) = T (a1 v1 + a2 v2 + · · · + ar vr ) = a1 T (v1 ) + a2 T (v2 ) + · · · + ar T (vr ).
Por lo tanto w ∈ gen{T (v1 ), T (v2 ), · · · , T (vr )} y T (S) ⊆ gen{T (v1 ), T (v2 ), · · · , T (vr )}. Como
probamos la doble inclusión, vale la igualdad de conjuntos.

f ): Como Im(T ) = T (V), el item f ) es un caso particular del item e). 

Ejercicio 2.D. Sea K = R ó K = C y sea A ∈ Kn×m . Consideremos la transformación lineal


TA : Km → Kn definida por
TA (x) := Ax,
para cada x ∈ Km . Demostrar que Nu(TA ) = nul(A) e Im(TA ) = col(A).

Dem. Para demostrar lo que nos pide el ejercicio, basta con aplicar la definición de los subespacios
involucrados.
Por un lado, x ∈ Nu(TA ) si y sólo si
TA (x) = Ax = 0Kn ,
si y sólo si x ∈ nul(A). Finalmente, y ∈ Im(TA ) si y sólo si existe x ∈ Km tal que
y = TA (x) = Ax,
si y sólo si y ∈ col(A). 
A continuación probaremos el teorema de la dimensión para transformaciones lineales:

Teorema 2.1.1. Sean V, W dos K-espacios vectoriales, V de dimensión finita y T ∈ L(V, W).
Entonces
dim(V) = dim(Nu(T )) + dim(Im(T )).

Dem. Sea n = dim(V) y r = dim(Nu(T )). Supongamos que 0 < r < n y sea {v1 , · · · , vr } una base
de Nu(T ). Sean vr+1 , · · · , vn ∈ V de manera tal que {v1 , · · · , vr , vr+1 , · · · , vn } es una base de V.
Afirmamos que {T (vr+1 ), · · · , T (vn )} es una base de Im(T ). De hecho, claramente
T (vr+1 ), · · · , T (vn ) ∈ Im(T ). Por lo que gen{T (vr+1 ), · · · , T (vn )} ⊆ Im(T ). Recíprocamente,
sea w ∈ Im(T ), entonces existe v ∈ V tal que w = T (v). Como {v1 , · · · , vr , vr+1 , · · · , vn } es una ba-
se de V, existen a1 , · · · , ar , ar+1 , · · · , an ∈ K tales que v = a1 v1 + · · · + ar vr + ar+1 vr+1 + · · · + an vn .
Entonces, usando que T es TL, tenemos que
w = T (v) = T (a1 v1 + · · · + ar vr + ar+1 vr+1 + · · · + an vn )
= a1 T (v1 ) + · · · + ar T (vr ) + ar+1 T (vr+1 ) + · · · + an T (vn )
= a1 0W + · · · + ar 0W + ar+1 T (vr+1 ) + · · · + an T (vn )
= ar+1 T (vr+1 ) + · · · + an T (vn ) ∈ gen{T (vr+1 ), · · · , T (vn )},
donde usamos que {v1 , · · · , vr } una base de Nu(T ). Entonces, Im(T ) = gen{T (vr+1 ), · · · , T (vn )}.
Veamos que {T (vr+1 ), · · · , T (vn )} es un conjunto LI. Sean αr+1 , · · · , αn ∈ K tales que
αr+1 T (vr+1 ) + · · · + αn T (vn ) = 0W .
Entonces, como T es TL tenemos que
T (αr+1 vr+1 + · · · + αn vn ) = 0W .
Entonces, αr+1 vr+1 + · · · + αn vn ∈ Nu(T ). Como {v1 , · · · , vr } una base de Nu(T ), existen
α1 , · · · , αr ∈ K tales que
αr+1 vr+1 + · · · + αn vn = α1 v1 + · · · + αr vr .

59
2. Transformaciones Lineales

Entonces
αr+1 vr+1 + · · · + αn vn − α1 v1 − · · · − αr vr = 0V .

Como {v1 , · · · , vr , vr+1 , · · · , vn } es una base de V, en particular es un conjunto LI y tenemos una


CL de dichos vectores igualada a 0V . Por lo tanto, α1 = · · · = αr = · · · = αn = 0. Entonces,
{T (vr+1 ), · · · , T (vn )} es una base de Im(T ) y se sigue que dim(Im(T )) = n − r. Entonces,

dim(V) = n = r + (n − r) = dim(Nu(T )) + dim(Im(T ))

y probamos lo que queríamos.


Observar que si r = n, entonces T es la función nula. En ese caso dim(Im(T )) = 0 y el teorema
vale.
Si r = 0, entonces de manera similar al caso 0 < r < n se puede ver que si {v1 , · · · , vn } es una
base de V entonces {T (v1 ), · · · , T (vn )} es una base de Im(T ). Por lo tanto dim(Im(T )) = n y el
teorema vale. 
A partir del Teorema de la dimensión para transformaciones lineales, se puede probar fácilmente
el Teorema 1.9.1 para matrices: Sea A ∈ Rn×m . Entonces,

dim(nul(A)) + rg(A) = m.

Sea A ∈ Cn×m y supongamos que estamos trabajando en el cuerpo K = C. Entonces,

dim(nul(A)) + rg(A) = m.

Sea A ∈ Cn×m y supongamos que estamos trabajando en el cuerpo K = R. Entonces,

dim(nul(A)) + rg(A) = 2m.

Dem. Para demostrar este resultado, vamos a considerar la transformación lineal asociada a la
matriz A, es decir, la transformación lineal TA : Km → Kn definida por

TA (x) := Ax,

para cada x ∈ Km .
En el Ejercicio 2.D probamos que Nu(TA ) = nul(A) e Im(TA ) = col(A). Entonces,
dim(Nu(TA )) = dim(nul(A)) y dim(Im(TA )) = dim(col(A)) = rg(A). Entonces, si A ∈ Rn×m ,
TA ∈ L(Rm , Rn ) y como dim(Rm ) = m, por el Teorema 2.1.1, tenemos que m = dim(nul(A))+rg(A).
Análogamente, si A ∈ Cn×m y estamos trabajando en el cuerpo K = C, como dim(Cm C ) = m,
por el Teorema 2.1.1, tenemos que m = dim(nul(A)) + rg(A).
Finalmente, si A ∈ Cn×m y estamos trabajando en el cuerpo K = R, como dim(Cm R ) = 2m, por
el Teorema 2.1.1, tenemos que 2m = dim(nul(A)) + rg(A). 

Ejercicio 2.5. Sea T : R3 [x] → R3 [x] definda por

T (p) := p + (1 − x)p0 .

a) Explicar por qué T está bien definida y es una transformación lineal.

b) Hallar una base del núcleo de T.

c) Hallar una base de la imagen de T.

d) Comprobar que el polinomio q(x) = 1 + x + x2 − x3 pertenece a la imagen de T y resolver la


ecuación T (p) = q.

60
2.1. Imagen y núcleo de una transformación lineal

Dem. a) : Para ver que T está bien definida tenemos que probar que a cada elemento del dominio
de T (es decir a cada p ∈ R3 [x]) se le asigna un único elemento del conjunto de llegada (también
R3 [x]).
Observar que si p pertenece a R3 [x] (el dominio de T ) entonces p es derivable y la operación
p + (1 − x)p0 se puede hacer sin problemas. Entonces, a todo elemento del dominio se le puede
aplicar T. Por otra parte, si p pertenece a R3 [x], en primer lugar su derivada es única (esto ahora
suena obvio, pero en algún momento uno tuvo que probar, que la derivada de una función es única)
y además la derivada de un elemento de R3 [x] es un elemento de R2 [x] (es decir es un polinomio de
grado igual o menor a 2 o el polinomio nulo). Finalmente, es claro que, el producto de un polinomio
de R2 [x] y el polinomio 1 − x nos devuelve un polinomio de R3 [x] y la suma de elementos de R3 [x]
también es un elemento de R3 [x]. Por lo tanto, cuando hacemos la operación p + (1 − x)p0 obtenemos
un (único) elemento del espacio de llegada que es R3 [x]. Conclusión, a cada elemento del dominio
de T le corresponde un único elemento del espacio de llegada y entonces T está bien definida.
Ahora veamos que T es lineal, para eso, llamemos r(x) := 1 − x. Entonces, T (p) = p + rp0 .
Sean p1 , p2 ∈ R3 [x]. Usando que la derivada es lineal,

T (p1 + p2 ) = p1 + p2 + r(p1 + p2 )0 = p1 + p2 + r(p01 + p02 )


= p1 + rp01 + p2 + rp02 = T (p1 ) + T (p2 ).

De la misma manera, sea p ∈ R3 [x] y α ∈ R. Usando que la derivada es lineal

T (αp) = αp + r(αp)0 = α + rαp0 = α(p + rp0 ) = αT (p).

b) : Vamos a hallar una base de Nu(T ) = {p ∈ R3 [x] : T (p) = 0}. Si p ∈ Nu(T ) entonces
p ∈ R3 [x], es decir p(x) = a + bx + cx2 + dx3 con a, b, c, d ∈ R y, para todo x ∈ R,

0 = T (p)(x) = a + bx + cx2 + dx3 + (1 − x)(a + bx + cx2 + dx3 )0


= a + bx + cx2 + dx3 + (1 − x)(b + 2cx + 3dx2 )
= 1 · (a + b) + x(b + 2c − b) + x2 (c + 3d − 2c) + x3 (d − 3d)
= 1 · (a + b) + x · (2c) + x2 (−c + 3d) + x3 (−2d).

Entonces, −2d = 0, −c + 3d = 0, 2c = 0 y a + b = 0. Por lo tanto, a = −b y c = d = 0.


Reemplazando en la expresión de p, nos queda p(x) = a + bx + cx2 + dx3 = a − ax, con a ∈ R. Por
lo tanto,
Nu(T ) = {p ∈ R3 [x] : p(x) = a(1 − x), a ∈ R} = gen{1 − x}.
Una base de Nu(T ) puede ser, BNu(T ) = {1 − x}.
c) : En el Ejercicio 2.C, vimos que como {1, x, x2 , x3 } es una base de R3 [x] (en particular es un
sistema de generadores), entonces

Im(T ) = gen{T (1), T (x), T (x2 ), T (x3 )}.

Haciendo cuentas, nos queda que T (1) = 1 + (1 − x)(1)0 = 1, T (x) = x + (1 − x)(x)0 = x + 1 − x =


1, T (x2 ) = x2 + (1 − x)(x2 )0 = x2 + (1 − x)2x = −x2 + 2x, T (x3 ) = x3 + (1 − x)(x3 )0 =
x3 + (1 − x)3x2 = 3x2 − 2x3 . Por lo tanto,

Im(T ) = gen{1, 1, −x2 + 2x, 3x2 − 2x3 }− = gen{1, −x2 + 2x, 3x2 − 2x3 }.
Observar que los vectores 1, −x2 + 2x, 3x2 − 2x3 son LI, eso se puede ver (por ejemplo) observando
que los polinomios del conjunto son de distinto grado. Entonces, una base de Im(T ) puede ser

BIm(T ) = {1, −x2 + 2x, 3x2 − 2x3 }.

d) : Notar que
1 1
q(x) = 1 + x + x2 − x3 = 1 · 1 + · (−x2 + 2x) + · (3x2 − 2x3 ).
2 2

61
2. Transformaciones Lineales

Por lo tanto, q ∈ Im(T ) y entonces, la ecuación T (p) = q tiene solución. En este caso (al igual que
con ecuaciones matriciales) tenemos que T (p) = q si y sólo si

p = ph + pp ,

donde ph ∈ Nu(T )(solución del sistema homogéneo) y pp es una solución particular de T (p) = q.
Observar que
1 2 1 3 1 1
T (1 · 1 + · x + · x ) = 1T (1) + T (x2 ) + T (x3 )
2 2 2 2
1 1
= 1 · 1 + · (−x2 + 2x) + · (3x2 − 2x3 ) = q(x).
2 2
Por lo tanto, si pp (t) := 1 · 1 + 12 · x2 + 12 · x3 , tenemos que pp es una solución particular del
sistema T (p) = q. Entonces, usando que Nu(T ) = gen{1 − x}, tenemos que todas las soluciones de
la ecuación T (p) = q son

x2 x3
p(x) = 1 + + + a(1 − x) con a ∈ R.
2 2


Para resolver el siguiente ejercicio vamos a usar algunas de las propiedades que probamos en el
Ejercicio 2.C.
Ejercicio 2.7. Sean V y W dos R-espacios vectoriales, T : V → W una TL y V = {v1 , · · · , vn } ∈ V
un conjunto de n puntos de V. Sea
Xn n
X
C(V) := { pi vi : p1 , · · · , pn ∈ R+ y pi = 1}
i=1 i=1

la cápsula convexa de V. Comprobar que la imagen de la cápsula convexa de V por T es la cápsula


convexa de la imagen de V por T. Es decir,

T (C(V)) = C(T (V)).

Dem. Tenemos que probar una igualdad de conjuntos así que probaremos la doble inclusión.
Sea w ∈ T (C(V)), Pn entonces existe v ∈ C(V) tal que w = T (v). Como v ∈ C(V), existen
p1 , · · · , pn ∈ R+ y i=1 pi = 1 tales que v = p1 v1 + · · · + pn vn . Entonces, como T es TL,

w = T (v) = T (p1 v1 + · · · + pn vn ) = p1 T (v2 ) + · · · + pn T (vn ).


Pn Pn
Por lo tanto w ∈ C(T (V)) = { i=1 pi T (vi ) : p1 , · · · , pn ∈ R+ y i=1 pi = 1} y tenemos que
T (C(V)) ⊆ C(T (V)). Pn
Recíprocamente, si w ∈ C(T (V)), existen p1 , · · · , pn ∈ R+ y i=1 pi = 1 tales que

w = p1 T (v1 ) + · · · + pn T (vn ).

A continuación, tenemos que probar que w ∈ T (C(V)), es decir debemos proponer v ∈ C(V) tal
que w = T (v). Proponemos
v := p1 v1 + · · · + pn vn ,
claramente v ∈ C(V) y por otra parte, como T es TL, tenemos que

T (v) = T (p1 v1 + · · · + pn vn ) = p1 T (v1 ) + · · · + pn T (vn ) = w

y entonces w ∈ T (C(V)). Por lo tanto C(T (V)) ⊆ T (C(V)). Como probamos la doble inclusión,
concluimos que T (C(V)) = C(T (V)) que era lo que queríamos probar. 

62
2.2. Buena definición de transformaciones lineales

Ejercicio 2.E (De Parcial). Sean V y W dos R-espacios vectoriales, B = {w1 , w2 , w3 } una base de
W. Dadas las funcionales lineales fi : V → R con i = 1, 2, 3, se define T : V → W como

T (v) = f1 (v)w1 + f2 (v)w2 + f3 (v)w3 .

Demostrar que:

a) T es una TL.

b) Nu(T ) = Nu(f1 ) ∩ Nu(f2 ) ∩ Nu(f3 ).

Dem. a) : Basta con probar que la función T cumple con i) y ii) de la definición de TL.

i) Sean v, v 0 ∈ V, entonces T (v + v 0 ) = f1 (v + v 0 )w1 + f2 (v + v 0 )w2 + f3 (v + v 0 ), usando que fi


son funcionales lineales para i = 1, 2, 3, tenemos entonces que

T (v + v 0 ) = (f1 (v) + f1 (v 0 ))w1 + (f2 (v) + f2 (v 0 ))w1 + (f3 (v) + f3 (v 0 ))w1 ,

como fi (v), fi (v 0 ) ∈ R (el cuerpo de W) para i = 1, 2, 3, podemos aplicar la propiedad


distributiva (recordar que era uno de los axiomas de los espacios vectoriales). Entonces

T (v + v 0 ) = f1 (v)w1 + f1 (v 0 )w1 + f2 (v)w2 + f2 (v 0 )w2 + f3 (v)w3 + f3 (v 0 )w3 .

Por último, asociando, nos queda

T (v + v 0 ) = f1 (v)w1 + f2 (v)w2 + f3 (v)w3 + f1 (v 0 )w1 + f2 (v 0 )w2 + f3 (v 0 )w3 = T (v) + T (v 0 ).

ii) Sea v ∈ V y α ∈ R. Usando que fi son funcionales lineales para i = 1, 2, 3, tenemos que

T (αv) = f1 (αv)w1 + f2 (αv)w2 + f3 (αv) = αf1 (v)w1 + αf2 (v)w2 + αf3 (v)w3 = αT (v).

b) : Tenemos que probar una igualdad de conjuntos. Vamos a probar la doble inclusión.
Si v ∈ Nu(f1 ) ∩ Nu(f2 ) ∩ Nu(f3 ) entonces v ∈ Nu(f1 ), v ∈ Nu(f2 ) y v ∈ Nu(f3 ). Es decir
f1 (v) = f2 (v) = f3 (v) = 0. Entonces

T (v) = f1 (v)w1 + f2 (v)w2 + f3 (v)w3 = 0w1 + 0w2 + 0w3 = 0W + 0W + 0W = 0W ,

entonces v ∈ Nu(T ) y tenemos que Nu(f1 ) ∩ Nu(f2 ) ∩ Nu(f3 ) ⊆ Nu(T ).


Recíprocamente, si v ∈ Nu(T ) entonces,

0W = T (v) = f1 (v)w1 + f2 (v)w2 + f3 (v)w3 .

Observar que f1 (v), f2 (v), f3 (v) ∈ R (el cuerpo de W), entonces la ecuación anterior es una
combinación lineal de los vectores w1 , w2 , w3 igualada al elemento neutro de W. Como {w1 , w2 , w3 }
es una base de W, los escalares f1 (v), f2 (v), f3 (v) son todos nulos. Es decir f1 (v) = f2 (v) = f3 (v) = 0,
entonces v ∈ Nu(f1 ) ∩ Nu(f2 ) ∩ Nu(f3 ) y tenemos la otra inclusión, Nu(T ) ⊆ Nu(f1 ) ∩ Nu(f2 ) ∩
Nu(f3 ). Como probamos la doble inclusión, concluimos que Nu(T ) = Nu(f1 ) ∩ Nu(f2 ) ∩ Nu(f3 ).


2.2. Buena definición de transformaciones lineales


Sean V y W dos K-espacios vectoriales, V de dimensión finita. La siguiente proposición prueba
que si definimos una transformación lineal T sobre una base de V entonces T está bien definida y
además es única.

63
2. Transformaciones Lineales

Proposición 2.2.1. Sean V y W dos K-espacios vectoriales, V de dimensión finita. Sea


B = {v1 , v2 , · · · , vn } una base de V y sean w1 , w2 , · · · , wn ∈ W vectores arbitrarios. Entonces existe
una única transformación lineal T : V → W tal que
T (vi ) = wi , para cada i ∈ {1, 2, · · · , n}.

Dem. Buena definición. Una transformación lineal está bien definida si: a cada elemento v del
dominio de T (que en este caso es V) le corresponde un único elemento de W. A dicho elemento se
lo denota T (v).
Sea v ∈ V un elemento del dominio de T. Entonces, como B es una base de V, existen únicos
a1 , a2 , · · · , an ∈ K tales que v = a1 v1 + a2 v2 + · · · + an vn . Definimos
T (v) := a1 w1 + · · · + an wn ∈ W.
Por lo tanto T está bien definida, ya que a cada elemento del dominio de T le corresponde un único
elemento de W.
Veamos que T es una transformación lineal. Sean v, v 0 ∈ V, como B es una base de V, existen
únicos a1 , a2 , · · · , an ∈ K tales que v = a1 v1 +a2 v2 +· · ·+an vn y existen únicos b1 , b2 , · · · , bn ∈ K
tales que v 0 = b1 v1 + b2 v2 + · · · + bn vn . Entonces,
v + v 0 = a1 v1 + a2 v2 + · · · + an vn + b1 v1 + b2 v2 + · · · + bn vn = (a1 + b1 )v1 + · · · + (an + bn )vn .
Por lo tanto, por definición
T (v + v 0 ) = (a1 + b1 )w1 + · · · + (an + bn )wn = a1 w1 + · · · + an wn + b1 w1 + · · · + bn wn = T (v) + T (v 0 ).
De manera similar se prueba que si α ∈ K y v ∈ V entonces T (αv) = αT (v).
Unicidad. Supongamos que existe otra transformación lineal, digamos S : V → W, tal que
S(vi ) = wi , para cada i ∈ {1, 2, · · · , n}.
Sea v ∈ V (el dominio de S y de T ), como B es una base de V, existen únicos a1 , a2 , · · · , an ∈ K
tales que v = a1 v1 + a2 v2 + · · · + an vn . Entonces
S(v) = S(a1 v1 + · · · + an vn ) = a1 S(v1 ) + · · · + an S(vn ) = a1 w1 + · · · + an wn = T (v).
Como la igualdad anterior vale para todo v ∈ V, concluimos que S = T como queríamos ver. 
El siguiente ejercicio que se relaciona con el Ejercicio 2.9, permite diferenciar entre los conceptos
de existencia, unicidad y buena definición de una transformación lineal. Estos tres conceptos suelen
generar confusión por lo que se recomienda meditar un poco sobre qué diferencia hay entre ellos.
Ejercicio 2.F. Consideremos:
1. T1 : R2 [x] → R3 , definida por
1 0 0
     

T1 (1) =  2  , T1 (x) =  1  , T2 (x2 ) =  0  .


3 0 0

2. T2 : R2 [x] → R3 , definida por


1 0 0
     

T2 (1) =  2  , T2 (x) =  1  , T2 (x + 1) =  0  .
3 0 0

3. T3 : R2 [x] → R3 , definida por


1 0 0
     

T3 (1) =  2  , T3 (x) =  1  , T3 (x + 1) =  3  .
3 0 3

64
2.2. Buena definición de transformaciones lineales

a) Indicar si las transformaciones lineales de los items 1., 2. y 3. están bien definidas.
b) Indicar si existe una transformación lineal que satisfaga la condiciones de los items 1., 2. ó 3.
y de existir dicha transformación lineal, estudiar si es única.

Dem.
1. Como {1, x, x2 } es una base de R2 [x], por la Proposición 2.2.1, la transformación lineal T1
está bien definida. Por la misma proposición, T1 es la única transformación lineal que satisface
las condiciones del item 1.
2. Como el conjunto {1, x, 1 + x} NO es una base de R2 [x], la transformación lineal T2 NO está
bien definida. Observar que el vector x2 pertenece al dominio de T2 , sin embargo, por como
se definió T2 no hay ningún elemento de R3 asignado a x2 , por lo tanto T2 NO está bien
definida.
Observar por otra parte que,

1 0 1 0
       

T2 (1) + T2 (x) =  2  +  1  =  3  =
6  0  = T2 (1 + x).
3 0 3 0

Por lo tanto, NO puede existir ninguna transformación lineal que cumpla con las condiciones
del item 2.
3. Como el conjunto {1, x, 1 + x} NO es una base de R2 [x], la transformación lineal T3 NO está
bien definida. Hay elementos del dominio de T3 a los cuáles no se le asignó ningún elemento
de R3 .
En este caso, como

1 0 1
     

T3 (1) + T3 (x) =  2  +  1  =  3  = T3 (1 + x),


3 0 3

existen (infinitas) transformaciones lineales que cumplen las condiciones del item 3. Por
ejemplo, consideremos Tv : R3 [x] → R3 , definida por

1 0
   

Tv (1) =  2  , Tv (x) =  1  , Tv (x2 ) = v,


3 0

donde v es cualquier vector de R3 . Entonces, para cada v de R3 que elijamos, la transformación


lineal Tv cumple con las condiciones del item 3., está bien definida y es única (porque se
definió sobre una base). Pero claramente, cambiando v, tendremos infinitas transformaciones
lineales Tv que cumplan con las condiciones del item 3.

El siguiente ejercicio es muy similar al Ejercicio 2.10.
Ejercicio 2.G. Sea B = {x2 + x, x2 − x, 1} una base de R2 [x] y sea T ∈ L(R2 [x], R3 ) una TL que
actúa sobre la base B de la siguiente manera

2 4
     
−6
T (x2 + x) =  −3  , T (x2 − x) =  9  , T (1) =  −6  .
4 −12 8

65
2. Transformaciones Lineales

a) Hallar T (2x2 + 3x + 5).


b) Hallar bases de Nu(T ) e Im(T ).
1
 

c) Hallar, (si existen) todos los p ∈ R2 [x] tales que T (p) =  1  .


1

Dem. a): Para hallar T (2x2 + 3x + 5), primero escribimos al vector 2x2 + 3x + 5 como CL de los
elementos de la base B. Entonces, si

2x2 + 3x + 5 = a(x2 + x) + b(x2 − x) + c = x2 (a + b) + x(a − b) + 1 · c, para todo x ∈ R.

Tenemos que 2 = a + b, 3 = a − b, 5 = c. Entonces a = 52 , b = − 12 y c = 5. Entonces,

5 1 5 1
T (2x2 + 3x + 5) = T ( (x2 + x) − (x2 − x) + 5) = T (x2 + x) − T (x2 − x) + 5T (1) =
2 2 2 2
2 4 28
       
−6
5  1
= −3  −  9  + 5  −6  =  −42  .
2 2
4 −12 8 56
0
 

b): Recordemos que Nu(T ) = {p ∈ R2 [x] : T (p) =  0 }. Entonces, si p ∈ Nu(T ), por un lado
0
p ∈ R2 [x] y, como B es una base de R2 [x], p(x) = a(x2 + x) + b(x2 − x) + c, con a, b, c ∈ R y, por el
otro lado,

0
 
 0  = T (p) = T (a(x2 + x) + b(x2 − x) + c) = aT (x2 + x) + bT (x2 − x) + cT (1) =
0

2 4 2 4
         
−6 −6 a
= a  −3  + b  9  + c  −6  =  −3 9 −6   b  .
4 −12 8 4 −12 8 c
Entonces, basta con resolver el sistema homogéneo de arriba. Operando, nos queda que a = 3b − 2c.
Entonces, volviendo a la expresión de p, nos queda

p(x) = a(x2 + x) + b(x2 − x) + c = (3b − 2c)(x2 + x) + b(x2 − x) + c = b(4x2 + 2x) + c(−2x2 − 2x + 1),

con b, c ∈ R. Es decir Nu(T ) = gen{4x2 + 2x, −2x2 − 2x + 1} y una base de Nu(T ) puede ser
BNu(T ) = {4x2 + 2x, −2x2 − 2x + 1}.

Recordemos que como {x2 + x, x2 − x, 1} es una base de R2 [x], entonces

2 4
     
−6
Im(T ) = gen{T (x2 + x), T (x2 − x), T (1)} = gen{  −3  ,  9  ,  −6 }.
4 −12 8

Basta con extraer una base de ese conjunto. Por el Teorema de la dimensión, 2.1.1, sabemos que

dim(T ) = dim(R2 [x]) − dim(Nu(T )) = 3 − 2 = 1.

Entonces, podemos
 obtener una base de Im(T ) con cualquier generador de Im(T ), por ejemplo
−6
BIm(T ) = {  9 }.
−12

66
2.2. Buena definición de transformaciones lineales

1 1
   

c): Recordar que existe p ∈ R2 [x] tal que T (p) =  1  , si y sólo si  1  ∈ Im(T ) y eso vale
1 1
por definición
 de Im(T ) = {v ∈ R 
3
: ∃p ∈ R2 [x] : v = T (p)}.
1 1
 
−6
Como  1  6∈ Im(T ) = gen{  9 } concluimos que no existe p tal que T (p) =  1  .
1 −12 1


En el siguiente ejercicio que se relaciona con los Ejercicio 2.11 y 2.12, aplicaremos varios de
los conceptos que vimos hasta acá.
Ejercicio 2.H (De Parcial). Sea T : R2 [x] → R2 la TL definida por
 
p(0) − p(1)
T (p) = .
p(0) + p(−1)

a) Hallar bases de Nu(T ) e Im(T ).

1
 
b) Sean S := {p ∈ R2 [x] : p(1) = p0 (1) = 0} y U := gen{ }. Hallar T (S) y T −1 (U).
1

0
 
Dem. a): Recordemos que Nu(T ) = {p ∈ R2 [x] : T (p) = }. Entonces p ∈ Nu(T ) si
0
0
 
p(x) = ax2 + bx + c, con a, b, c ∈ R y T (p) = . Observar que p(0) = c, p(1) = a + b + c y
0
p(−1) = a − b + c. Entonces

0
   
−a − b
= T (p) = .
0 a − b + 2c

Entonces, −a − b = 0 y a − b + 2c = 0. Entonces a = −b y c = b. Por lo tanto, p(x) = −bx2 + bx + b =


b(−x2 + x + 1), con b ∈ R. Entonces, Nu(T ) = gen{−x2 + x + 1} y una base de Nu(T ) puede ser
BNu(T ) = gen{−x2 + x + 1}.
Por otra parte, por el Ejercicio 2.C, como {1, x, x2 } es una base de R2 [x] (en particular es un
sistema de generadores de R2 [x]) se sigue que

0
     
−1 −1
Im(T ) = gen{T (1), T (x), T (x2 )} = gen{ , , } = R2 .
2 −1 1

Otra manera de resolver este item es usando el Teorema de la dimensión 2.1.1: como dim(Im(T )) =
dim(R2 [x]) − dim(Nu(T )) = 3 − 1 = 2 e Im(T ) ⊆ R2 , tenemos que Im(T ) = R2 .
b): Busquemos un sistema de generadores de S. Si p ∈ S entonces p(x) = ax2 + bx + c, con
a, b, c ∈ R y como p(1) = a + b + c y p0 (1) = 2a + b, tenemos que a + b + c = 2a + b = 0. Entonces
b = −2a y c = −a − b = −a + 2a = a. Entonces p(x) = ax2 − 2ax + a = a(x2 − 2x + 1), con a ∈ R.
Entonces S = gen{x2 − 2x + 1} y, por el Ejercicio 2.C,

1
 
T (S) = gen{T (x − 2x + 1)} = gen{
2
}.
5

Finalmente, recordar que T −1 (U) = {p ∈ R2 [x] : T (p) ∈ U}. Entonces p ∈ T −1 (U) si


p(x) = ax2 + bx + c, con a, b, c ∈ R y T (p) ∈ U. Como p(0) = c, p(1) = a + b + c y p(−1) = a − b + c,
entonces
1
   
−a − b
T (p) = ∈ U = gen{ }.
a − b + 2c 1

67
2. Transformaciones Lineales

1
   
−a − b
Entonces, =λ con λ ∈ R. Entonces −a − b = λ y a − b + 2c = λ. Entonces
a − b + 2c 1
a = −b − λ y 2c = λ − a + b = λ + b + λ + b = 2b + 2λ, entonces c = b + λ. Por lo tanto,

p(x) = (−b − λ)x2 + bx + b + λ = b(−x2 + x + 1) + λ(−x2 + 1),

con b, λ ∈ R. Entonces T −1 (U) = gen{−x2 + x + 1, −x2 + 1}. 

Observar que en el ejercicio anterior Nu(T ) ⊆ T −1 (U), eso no es casualidad. En general, vale la
siguiente propiedad:

Sean V y W dos K-espacios vectoriales y T : V → W una TL. Si U ⊆ W es un subespacio


entonces
Nu(T ) ⊆ T −1 (U).

De hecho, si v ∈ Nu(T ), entonces T (v) = 0W , como U es un subespacio, T (v) = 0W ∈ U,


entonces v ∈ T −1 (U) y tenemos la inclusión que queríamos probar.

2.3. Transformaciones lineales inversibles


Sean V, W dos K-espacios vectoriales y T ∈ L(V, W). Diremos que:
T es monomorfismo si T es inyectiva, es decir, si T (v1 ) = T (v2 ) entonces v1 = v2 .
T es epimorfismo si T es sobreyectiva, es decir, si Im(T ) = W.
T es isomorfismo si T es biyectiva, es decir, si es monomorfismo y epimorfismo.
Por otra parte, para lo que viene a continuación, vamos a definir la composición de
transformaciones lineales.
Sean V, W, Z tres K-espacios vectoriales, T ∈ L(V, W) y S ∈ L(W, Z). La composición de S con
T es la función S ◦ T : V → Z definida por

S ◦ T (v) := S(T (v)).

Se puede probar (se deja como ejercicio) que

si T ∈ L(V, W) y S ∈ L(W, Z) entonces S ◦ T ∈ L(V, Z), es decir, la composición de


transformaciones lineales es una transformación lineal.

Proposición 2.3.1. Sean V, W dos K-espacios vectoriales y T ∈ L(V, W). Entonces:


1. T es monomorfismo si y sólo si Nu(T ) = {0V }.
2. Si T es isomorfismo, entonces dim(V) = dim(W). En este caso, existe T −1 y T −1 ∈ L(W, V)
(es decir la inversa de una transformación lineal, también es una transformación lineal).

Dem. 1.: Vamos a probar las dos implicaciones. En primer lugar, supongamos que T es
monomorfismo y veamos que eso implica que Nu(T ) = {0V }.
Si T es monomorfismo, T es inyectiva y entonces, T (v1 ) = T (v2 ) implica que v1 = v2 .
Supongamos que v ∈ Nu(T ), entonces T (v) = 0W , por otra parte, como T es TL, siempre
vale que T (0V ) = 0W = T (v), entonces, por hipótesis, v = 0V y Nu(T ) = {0V }.
Recíprocamente, supongamos que Nu(T ) = {0V } y veamos que eso implica que T es
monomorfismo. Supongamos que T (v1 ) = T (v2 ) para ciertos v1 , v2 ∈ V. Entonces, como T es
TL, tenemos que T (v1 − v2 ) = T (v1 ) − T (v2 ) = 0W , entonces v1 − v2 ∈ Nu(T ) = {0V } por hipótesis.
Por lo tanto v1 = v2 y T es monomorfismo.

68
2.3. Transformaciones lineales inversibles

2. Si T es isomorfismo, entonces T es monomorfismo y Nu(T ) = {0V } (por el item 1.) y además


T es epimorfismo, es decir Im(T ) = W. Entonces, por el Teorema de la dimensión 2.1.1, tenemos
que
dim(V) = dim(Nu(T )) + dim(Im(T )) = dim({0V }) + dim(W) = dim(W).
En este caso, si T es isomorfismo entonces T es biyectiva y existe T −1 .
De hecho, como Im(T ) = W y Nu(T ) = {0V }, dado w ∈ W existe un único v ∈ V tal que
T (v) = w. Vamos a definir T −1 : W → V como

T −1 (w) := v.

La función T −1 está bien definida porque: T −1 está definida en todo elemento del dominio W
(justamente porque Im(T ) = W) y además a cada elemento del dominio le corresponde sólo un
elemento de V (justamente porque Nu(T ) = {0V }). Entonces, por como definimos T −1 , observar
que
T ◦ T −1 (w) = T (T −1 (w)) = T (v) = w = IW (w),
como esa igualdad vale para todo w ∈ W tenemos que T ◦ T −1 = IW . Además,

T −1 ◦ T (v) = T −1 (T (v)) = T −1 (w) = v = IV (v),

como esa igualdad vale para todo v ∈ V tenemos que T −1 ◦ T = IV .


Sólo nos resta probar que T −1 es una TL.
Sean w, w0 ∈ W entonces existen únicos v, v 0 ∈ V tales que T (v) = w y T (v 0 ) = w0 y entonces
T (w) = v y T −1 (w0 ) = v 0 . Como T es una TL, tenemos que T (v + v 0 ) = T (v) + T (v 0 ) = w + w0
−1

entonces, por definición de T −1 , tenemos que T −1 (w + w0 ) = v + v 0 = T −1 (w) + T −1 (w0 ).


De manera similar, se prueba que si α ∈ K y w ∈ W entonces T −1 (αw) = αT −1 (w) (hacerlo
como ejercicio) y concluimos que T −1 ∈ L(W, V). 

Ejercicio 2.I. Sea λ ∈ C \ {0}. Comprobar que la aplicación T : Cn [x] → Cn [x] definida por

T (p) = p0 − λp

es un isomorfismo.

Dem. Tomemos a Cn [x] como C-espacio vectorial (se deja como tarea pensar cómo se resuelve el
ejercicio si tomamos como cuerpo R) y probemos que T es monomorfismo, es decir veamos que
Nu(T ) = {0}. Sea p ∈ Nu(T ), entonces, por un lado p ∈ Cn [x] es decir

p(x) = an xn + an−1 xn−1 + · · · + a1 x + a0 ,

con an , an−1 , · · · , a1 , a0 ∈ C y, por otro lado,

0 = T (p) = p0 − λp.

Es decir, para cada x ∈ C, tenemos que

0 = 0(x) = T (p)(x) = p0 (x) − λp(x)


= an nxn−1 + an−1 (n − 1)xn−2 + · · · + a2 2x + a1 − λ(an xn + an−1 xn−1 + · · · + a1 x + a0 )
= xn (−λan ) + xn−1 (an n − λan−1 ) + · · · + x(a2 2 − λa1 ) + 1(a1 − λa0 ).

Es decir, tenemos que

0 = xn (−λan ) + xn−1 (an n − λan−1 ) + · · · + x(a2 2 − λa1 ) + 1(a1 − λa0 ), para todo x ∈ C.

Entonces, usando por ejemplo que {xn , xn−1 , · · · , x, 1} es una base de Cn [x], (y arriba nos
quedó una CL de los elementos de la base igualada al elemento neutro de Cn [x]), tenemos que

−λan = an n − λan−1 = · · · = a2 2 − λa1 = a1 − λa0 = 0.

69
2. Transformaciones Lineales

Entonces, como −λan = 0 y λ 6= 0, tenemos que an = 0. De la misma manera, como


λan−1 = an n = 0.n = 0 y λ = 6 0, tenemos que an−1 = 0. Si seguimos así, en el paso
n − 1 tendremos que a2 = 0, entonces como λa1 = a2 2 = 0 y λ 6= 0, tenemos que a1 = 0.
Finalmente, como λa0 = a1 = 0 y λ 6= 0, tenemos que a0 = 0. Entonces, probamos que
an = an−1 = · · · = a2 = a1 = a0 = 0 y volviendo a la expresión de p, nos queda que p(x) = 0, para
todo x ∈ C, es decir p = 0. Por lo tanto Nu(T ) = {0} y T es monomorfismo. Finalmente, por el
teorema de la dimensión,

dim(Im(T )) = dim(Cn [x]) − dim(Nu(T )) = dim(Cn [x]) − 0 = dim(Cn [x])

y como siempre vale que Im(T ) ⊆ Cn [x], tenemos que Im(T ) = Cn [x] y T es epimorfismo. Como T
es monomorfismo y epimorfismo, concluimos que T es isomorfismo. 

El siguiente ejercicio es un ejemplo muy importante de isomorfismo, el llamado isomorfismo de


coordenadas.
Ejercicio 2.J. Sea V un K-espacio vectorial, y sea {v1 , · · · , vn } un conjunto de vectores de V. Sea
Λ : Kn → V la aplicación en V definida por
n
X
Λ([x1 · · · xn ]T ) := x j vj .
j=1

a) Probar que Λ ∈ L(Kn , V) y describir la imagen de Λ.


b) Probar que Λ es isomorfimo si, y sólo si, {v1 , v2 , · · · , vn } es una base de V.
c) Mostrar que si B = {v1 , v2 , · · · , vn } es una base de V entonces

Λ ◦ Φ = IV y Φ ◦ Λ = IKn .

Donde Φ : V → Kn es la TL tal que Φ(v) = [v]B .

Dem. a) : Basta con probar que la aplicación Λ cumple con i) y ii) de la definición de TL.
Sean x = [x1 · · · xn ]T , y = [y1 · · · yn ]T ∈ Kn . Entonces Pn
Λ(x + y) = Λ([x1 · · · xn ]T + [y1 · · · yn ]T ) = Λ([x1 + y1 · · · xn + yn ]T ) = j=1 (xj + yj )vj =
Pn Pn Pn
j=1 (xj vj + yj vj ) = j=1 xj vj + j=1 yj vj = Λ([x1 · · · xn ] ) + Λ([y1 · · · yn ] ) = Λ(x) + Λ(y).
T T

Por otra parte, sean Pn x = [x1 · · · xP n]


T
y α ∈ K. Entonces Λ(αx) = Λ(α[x1 · · · xn ]T ) =
n
Λ([αx1 · · · αxn ] ) = j=1 (αxj )vj = α j=1 xj vj = αΛ([x1 · · · xn ]T ) = αΛ(x).
T

Recordemos que vimos que si tenemos un sistema de generadores (en particular una base) de
Kn entonces la imagen de Λ está generada por los transformados de dichos generadores de Kn .
Sean ei los vectores de Kn cuyas componentes son 0 en todos lados excepto en el lugar i donde
vale 1, por ejemplo, e1 = [1 0 0 · · · 0]T . Claramente {e1 , e2 , · · · , en } es una base de Kn (de hecho
es la base canónica de Kn ). Por lo tanto

Im(Λ) = gen{Λ(e1 ), Λ(e2 ), · · · , Λ(en )}.


Pn
Observar que Λ(ei ) = j=1 (ei )j vj = vi , (porque solo sobrevive el sumando j = i que es cuando la
componente de ei es 1). Entonces

Im(Λ) = gen{Λ(e1 ), Λ(e2 ), · · · , Λ(en )} = gen{v1 , v2 , · · · , vn }.

b) : Primero veamos que Λ es monomorfismo si y sólo si el conjunto {v1 , v2 , · · · , vn } es


LI. Como Λ ∈ L(Kn , V) entonces Λ es monomorfismo si y sólo si Nu(Λ) = {0Kn }. Primero,
supongamos que Λ es monomorfismo y probemos que {v1 , v2 , · · · , vn } es LI: sean α1 , · · · , αn ∈ K
tales que α1 v1 + α2 v2 + · · · + αn vn = 0V , para probar que {v1 , v2 , · · · , vn } es LI basta ver que
α1 = α2 = · · · = αn = 0.

70
2.3. Transformaciones lineales inversibles

Observar que [α1 α2 · · · αn ]T ∈ Kn y además


n
X
Λ([α1 α2 · · · αn ]T ) = αj vj = α1 v1 + α2 v2 + · · · + αn vn = 0V .
j=1

Por lo tanto, [α1 α2 · · · αn ]T ∈ Nu(Λ) = {0Kn } (por hipótesis). Entonces α1 = α2 = · · · = αn = 0,


y probamos {v1 , v2 , · · · , vn } es LI.
Recíprocamente, supongamos que {v1 , v2 , · · · , vn } es LI veamos que Nu(Λ) = {0Kn } : si
x = [x1 · · · xn ]T ∈ Nu(Λ), entonces
n
X
0V = Λ(x) = x j vj = x 1 v1 + x 2 v 2 + · · · + x n vn .
j=1

Tenemos una combinación lineal de los vectores v1 , v2 , · · · , vn igualada al elemento neutro de


V. Como {v1 , v2 , · · · , vn } es LI (por hipótesis), entonces x1 = x2 = · · · = xn = 0. Entonces
x = [x1 · · · xn ]T = 0Kn . Por lo tanto, Nu(Λ) = {0Kn } y Λ es monomorfismo.
Usando el ítem a), tenemos que Im(T ) = gen{v1 , v2 , · · · , vn }. Además, recordemos que Λ es
epimorfismo si y sólo si Im(T ) = V. Por lo tanto, Λ es epimorfismo si y sólo si V = Im(T ) =
gen{v1 , v2 , · · · , vn }.
Como Λ es isomorfismo si y sólo si Im(T ) = V y Nu(T ) = {0Kn }, usando lo que acabamos
de probar tenemos que Im(T ) = V y Nu(T ) = {0Kn } si y sólo si {v1 , v2 , · · · , vn } es LI y
V = gen{v1 , v2 , · · · , vn }. Pero {v1 , v2 , · · · , vn } es LI y V = gen{v1 , v2 , · · · , vn } si y sólo si
{v1 , v2 , · · · , vn } es una base de V (por definición). Conclusión, Λ es isomorfimo si y sólo si
{v1 , v2 , · · · , vn } es una base de V.
c) : Ya vimos que si B = {v1 , v2 , · · · , vn } es una base de V entonces Λ es un isomorfismo y por
lo tanto existe Λ−1 ∈ L(V, Kn ), lo que nos pide el ejercicio es verificar que Φ = Λ−1 .
Sea v ∈ V, entonces como B es una base de V, existen x1 , x2 , · · · , xn ∈ K tales que

v = x 1 v 1 + · · · + x n vn .

Entonces Φ(v) = [v]B = [x1 · · · xn ]T . Por lo tanto


n
X
Λ ◦ Φ(v) = Λ(Φ(v)) = Λ([x1 · · · xn ]T ) = xj vj = x1 v1 + · · · xn vn = v = IV (v).
j=1

Como la iguadad anterior vale para todo v ∈ V, concluimos que Λ ◦ Φ = IV .


Por otra parte, sea x = [x1 · · · xn ]T ∈ Kn . Observar que como B = {v1 , v2 , · · · , vn } es una
base de V, si tomamos el vector v := x1 v1 + · · · + xn vn , entonces claramente [v]B = [x1 · · · xn ]T .
Entonces
Φ ◦ Λ(x) = Φ ◦ Λ([x1 · · · xn ]T ) = Φ(Λ([x1 · · · xn ]T )) =
= Φ(x1 v1 + · · · + xn vn ) = [x1 v1 + · · · + xn vn ]B = [x1 · · · xn ]T = IKn (x).
Como la iguadad anterior vale para todo x ∈ Kn , concluimos que Φ ◦ Λ = IKn . 

La siguiente propiedad vale cuando los espacios de salida y de llegada de una transformación
lineal tienen la misma dimensión:

Proposición 2.3.2. Sean V, W dos K-espacios vectoriales tales que dim(V) = dim(W) y sea
T ∈ L(V, W). Entonces son equivalentes:

i) T es isomorfismo,
ii) T es monomorfismo,
iii) T es epimorfismo.

71
2. Transformaciones Lineales

Dem. i) ⇒ ii): Si T es isomorfismo entonces (por definición) T es monomorfismo y entonces vale


ii).
ii) ⇒ iii): Si T es monomorfismo, entonces Nu(T ) = {0V }. Por hipótesis dim(V) = dim(W)
entonces, por el Teorema de la dimensión 2.1.1, tenemos que
dim(Im(T )) = dim(V) − dim(Nu(T )) = dim(V) = dim(W).
Como Im(T ) ⊆ W y en este caso dim(Im(T )) = dim(W), concluimos que Im(T ) = W, entonces T
es epimorfismo y vale iii).
iii) ⇒ i): Si T es epimorfismo, entonces Im(T ) = W. Por hipótesis dim(V) = dim(W) entonces,
por el Teorema de la dimensión, tenemos que
dim(Nu(T )) = dim(V) − dim(Im(T )) = dim(V) − dim(W) = 0,
entonces Nu(T ) = {0V } y T también es monomorfismo. Por lo tanto T es isomorfismo y vale i).
Como probamos las implicaciones i) ⇒ ii), ii) ⇒ iii) y iii) ⇒ i), concluimos que, cuando
dim(V) = dim(W), los 3 items son equivalentes. Es decir, T es isomorfismo si y sólo si T es
monomorfismo, si y sólo si T es epimorfismo. 

El siguiente ejemplo muestra que si dim(V) 6= dim(W), el resultado anterior es falso.


Ejemplo 2.b. : Sea T : R3 → R2 la transformación lineal definida por
 
x  
x
T (  y ) = .
y
z
Observar que
1 0 0
    
1 0 0
     
Im(T ) = gen{T ( 0 ), T ( 1 ), T ( 0 )} = gen{ , , } = R2 .
0 1 0
     
0 0 1
Entonces T es epimorfismo. Pero, por el Teorema de la dimensión, dim(Nu(T )) = dim(R3 ) −
dim(Im(T )) = 3 − 2 = 1. Más aún,
0
 

Nu(T ) = gen{  0 }.


1
Entonces T NO es monomorfismo y T NO es isomorfismo.
En el Ejercicio 2.J probamos que si V es un K-espacio vectorial y B = {v1 , v2 , · · · , vn } es una
base de V entonces, la transformación lineal Λ : Kn → V definida por
Λ([x1 x2 · · · xn ]T ) := x1 v1 + x2 v2 + · · · + xn vn
es un isomorfismo, es más, su inversa (que obviamente también es un isomorfismo), es la
transformación lineal Φ : V → Kn , definida por
Φ(v) = [v]B .
Este hecho, nos permite enunciar una propiedad que usaremos durante todo lo que resta de la
materia:

Proposición 2.3.3. Sea V un K-espacio vectorial, B una base de V y {u1 , u2 , · · · , ur } un


conjunto de vectores de V. Entonces

el conjunto {u1 , u2 , · · · , ur } es LI en V si y sólo si {[u1 ]B , [u2 ]B , · · · , [ur ]B } es LI en Kn .

Es decir el conjunto {u1 , u2 , · · · , ur } es LI en V si y sólo si el conjunto de los vectores de


sus coordenadas en cualquier base de V son LI en Kn .

72
2.4. Matriz de una transformación lineal

Dem. Vamos a usar la misma notación del Ejercico 2.J.


Supongamos que {u1 , u2 , · · · , ur } es LI y veamos que {[u1 ]B , [u2 ]B , · · · , [ur ]B } es LI en Kn .
Entonces, sean a1 , a2 , · · · , ar ∈ K tales que

a1 [u1 ]B + a2 [u2 ]B + · · · + ar [ur ]B = 0Kn ,

entonces

0Kn = a1 Φ(u1 ) + a2 Φ(u2 ) + · · · + ar Φ(ur ) = Φ(a1 u1 + a2 u2 + · · · + ar ur ),

donde usamos la definición de Φ y que Φ es una transformación lineal. Entonces,

a1 u1 + a2 u2 + · · · + ar ur ∈ Nu(Φ) = {0V },

donde usamos que Φ es isomorfismo (y por ende monomorfismo). Entonces,

0V = a1 u1 + a2 u2 + · · · + ar ur

y como {u1 , u2 , · · · , ur } es LI (por hipótesis) se sigue que a1 = a2 = · · · = ar = 0 y entonces


{[u1 ]B , [u2 ]B , · · · , [ur ]B } es LI en Kn .
La recíproca se prueba de manera similar y la dejamos como ejercicio, sería buena idea tratar
de ver si les sale probarlo. 
El siguiente ejemplo es una aplicación de este resultado:
Ejemplo 2.c. Demostrar que el conjunto {1 + x + x2 , x + x2 , x2 } es LI en R2 [x].
1


0
Consideremos E 0 = {1, x, x2 } la base canónica de R2 [x], entonces [1 + x + x2 ]E =  1  ,
 1
0 0 1 0 0
        
0 0
[x+x2 ]E =  1  y [x2 ]E =  0  . Entonces, como el conjunto {  1  ,  1  ,  0 } es LI
1 1 1 1 1
en R3 (por ejemplo, si ponen los vectores como filas de una matriz, la matriz queda automáticamente
triangulada sin filas nulas), por la Proposición 2.3.3, concluimos que {1 + x + x2 , x + x2 , x2 } es LI
en R2 [x].

2.4. Matriz de una transformación lineal


Definición. Sean V y W dos K-espacios vectoriales de dimensión finita. Sean B1 = {v1 , v2 , · · · , vn }
una base de V y B2 = {w1 , w2 , · · · , wm } una base de W. Sea T : V → W tal que T ∈ L(V, W). Se
llama matriz de T en las bases B1 y B2 , a la matriz [T ]BB1 ∈ K
2 m×n
definida por

[T ]B
B1 = [ [T (v1 )]
2 B2
[T (v2 )]B2 · · · [T (vn )]B2 ].

Es decir [T ]B
B1 es la matriz que en sus columnas tiene los vectores de coordenadas en base B2
2

de los transformados de los vectores de la base B1 .


A partir de la definición de matriz de una transformación lineal, se deduce la siguiente propiedad,

[T (v)]B2 = [T ]B
B1 [v] , para cada v ∈ V.
2 B1
(2.1)

De hecho, si v ∈ V entonces existen a1 , a2 , · · · , an ∈ K tales que v = a1 v1 + a2 v2 + · · · + an vn .


Entonces, como T es TL, tenemos que T (v) = a1 T (v1 ) + a2 T (v2 ) + · · · + an T (vn ). Entonces, usando
que tomar coordenadas es lineal, lo probamos en la Proposición 1.11.1, tenemos que

[T (v)]B2 = [a1 T (v1 )+a2 T (v2 )+· · ·+an T (vn )]B2 = a1 [T (v1 )]B2 +a2 [T (v2 )]B2 +· · ·+an [T (vn )]B2 =

73
2. Transformaciones Lineales

 
a1
 a2 
= [T ]B 2 
..  = [T ]B
B1 [v] .
2 B1

B1 
 . 
a4

Ejercicio 2.14 a). Sea A ∈ Km×n . Definimos T : Kn → Km , como

T (x) := Ax.

Entonces si E es la base canónica de Kn y F es la base canónica de Km . Tenemos que

[T ]F
E = A.

Dem. Recordemos que la base canónica de Kn es E = {e1 , e2 , · · · , en }, donde ei es el vector de


Kn que tiene 0 en todas sus componentes salvo en el lugar i donde vale 1. Por otra parte, la base
canónica de Km es F = {f1 , f2 , · · · , fm }, donde fi es el vector de Km que tiene 0 en todas sus
componentes salvo en el lugar i donde vale 1.
Recordemos también, que si w ∈ Km entonces [w]F = w, porque F es la base canónica de Km .
Si no se convencen de esto último, hagan la cuenta y les va a salir.
Por último, recordemos que Aei = Ai , donde Ai denota la columna i-ésima de la matriz A. Es
decir, si multiplicamos A por el vector i-ésimo de la base canónica de K n obtenemos la columna
i-ésima de la matriz A.
Entonces, por definición de [T ]F
E , tenemos que

[T ]F
E = [ [T (e1 )] [T (e2 )]
F F
· · · [T (en )]F ] =

= [ [Ae1 ]F [Ae2 ]F · · · [Aen ]F ] = [ Ae1 Ae2 · · · Aen ] = [A1 A2 · · · An ] = A

y probamos lo que queríamos. 

Ejercicio 2.14 c). Sea T : R3 [x] → R4 , la transformación lineal definida por

T (p) := [p(0) p(1) p(10) p(100)]T .

Hallar [T ]E
E 0 , donde E es la base canónica de R3 [x] y E la base canónica de R .
0 4

Dem. Recordar que  E = {1, x, x, x } yE = {[1 0


0 2 3
0 0]T , [0
 1 0 0] , [0
T
01 0]T ,[0 0 0 1]T }.
1 0 0 0

 1   1   1   1 
Además, T (1) =   1  , T (x) =  10  , T (x ) =
   2
 102  y T (x ) =
  3
 103  . Entonces,
 

1 100 104 106


por definición de [T ]E
E0 , tenemos que

[T ]E
E 0 = [ [T (1)] [T (x)] [T (x )] [T (x )] ] =
E E 2 E 3 E

1 0 0 0 1 0 0 0
         
 1 E  1  1 E  1  1 1 1 1 
=[[
 1 ] [  10
] [
 102 ] [  103
] ] = 
E E
.
 1 10 102 103 
   
 
1 100 104 106 1 100 104 106


El siguiente resultado lo usaremos ampliamente cuando trabajemos con una matriz de una
transformación lineal.

74
2.4. Matriz de una transformación lineal

Proposición 2.4.1. Sean V y W dos K-espacios vectoriales de dimensión finita. Sean B1


una base de V y B2 una base de W. Sea T : V → W tal que T ∈ L(V, W). Entonces,

v ∈ Nu(T ) si y sólo si [v]B1 ∈ nul([T ]B


B1 ).
2

w ∈ Im(T ) si y sólo si [w]B2 ∈ col([T ]B


B1 ).
2

Dem. Supongamos que B1 = {v1 , v2 , · · · , vn } es una base de V y B2 = {w1 , w2 , · · · , wm } es una


base de W.
Primero, veamos que v ∈ Nu(T ) si y sólo si [v]B1 ∈ nul([T ]BB1 ). Supongamos que v ∈ Nu(T ),
2

entonces T (v) = 0W y por la ecuación (2.1), tenemos que

[T ]B
B1 [v]
2 B1
= [T (v)]B2 = [0W ]B2 = 0Km

y entonces [v]B1 ∈ nul([T ]B


B1 ). Recíprocamente, si [v]
2 B1
∈ nul([T ]B
B1 ), de nuevo por la ecuación
2

(2.1), tenemos que


0Km = [T ]B
B1 [v]
2 B1
= [T (v)]B2 .
Entonces T (v) = 0W y v ∈ Nu(T ).
Por último, veamos que w ∈ Im(T ) si y sólo si [w]B2 ∈ col([T ]B
B1 ). Supongamos que w ∈ Im(T ),
2

entonces existe z ∈ V tal que w = T (z), entonces por la ecuación (2.1), tenemos que

[w]B2 = [T (z)]B2 = [T ]B
B1 [z] .
2 B1

Por lo tanto [w]B2 ∈ col([T ]B


B1 ).
2

Finalmente si [w] ∈ col([T ]B


B2
B1 ), entonces existe x = [x1 x2 · · · xn ] ∈ K tal que
2 T n

[w]B2 = [T ]B
B1 x.
2

Sea z := x1 v1 + x2 v2 + · · · + xn vn ∈ V, entonces [z]B = x y, nuevamente por la ecuación (2.1),


tenemos que
[w]B2 = [T ]B
B1 x = [T ]B1 [z]
2 B2 B1
= [T (z)]B2 .
Entonces, usando que tomar coordenadas es lineal, nos queda que [T (z) − w]B2 = 0Km . Por lo tanto
T (z) = w y w ∈ Im(T ). 

Corolario 2.4.2. Sean V y W dos K-espacios vectoriales de dimensión finita. Sean B1 una base de
V y B2 una base de W. Sea T : V → W tal que T ∈ L(V, W). Entonces,

{[x1 ]B1 , [x2 ]B1 , · · · , [xr ]B1 } es una base de nul([T ]B


B1 ) si y sólo si {x1 , x2 , · · · , xr } es una base
2

de Nu(T ).

dim(Nu(T )) = dim(nul([T ]B
B1 )).
2

{[y1 ]B2 , [y2 ]B2 , · · · , [yt ]B2 } es una base de col([T ]B


B1 ) si y sólo si {y1 , y2 , · · · , yt } es una base
2

de Im(T ).

dim(Im(T )) = dim(col([T ]B
B1 )).
2

Dem. Se puede demostrar usando la Proposición 2.4.1 y la Proposición 2.3.3. 


Usando el resultado anterior, podemos demostrar el próximo ejercicio.
Ejercicio 2.13. Sean V y W dos K-espacios vectoriales de dimensión finita. Sean B una base de V
y C una base de W. Sea T : V → W tal que T ∈ L(V, W) y [T ]C B la matriz de T respecto de las
bases B y C. Demostrar que

75
2. Transformaciones Lineales

a) T es monomorfismo si y sólo si, nul([T ]C


B ) = {0}.

b) T es epimorfismo si y sólo si, col([T ]C


B) = K
dim(W)
.
c) T es isomorfismo si y sólo si, dim(V) = dim(W) y [T ]C
B es inversible.

Dem. a): Por la Proposición 2.3.1, T es monomorfismo si y sólo si Nu(T ) = {0V }, si y sólo si
0 = dim(Nu(T )) = dim(nul([T ]C B )) (ver Corolario 2.4.2), si y sólo si nul([T ]B ) = {0}.
C

b): Por definición, T es epimorfismo si y sólo si Im(T ) = W, si y sólo si dim(W) = dim(Im(T )),
donde usamos que siempre vale que Im(T ) ⊆ W y la propiedad de que dos subespacios son iguales
si tienen misma dimensión y uno está contenido en el otro. Por el Corolario 2.4.2), tenemos que
dim(col([T ]C
B ) = dim(Im(T )) = dim(W) = dim(K
dim(W)
), si y sólo si col([T ]C
B) = K
dim(W)
, donde
usamos nuevamente que siempre vale que col([T ]B ) ⊆ K
C dim(W)
y la propiedad de que dos subespacios
son iguales si tienen misma dimensión y uno está contenido en el otro.
c) : Nota: La frase “dim(V) = dim(W)” se agregó explícitamente porque sino la vuelta del
ítem c) podría no ser cierta. Si dim(V) 6= dim(W) entonces la frase “[T ]C B es inversible” no tiene
sentido ya que para que esté definida la inversa de una matriz, esa matriz en principio, tiene que
ser cuadrada (misma cantidad de filas que de columnas).
Supongamos que T es isomorfismo veamos que [T ]C B es inversible.
Recordemos que si T es isomorfismo, entonces dim(V) = dim(W) =: n (lo probamos en la
Proposición 2.3.1). Por lo tanto [T ]C B ∈ K
n×n
. Por otra parte, si T es isomorfismo entonces T
es epimorfismo entonces, por el item b), tenemos que dim(col([T ]C B )) = rg([T ]B ) = dim(W) = n.
C

Entonces, [T ]B es una matriz de n × n y de rango completo, por lo tanto es inversible.


C

Recíprocamente, supongamos que dim(V) = dim(W) = n y que [T ]C B ∈ K


n×n
es inversible.
Entonces dim(col([T ]B )) = rg([T ]B ) = n, por lo tanto col([T ]B ) = K y por el item b) tenemos
C C C n

que T es epimorfismo. Por otra parte, como dim(V) = dim(W) ya vimos en la Proposición 2.3.1
que si T es epimorfismo entonces T es isomorfismo y probamos lo que queríamos. 

Ejercicio 2.15. Sea T ∈ L(R2 [x], R3 ) la transformación lineal definida por


1 0 1
 

[T ]C
B =
 0 1 1 .
1 0 1
Donde B = {1 + x2 , 1 + x, x + x2 } y C = {[1 1 0]T , [1 0 1]T , [0 1 1]T }. Hallar T −1 ([1 0 1]T ).

Dem. Notar que p ∈ T −1 ([1 0 1]T ) si y sólo si T (p) = [1 0 1]T . Es decir, buscamos todas las
soluciones de esa ecuación. Tenemos como dato la matriz [T ]C B y las bases B y C correspondientes.
Entonces, recordemos que
[T (p)]C = [[1 0 1]T ]C = [T ]C
B [p] .
B

Haciendo cuentas, se ve que [[1 0 1]T ]C = [0 1 0]T . Llamemos z = [z1 z2 z3 ]T := [p]B y


resolvamos el sistema que nos queda:
0 1 0 1
   
1 = [[1 0 1]T ]C = [T ]C
B [p] = 0 1 1 z.
B  
0 1 0 1
Todas las soluciones de dicho sistema son
 
−z3
z = 1 − z3  con z3 ∈ R.
z3
Para no confundir, vamos a llamar α := z3 ∈ R. Por lo tanto, las soluciones de dicho sistema nos
quedan  
−α
z = 1 − α con α ∈ R.
α

76
2.4. Matriz de una transformación lineal

Pero z = [p]B . Entonces


p(x) = −α(1 + x2 ) + (1 − α)(1 + x) + α(x + x2 ) = (1 + x) + α(−2), con α ∈ R.
Por lo tanto, p ∈ T −1 ([1 0 1]T ) si y sólo si p(x) = (1 + x) + α(−2), con α ∈ R. 

El siguiente resultado lo usaremos para resolver el Ejercicio 2.18.


Proposición 2.4.3. Sean V, W, Z tres K-espacios vectoriales de dimensión finita y B, C y D bases
de los espacios V, W y Z respectivamente. Sean T ∈ L(V, W) y S ∈ L(W, Z). Entonces
i) [S ◦ T ]D
B = [S]C [T ]B .
D C

ii) Si dim(V ) = dim(W) y T es un isomorfimo, entonces


[T −1 ]B
C = ([T ]B )
C −1
.

Dem. i) : En primer lugar, observar que S ◦ T ∈ L(V, Z). Sea v ∈ V, entonces aplicando la ecuación
(2.1), tenemos por un lado que
[S(T (v))]D = [S]D
C [T (v)]
C

y, por otro lado,


[S ◦ T (v)]D = [S ◦ T ]D
B [v] .
B

Como S ◦ T (v) = S(T (v)), juntando todo lo anterior se sigue que


[S ◦ T ]D
B [v] = [S ◦ T (v)] = [S(T (v))] = [S]C [T (v)] .
B D D D C

Aplicando nuevamente la ecuación (2.1), tenemos que [T (v)]C = [T ]C


B [v] y volviendo a la ecuación
B

anterior,
[S ◦ T ]D
B [v] = [S]C [T (v)] = [S]C [T ]B [v] .
B D C D C B

Es decir, tenemos que [S ◦ T ]D


B [v] = [S]C [T ]B [v] , para todo v ∈ V.
B D C B

Recordemos que si dos matrices A y B son tales que A[v]B = B[v]B para todo v ∈ V entonces
A = B. Por lo tanto, usando eso, concluimos que
[S ◦ T ]D
B = [S]C [T ]B
D C

y demostramos lo que queríamos.


ii) : Supongamos que dim(V) = dim(W) =: n y T es un isomorfismo; por un lado, sabemos
que eso implica que T es inversible, es decir existe T −1 : W → V y además probamos que
T −1 ∈ L(W, V). Por otra parte, en el Ejercicio 2.13 c), probamos que si dim(V) = dim(W) = n
y T es un isomorfismo entonces [T ]CB es inversible. Veamos que [T
−1 B
]C = ([T ]CB)
−1
.
Como T −1
es la inversa de T, tenemos que T ◦ T = IW y T ◦ T = IV .
−1 −1

Observar que [IV ]BB = In×n y [IW ]C = In×n , donde In×n denota la matriz identidad de n × n. Si
C

no están convencidos de esa igualdad, observar que si B = {v1 , v2 , · · · , vn } entonces, por definición,
tenemos que
[IV ]B
B = [[IV (v1 )] [IV (v2 )]
B B
· · · [IV (vn )]B ] = [[v1 ]B [v2 ]B · · · [vn ]B ] = In×n .
De manera similar, se prueba que [IW ]C
C = In×n .
Entonces, usando el item i), tenemos que
In×n = [IW ]C
C = [T ◦ T ]C = [T ]C
−1 C
B [T ]C y
−1 B

In×n = [IV ]B
B = [T
−1
◦ T ]B
B = [T ]C [T ]C
−1 B
B.
Entonces, probamos que [T ]C
B [T ]C = [T −1 ]B
−1 B
C [T ]B = In×n . Por lo tanto, la inversa de [T ]B es
C C

[T ]C , es decir
−1 B

[T −1 ]B
C = ([T ]B )
C −1
.


77
2. Transformaciones Lineales

Ejercicio 2.18. Sea T1 ∈ L(R3 ) la TL definida en el Ejercicio 2.10 y T2 ∈ L(R3 , R2 ) la TL


definida por  
a
T2 ( b ) := (a + b) + (a + c)x + (b + c)x2 .
c

a) Hallar las matrices de T1 , T2 y T2−1 en las bases canónicas que correspondan.

b) Hallar la matriz de T1 ◦ T2−1 en las bases canónicas que correspondan y hallar base de
Nu(T1 ◦ T2−1 ) (usando dicha matriz).

Dem. Sean B = {[1 1 1]T , [1 − 1 0]T , [0 0 1]T } y E = {[1 0 0]T , [0 1 0]T , [0 0 1]T } la base canónica
de R3 . Es inmediato ver que

1 −3 2
 

[T1 ]E
B = [ [T1 ([1 1 1] )] [T1 ([1 − 1 0] )] [T1 ([0 0 1] )] ] =
T E T E T E  −3
2
9
2 −3  .
2 −6 4

El ejercicio, nos pide [T1 ]E


E . Observar que, por la ecuación (2.1), por un lado vale que

[T1 (v)]E = [T1 ]E


B [v]
B

y por el otro lado


[T1 (v)]E = [T1 ]E
E [v] .
E

Por otra parte, recordemos que


[v]B = [M ]B
E [v] ,
E

donde [M ]B
E es la matriz de cambio de base de E a B. Entonces, volviendo a la ecuación anterior,
tenemos que
[T1 ]E
E [v] = [T1 (v)] = [T1 ]B [v] = [T1 ]B [M ]E [v] .
E E E B E B E

Es decir, [T1 ]E
E [v] = [T1 ]B [M ]E [v] , para todo v ∈ V. Entonces (como la igualdad anterior vale
E E B E

para todo v ∈ V) concluimos que


[T1 ]E
E = [T1 ]B [M ]E .
E B

1 1 0
 

Observar que [M ]E B =
 1 −1 0  . Entonces, tal como vimos en el Ejercicio 1.P tenemos
0 0 1
0
 1 1

2 2
[M ]B
E = ([M ]B )
E −1
=  12 − 12 0  . Entonces,
0 0 1

1 2 0 2 2
   1 1
  
−3 2 2 −1
[T1 ]E
E = [T1 ]B
E
[M ]B
E =  − 3
2
9
2 −3   21 − 21 0  =  32 −3 −3  .
2 −6 4 0 0 1 −2 4 4

Por último, si E 0 = {1, x, x2 } es la base canónica de R2 [x] entonces


0 0 0 0
[T2 ]E
E = [ [T2 ([1 0 0] )]
T E
[T2 ([0 1 0]T )]E [T2 ([0 0 1]T )]E ] =
1 1 0
 
0 0 0
= [ [1 + x]E [1 + x2 ]E [x + x2 ]E ] =  1 0 1 .
0 1 1
Aplicando lo que probamos en la Proposición 2.4.3, tenemos que
0
[T1 ◦ T2−1 ]E E −1 E
E 0 = [T1 ]E [T2 ]E 0 = [T1 ]E ([T2 ]E )
E E −1
.

78
2.5. Proyectores y simetrías

1 1
 
−1
0
Como ([T2 ]E
E )
−1
= 1  1 −1 1  . Concluimos que
2
−1 1 1
0
[T1 ◦ T2−1 ]E
E 0 = [T1 ]E ([T2 ]E )
E E −1
=

2 2 1 1 −1
 1
− 21 5
    
−1 −2
1  2
= 3
−3 −3   1 −1 1  =  43 3
− 15 .
2 2 4 4
−2 4 4 −1 1 1 −1 −1 5
Finalmente, vamos a hallar una base de Nu(T1 ◦ T2−1 ). En la Proposición 2.4.1 probamos que
0
v ∈ Nu(T1 ◦ T2−1 ) si y sólo si [v]E ∈ nul([T1 ◦ T2−1 ]E
E 0 ).
Resolviendo el sistema homogéneo asociado a la matriz [T1 ◦ T2−1 ]E
E 0 , es fácil ver que

nul([T1 ◦ T2−1 ]E
E 0 ) = gen{[−1 1 0] , [5 0 1] }.
T T

Por la misma proposición, tenemos que p(x) := −1 · 1 + 1 · x = −1 + x ∈ Nu(T1 ◦ T2−1 )


y q(x) := 5 · 1 + 1 · x2 = 5 + x2 ∈ Nu(T1 ◦ T2−1 ). Por el Corolario 2.4.2, tenemos que
dim(Nu(T1 ◦ T2−1 )) = dim(nul([T1 ◦ T2−1 ]E
E 0 )) = 2.
Por lo tanto,
Nu(T1 ◦ T2−1 ) = gen{−1 + x, 5 + x2 }
y una base de Nu(T1 ◦ T2−1 ) puede ser BNu(T1 ◦T −1 ) = {−1 + x, 5 + x2 }. 
2

2.5. Proyectores y simetrías

Sea V un K-espacio vectorial y S1 , S2 dos subespacios complementarios de V, es decir

V = S1 ⊕ S2 .

Entonces, a cada v ∈ V le corresponden únicos v1 ∈ S1 , v2 ∈ S2 tales que

v = v1 + v2 .

La proyección de V sobre S1 en la dirección de S2 , denotada por ΠS1 ,S2 , es la transformación


lineal de V en V definida por
ΠS1 ,S2 (v) := v1 .

Antes de resolver el Ejercicio 2.19, veamos un ejemplo.


1 0 0
     

Ejemplo 2.d. En R3 , sean S1 := gen{  1 } y S2 := gen{  1  ,  0 }. Claramente,


1 1 1

S1 ⊕ S2 = R3

1 0 0
     

y, B = {  1  ,  1  ,  0 } es una base de R3 . Consideremos la transformación lineal


1 1 1
T : R3 → R3 , definida en la base B como

1 1 0 0 0 0
           

T (  1 ) =  1  , T (  1 ) =  0  , T (  0 ) =  0  .
1 1 1 0 1 0

79
2. Transformaciones Lineales

Entonces, T = ΠS1 , es la proyección de R


S2  sobre S1 en la dirección
3
 de 
S2 . 
1 0 0

Observar que Im(T ) = S1 = gen{  1 } y Nu(T ) = S2 = gen{  1  ,  0 }.


1 1 1
Ejercicio 2.19.
a) Explicar por qué ΠS1 , S2 es la única TL de V en V tal que ΠS1 , S2 (v) = v si v ∈ S1 y
ΠS1 , S2 (v) = 0V , si v ∈ S2 . Comprobar que

Im(ΠS1 , S2 ) ⊕ Nu(ΠS1 , S2 ) = V.

b) Demostrar que ΠS1 , S2 es idempotente, es decir, Π2S1 , S2 = ΠS1 , S2 .

c) Observar que ΠS1 , S2 + ΠS2 , S1 = IV , o lo que es lo mismo, ΠS2 , S1 = IV − ΠS1 , S2 .

Dem. a) : Primero veamos que ΠS1 , S2 está bien definida y es una TL.
Para ver qué está bien definida, basta ver que a todo elemento del dominio de ΠS1 , S2 (que es
V) le corresponde un único elemento del espacio de llegada (que también es V). De hecho, como

V = S1 ⊕ S2

a cada v ∈ V le corresponden únicos v1 ∈ S1 , v2 ∈ S2 tales que v = v1 + v2 . Como ΠS1 , S2 (v) = v1 ,


efectivamente ΠS1 , S2 está bien definida.
Veamos que ΠS1 , S2 es una TL. Sean v, w ∈ V y α ∈ K, entonces existen únicos v1 , w1 ∈ S1 y
v2 , w2 ∈ S2 tales que v = v1 + v2 y w = w1 + w2 . Entonces, por un lado, por definición de ΠS1 , S2 ,
tenemos que ΠS1 , S2 (v) = v1 y ΠS1 , S2 (w) = w1 . Por otro lado, observar que

v + w = v1 + v2 + w1 + w2 = (v1 + w1 ) + (w1 + w2 ), (2.2)

además, v1 + w1 ∈ S1 (porque S1 es un subespacio) y v2 + w2 ∈ S2 (porque S2 es un subespacio).


Entonces (2.2) es la (única) descomposición del vector v + w como suma de elementos de S1 y S2 .
Por lo tanto
ΠS1 , S2 (v + w) = v1 + w1 = ΠS1 , S2 (v) + ΠS1 , S2 (w).
De manera similar se prueba que ΠS1 , S2 (αv) = αΠS1 , S2 (v) y entonces, probamos que ΠS1 , S2 es
una transformación lineal.
Veamos que ΠS1 , S2 es la única TL que cumple con lo que dice el item a).
Primero, observar que ΠS1 , S2 efectivamente cumple lo que dice el item a). Es decir que
ΠS1 , S2 (v) = v si v ∈ S1 y ΠS1 , S2 (v) = 0V , si v ∈ S2 .
De hecho, si v ∈ S1 , como v = v + 0V y 0V ∈ S2 (pues S2 es un subespacio), esa es la única
descomposición de v como como suma de elementos de S1 y S2 . Entonces, por definición de ΠS1 , S2 ,
tenemos que ΠS1 , S2 (v) = v. De esa manera, si v ∈ S2 , entonces v = 0V + v, 0V ∈ S1 (pues S1 es
un subespacio) y esa descomposición es única. Entonces, por definición de ΠS1 , S2 , tenemos que
ΠS1 , S2 (v) = 0V .
Finalmente, supongamos que existe T ∈ L(V) tal que T (v) = v, si v ∈ S1 y T (v) = 0V , si
v ∈ S2 . Veamos que T = ΠS1 , S2 .
De hecho, dado v ∈ V, existen únicos v1 ∈ S1 , v2 ∈ S2 tales que

v = v1 + v2 .

Entonces, como v1 ∈ S1 , tenemos que T (v1 ) = v1 y como v2 ∈ S2 , tenemos que T (v2 ) = 0V . Además,
por definición de ΠS1 , S2 , tenemos que ΠS1 , S2 (v) = v1 . Entonces

T (v) = T (v1 + v2 ) = T (v1 ) + T (v2 ) = v1 + 0V = v1 = ΠS1 , S2 (v).

Como esa igualdad vale para cualquier v ∈ V, concluimos que T = ΠS1 , S2 .

80
2.5. Proyectores y simetrías

Por último, veamos que


Im(ΠS1 , S2 ) ⊕ Nu(ΠS1 , S2 ) = V.
En primer lugar, veamos que Im(ΠS1 , S2 ) = S1 y que Nu(ΠS1 , S2 ) = S2 , probando la doble
inclusión.
Veamos que Im(ΠS1 , S2 ) = S1 . Si w ∈ Im(ΠS1 , S2 ), entonces existe v ∈ V tal que ΠS1 , S2 (v) = w.
Como v ∈ V existen únicos v1 ∈ S1 , v2 ∈ S2 tales que v = v1 + v2 y w = ΠS1 , S2 (v) = v1 , entonces
w = v1 ∈ S1 y vale que Im(ΠS1 , S2 ) ⊆ S1 . Recíprocamente, si v ∈ S1 , acabamos de ver que
ΠS1 , S2 (v) = v, entonces v ∈ Im(ΠS1 , S2 ) y probamos que S1 ⊆ Im(ΠS1 , S2 ). Como probamos la
doble inclusión, se sigue que Im(ΠS1 , S2 ) = S1 .
Ahora veamos que Nu(ΠS1 , S2 ) = S2 . Si v ∈ Nu(ΠS1 , S2 ), entonces ΠS1 , S2 (v) = 0V . Como
v ∈ V existen únicos v1 ∈ S1 , v2 ∈ S2 tales que v = v1 + v2 y 0V = ΠS1 , S2 (v) = v1 , entonces
v = v1 + v2 = 0V + v2 = v2 ∈ S2 y vale que Nu(ΠS1 , S2 ) ⊆ S2 . Recíprocamente, si v ∈ S2 , acabamos
de ver que ΠS1 , S2 (v) = 0V , entonces v ∈ Nu(ΠS1 , S2 ) y probamos que S2 ⊆ Nu(ΠS1 , S2 ). Como
probamos la doble inclusión, se sigue que Nu(ΠS1 , S2 ) = S2 .
Usando que V = S1 ⊕ S2 , concluimos que Im(ΠS1 , S2 ) ⊕ Nu(ΠS1 , S2 ) = V.
b) : Recordar que Π2S1 , S2 := ΠS1 , S2 ◦ ΠS1 , S2 . Como tenemos que probar una igualdad de TL,
basta ver que la igualdad vale para cada v ∈ V.
Sea v ∈ V, entonces existen únicos v1 ∈ S1 , v2 ∈ S2 tales que v = v1 + v2 y por definición
de ΠS1 , S2 , tenemos que ΠS1 , S2 (v) = v1 . Ahora, como v1 ∈ S1 , vimos en el item a) que
ΠS1 , S2 (v1 ) = v1 . Juntando todo esto, nos queda que

Π2S1 , S2 (v) = ΠS1 , S2 (ΠS1 , S2 (v)) = ΠS1 , S2 (v1 ) = v1 = ΠS1 , S2 (v).

Como la igualdad anterior vale para todo v ∈ V, concluimos que Π2S1 , S2 = ΠS1 , S2 .
c) : Como tenemos que probar una igualdad de TL, basta ver que la igualdad vale para cada
v ∈ V. Sea v ∈ V, entonces existen únicos v1 ∈ S1 , v2 ∈ S2 tales que v = v1 + v2 y por definición
de ΠS1 , S2 y ΠS2 , S1 , tenemos que ΠS1 , S2 (v) = v1 y ΠS2 , S1 (v) = v2 . Entonces

[ΠS1 , S2 + ΠS2 , S1 ](v) = ΠS1 , S2 (v) + ΠS2 , S1 (v) = v1 + v2 = v = IV (v).

Como la igualdad anterior vale para todo v ∈ V, concluimos que ΠS1 , S2 + ΠS2 , S1 = IV . 
Antes de seguir con el Ejercicio 2.19 d), e) veamos una definición que usaremos a continuación.

Sea V un K-espacio vectorial y S1 , S2 dos subespacios complementarios de V, es decir

V = S1 ⊕ S2 .

La simetría de V respecto de S1 en la dirección S2 , denotada por ΣS1 , S2 , es la transformación


lineal de V en V definida por

ΣS1 , S2 := IV − 2ΠS2 , S1 .

Ejercicio 2.19 d), e).

d) Mostrar que ΣS1 , S2 es la única transformación lineal de V en V tal que ΣS1 , S2 (v) = v, si
v ∈ S1 y ΣS1 , S2 (v) = −v, si v ∈ S2 .

e) Probar que Σ2S1 , S2 = IV .

Dem. d) : Se deja como ejercicio ver que ΣS1 , S2 está bien definida y que es una TL.
Veamos que efectivamente ΣS1 , S2 (v) = v, si v ∈ S1 , y ΣS1 , S2 (v) = −v, si v ∈ S2 .
Ya vimos que si v ∈ S1 entonces ΠS2 , S1 (v) = 0V y si v ∈ S2 entonces ΠS2 , S1 (v) = v. Por lo
tanto, si v ∈ S1 ,
ΣS1 , S2 (v) = IV (v) − 2 ΠS2 , S1 (v) = v − 2 0V = v.

81
2. Transformaciones Lineales

Finalmente, si v ∈ S2 ,

ΣS1 , S2 (v) = IV (v) − 2ΠS2 , S1 (v) = v − 2v = −v.

Y probamos lo que queríamos.


Por último, supongamos que existe S ∈ L(V) tal que S(v) = v, si v ∈ S1 y S(v) = −v, si v ∈ S2 .
Veamos que T = ΣS1 , S2 .
De hecho, dado v ∈ V, existen únicos v1 ∈ S1 , v2 ∈ S2 tales que v = v1 + v2 . Entonces, como
v1 ∈ S1 , tenemos que S(v1 ) = v1 y como v2 ∈ S2 , tenemos que S(v2 ) = −v2 . Además, por definición
de ΣS1 , S2 , tenemos que

ΣS1 , S2 (v) = v − 2ΠS2 , S1 (v) = v1 + v2 − 2v2 = v1 − v2 .

Entonces
S(v) = S(v1 + v2 ) = S(v1 ) + S(v2 ) = v1 − v2 = ΣS1 , S2 (v).

Como esa igualdad vale para cualquier v ∈ V, concluimos que S = ΣS1 , S2 .


e) : Sea v ∈ V, entonces existen únicos v1 ∈ S1 , v2 ∈ S2 tales que v = v1 + v2 y por definición
de ΣS1 , S2 , tenemos que

ΣS1 , S2 (v) = v − 2ΠS2 , S1 (v) = v1 + v2 − 2v2 = v1 − v2 .

Ahora, como v1 ∈ S1 , vimos en el item d) que ΣS1 , S2 (v1 ) = v1 y como v2 ∈ S2 , vimos en el item d)
que ΣS1 , S2 (v2 ) = −v2 . Juntando todo esto, nos queda que

Σ2S1 , S2 (v) = ΣS1 , S2 (ΣS1 , S2 (v)) = ΣS1 , S2 (v1 − v2 ) = ΣS1 , S2 (v1 ) − ΣS1 , S2 (v2 ) =

= v1 − (−v2 ) = v1 + v2 = v = IV (v).
Como la igualdad anterior vale para todo v ∈ V, concluimos que Σ2S1 , S2 = IV . 

La siguiente propiedad la usaremos para probar el Ejercicio 2.20.

Proposición 2.5.1. Sea V un K-espacio vectorial de dimensión n y S1 , S2 dos subespacios


complementarios de V, es decir
V = S1 ⊕ S2 .
Supongamos que dim(S1 ) = r y B = {v1 , · · · , vr , vr+1 , · · · , vn } es una base de V donde
{v1 , v2 , · · · , vr } es una base de S1 y {vr+1 , · · · , vn } es una base de S2 . Entonces

0r×n−r
 
Ir×r
[ΠS1 , S2 ]B =
B
.
0n−r×r 0n−r×n−r

0r×n−r
 
Ir×r
[ΣS1 , S2 ]B
B
= .
0n−r×r −In−r×n−r
Donde Ir×r denota la matriz identidad de r × r, 0r×n−r la matriz nula de r × n − r, etc.

Dem. En el ejercicio anterior, vimos que ΠS1 , S2 (v) = v si v ∈ S1 y ΠS1 , S2 (v) = 0V , si v ∈ S2 .


Entonces

ΠS1 , S2 (vi ) = vi , para todo i = 1, 2, · · · , r y ΠS1 , S2 (vi ) = 0V para todo i = r + 1, r + 2, · · · , n.

Recordemos además que [vi ]B = ei , donde ei es el vector i-ésimo de la base canónica de Kn , es


decir el vector de Kn con todas componentes nulas excepto en el lugar i donde vale 1. Por ejemplo,

[v1 ]B = [1 0 · · · 0]T = e1 .

82
2.5. Proyectores y simetrías

Por lo tanto, por definición de [ΠS1 , S2 ]B ,


B
tenemos que

[ΠS1 , S2 ]B
B

= [ [ΠS1 , S2 (v1 )]
B
[ΠS1 , S2 (v2 )]
B
· · · [ΠS1 , S2 (vr )]
B
[ΠS1 , S2 (vr+1 )]
B
· · · [ΠS1 , S2 (vn )]
B
]
= [ [v1 ] [v2 ] · · · [vr ] [0V ] · · · [0V ]
B B B B
] = [ e1 e2 · · · er 0Kn · · · 0Kn ]
0r×n−r
 
Ir×r
= .
0n−r×r 0n−r×n−r

De la misma manera, en el ejercicio anterior, vimos que ΣS1 , S2 (v) = v si v ∈ S1 y


ΣS1 , S2 (v) = −v, si v ∈ S2 .
Entonces ΣS1 , S2 (vi ) = vi , para todo i = 1, 2, · · · , r y ΣS1 , S2 (vi ) = −vi para todo
i = r + 1, r + 2, · · · , n. Por lo tanto, por definición de [ΣS1 , S2 ]B
B , tenemos que

[ΣS1 , S2 ]B
B

= [ [ΣS1 , S2 (v1 )]
B
[ΣS1 , S2 (v2 )]
B
· · · [ΣS1 , S2 (vr )]
B
[ΣS1 , S2 (vr+1 )]
B
· · · [ΣS1 , S2 (vn )]
B
]
= [ [v1 ] [v2 ] · · · [vr ] [−vr+1 ]
B B B
· · · [−vn ] B
] = [ e1 e2 · · · er − er+1 · · · − en ]
0r×n−r
 
Ir×r
= .
0n−r×r −In−r×n−r

Ejercicio 2.20. Sean V un R-espacio vectorial de dimensión 3, B = {v1 , v2 , v3 } una base de V, S1


y S2 los subespacios de V definidos por S1 = gen{v1 − 2v2 , v1 + v3 } y S2 = gen{v2 − v3 }.
a) Comprobar que V = S1 ⊕ S2 .
b) Hallar las matrices con respecto a la base B de las proyecciones y simetrías inducidas por la
partición V = S1 ⊕ S2 .

Dem. a) : Observar que S1 ∩ S2 = {0V }. De hecho, si w ∈ S1 ∩ S2 entonces w ∈ S1 y existen


α, β ∈ R tales que w = α(v1 − 2v2 ) + β(v1 + v3 ) y w ∈ S2 y entonces existe γ ∈ R tal que
w = γ(v2 − v3 ). Entonces

α(v1 − 2v2 ) + β(v1 + v3 ) − γ(v2 − v3 ) = w − w = 0V .

Operando y sacando factor común, nos queda que

v1 (α + β) + v2 (−2α − γ) + v3 (β + γ) = 0V .

Como {v1 , v2 , v3 } una base de V, y tenemos una CL de dichos vectores igualada al elemento neutro
de V, se sigue que
α + β = −2α − γ = β + γ = 0.
Entonces, resolviendo el sistema, es claro que α = β = γ = 0, por lo tanto
 w = 0V y S1 ∩ S2 = {0V}.
1 0
Notar que dim(S2 ) = 1 y dim(S1 ) = 2. De hecho, [v1 − 2v2 ]B = −2 y [v2 − v3 ]B =  1  ,
0 −1
1 0
   

entonces como los vectores −2 y  1  son LI en R3 , por la Proposición 2.3.3, {v1 − 2v2 , v1 + v3 }
0 −1
es un conjunto LI de V y entonces dim(S1 ) = 2.
Por otra parte, es claro que S1 ⊕ S2 ⊆ V y, por el Teorema de la dimensión para la suma de
subespacios, se sigue que

dim(S1 ⊕ S2 ) = dim(S1 ) + dim(S2 ) − dim(S1 ∩ S2 ) = 2 + 1 − 0 = 3 = dim(V).

83
2. Transformaciones Lineales

Por lo tanto, S1 ⊕ S2 = V.
b) : Llamemos B 0 := {v1 − 2v2 , v1 + v3 , v2 − v3 }. Por a), B 0 es una base de V. Además, por la
Proposición 2.5.1,
1 0 0
 
0
B0 = 0 1
[ΠS1 , S2 ]B 0 .

0 0 0
Entonces, aplicando los cambios de bases correspondientes, se sigue que
B0 B0 B0
[ΠS1 , S2 ]B
B
= [M ]B
B 0 [ΠS1 , S2 ]B 0 [M ]B = [M ]B
B 0 [ΠS1 , S2 ]B 0 ([M ]B 0 )
B −1
,

donde
1 1 0
 

[M ]B
B0 = −2 0 1
0 1 −1
es la matriz de cambio de base de B 0 a B. Por lo tanto
0
[ΠS1 , S2 ]B
B
= [M ]B
B 0 [ΠS1 , S2 ]B 0 ([M ]B 0 )
B B −1

1 1 0 1 0 0 1
     
−1 −1
1
= −2 0 1  0 1 0 2 1 1
3
0 1 −1 0 0 0 2 1 −2
3 0 0
 
1
= −2 2 2 .
3
2 1 1

Asímismo, por la Proposición 2.5.1,

1 0 0
 
0
[ΣS1 , S2 ]B
B0 = 0
 1 0 .
0 0 −1

Entonces, aplicando los cambios de bases correspondientes, se sigue que


B0 B0 B0
[ΣS1 , S2 ]B
B
= [M ]B
B 0 [ΣS1 , S2 ]B 0 [M ]B = [M ]B
B 0 [ΣS1 , S2 ]B 0 ([M ]B 0 )
B −1
.

Por lo tanto
0
[ΣS1 , S2 ]B
B
= [M ]B
B 0 [ΣS1 , S2 ]B 0 ([M ]B 0 )
B B −1

1 1 0 1 0 0 1
     
−1 −1
1
= −2 0 1  0 1 0  2 1 1
3
0 1 −1 0 0 −1 2 1 −2
3 0 0
 
1
= −4 1 4  .
3
4 2 −1

Ejercicio 2.K. En cada uno de los siguientes casos, hallar la matriz respecto de la base canónica de
las transformaciones lineales indicadas:
1 1 0
     

La proyección de R3 sobre el plano gen{  1  ,  1 } en la dirección, gen{  1 }.


1 0 2

La simetría de R2 [x] con respecto a gen{1, x} en la dirección gen{1 + x + x2 }.

84
2.5. Proyectores y simetrías

1 1
   

Dem. Con la notación de la definición de ΠS1 , S2 , tenemos que S1 = gen{  1  ,  1 } y


1  0
0 1 1 0
     

S2 = gen{  1 }. Observar que como R3 = S1 ⊕ S2 , tenemos que B := {  1  ,  1  ,  1 }


2 1 0 2
es una base de R3 . Entonces, por la Proposición 2.5.1, se sigue que

1 0 0
 
I2×2 02×1
 
[ΠS1 , S2 ]B
B = =  0 1 0 .
01×2 01×1
0 0 0

1 0 0

    

Si E = {  0  ,  1  ,  0 } es la base canónica de R3 , el ejercicio nos pide [ΠS1 , S2 ]E .


E

0 0 1
Entonces, como tenemos [ΠS1 , S2 ]B
B , sólo nos resta hacer un cambio de base. Si

1 1 0
 

[M ]E
B =
 1 1 1 ,
1 0 2

denota la matriz de cambio de base de B a E, tenemos que

[ΠS1 , S2 ]E
= [M ]E
B [ΠS1 , S2 ]B [M ]E = [M ]B [ΠS1 ,
E B B E
S2 ]B
B
([M ]E
B)
−1
.

2 −2 1
 

Finalmente, como ([M ]E


B)
−1
=  −1 2 −1  , tenemos que
−1 1 0

1 1 0 1 0 0 2 1 1 0 0
       
−2
[ΠS1 , S2 ]E =
E  1 1 1   0 1 0   −1 2 −1  =  1 0 0 .
1 0 2 0 0 0 −1 1 0 2 −2 1

1 0 0 1 0 0
   

Observar que (  1 0 0 )2 =  1 0 0  . Este hecho no es casualidad, después


2 −2 1 2 −2 1
veremos que si T ∈ L(V) es un proyector, siempre vale que

([T ]B
B ) = [T ]B , para cualquier base B de V.
2 B

Con la notación de la definición de ΣS1 , S2 , tenemos que S1 = gen{1, x} y S2 = gen{1 + x + x2 }.


Observar que como R2 [x] = S1 ⊕ S2 , tenemos que B 0 := {1, x, 1 + x + x2 } es una base de R2 [x].
Entonces, por la Proposición 2.5.1, se sigue que

1 0 0
 
I2×2 02×1
 
0
[ΣS1 , S2 ]B
B0 = =  0 1 0 .
01×2 −I1×1
0 0 −1

E0
Si E 0 = {1, x, x2 } es la base canónica de R2 [x], el ejercicio nos pide [ΣS1 , S2 ]E 0 . Entonces, como
0
tenemos [ΣS1 , S2 ]B
B 0 , sólo nos resta hacer un cambio de base. Si

1 0 1
 
0
[M ]E
B0 =
 0 1 1 ,
0 0 1

85
2. Transformaciones Lineales

denota la matriz de cambio de base de B 0 a E 0 , tenemos que


E0 0 0 0 0 0 0
[ΣS1 , = [M ]E
S2 ]E 0 B 0 [ΣS1 , S2 ]B 0 [M ]E 0 = [M ]B 0 [ΣS1 , S2 ]B 0 ([M ]B 0 )
B B E B E −1
.

1 0 −1
 
0
Finalmente, como ([M ]E B0 )
−1
=  0 1 −1  , tenemos que
0 0 1

1 0 1 1 0 0 1 0 1 0
       
0
−1 −2
[ΣS1 , S2 ]E
E0 =
 0 1 1   0 1 0   0 1 −1  =  0 1 −2  .
0 0 1 0 0 −1 0 0 1 0 0 −1

1 0 −2 1 0 0
   

Observar que (  0 1 −2 )2 =  0 1 0  = I3×3 . Este hecho no es casualidad, después


0 0 −1 0 0 1
veremos que si S ∈ L(V) es una simetría, siempre vale que

([S]B
B ) = Idim(V)×dim(V) , para cualquier base B de V.
2


El siguiente ejercicio recolecta varias propiedades de proyectores y simetrías.
Ejercicio 2.23. Verificar las siguientes afirmaciones:
a) Si T ∈ L(V) es tal que T 2 = T, entonces T es la proyección de V sobre Im(T ) en la dirección
de Nu(T ) es decir
T = ΠIm(T ), Nu(T ) .

b) Si T ∈ L(V) es tal que T 2 = T, entonces S := IV − 2T es tal que S 2 = IV .


c) Si S ∈ L(V) es tal que S 2 = IV , entonces T := 12 (IV − S) es tal que T 2 = T.
d) Si S ∈ L(V) es tal que S 2 = IV , entonces S es la simetría de V con respecto a Nu( 12 (IV − S))
en la dirección de Im( 12 (IV − S)).
e) Si S ∈ L(V) es tal que S 2 = IV , entonces

V = Nu(S − IV ) ⊕ Nu(S + IV ).

Dem. a) Este ejercicio nos está pidiendo indirectamente que probemos que

V = Im(T ) ⊕ Nu(T ),

que es cuando está definido el proyector ΠIm(T ), Nu(T ) (tal como vimos más arriba). Si probamos
eso, luego veremos que T = ΠIm(T ), Nu(T ) .
Vamos a ver entonces que V = Im(T ) ⊕ Nu(T ), usando como hipótesis que T 2 = T ◦ T = T.
Primero veamos que Im(T ) ∩ Nu(T ) = {0V }. Supongamos que v ∈ Im(T ) ∩ Nu(T ), entonces
por un lado T (v) = 0V y por el otro v ∈ Im(T ). Como v ∈ Im(T ) existe u ∈ V tal que v = T (u)
entonces, usando que T ◦ T = T, se sigue que v = T (u) = T (T (u)) = T (v). Acabamos de demostrar
un hecho importante (usando como hipótesis T 2 = T ):

si v ∈ Im(T ) entonces T (v) = v.

Siguiendo con la demostración, teníamos que T (v) = 0V (porque v ∈ Nu(T )), entonces
v = T (v) = 0V , por lo tanto Im(T ) ∩ Nu(T ) = {0V } e Im(T ) y Nu(T ) están en suma directa.
Sólo resta ver que V = Im(T )⊕Nu(T ), es decir queremos ver que, dado v ∈ V existen v1 ∈ Im(T )
y v2 ∈ Nu(T ) tales que v = v1 + v2 .

86
2.5. Proyectores y simetrías

Observar que siempre vale que v = T (v) + (v − T (v)), donde T (v) claramente pertenece a
Im(T ). Veamos que v − T (v) ∈ Nu(T ), de hecho, T (v − T (v)) = T (v) − T (T (v)) = T (v) − T 2 (v) =
T (v) − T (v) = 0V . Por lo tanto, concluimos que v − T (v) ∈ Nu(T ) y como a v lo escribimos como
v = v1 + v2 , con v1 := T (v) ∈ Im(T ) y v2 := v − T (v) ∈ Nu(T ), se sigue que
V = Im(T ) ⊕ Nu(T ).
Por lo tanto, está definido el proyector ΠIm(T ), Nu(T ) .
Por otra parte, si v ∈ Im(T ) vimos arriba que T (v) = v y (obviamente) T (v) = 0V si v ∈ Nu(T ).
Entonces, como ΠIm(T ), Nu(T ) es la única transformación lineal tal que ΠIm(T ), Nu(T ) (v) = v, si
v ∈ Im(T ) y ΠIm(T ), Nu(T ) (v) = 0V , si v ∈ Nu(T ) (lo probamos en el Ejercicio 2.19 a), tenemos
que T = ΠIm(T ), Nu(T ) .
b) : Como T 2 = T, por el item a), tenemos que T = ΠIm(T ), Nu(T ) . Entonces
S = IV − 2T = IV − 2ΠIm(T ), Nu(T ) = ΣNu(T ), Im(T )

y por el Ejercicio 2.19 e) se sigue que S 2 = IV .


c) : De hecho, sea T := 21 (IV − S) entonces
1 1 1
T2 = T ◦ T = (IV − S) ◦ (IV − S) = [(IV − S) ◦ (IV − S)] =
2 2 4
1 1
= (IV ◦ IV − IV ◦ S − S ◦ IV + S ◦ S) = (IV − 2S + S 2 ) =
4 4
1 1 1
= (IV − 2S + IV ) = (2IV − 2S) = (IV − S) = T,
4 4 2
donde usamos la hipótesis S = IV .
2

Otra forma de probar este hecho es verificando que T 2 (v) = T (v), para todo v ∈ V.
d) : Si S ∈ L(V) es tal que S 2 = IV , usando el ítem c), vimos que si definimos T := 12 (IV − S),
entonces T 2 = T. Por otra parte, por el ítem a), como T 2 = T, tenemos que T = ΠIm(T ), Nu(T ) .
Entonces, por definición de simetría, se sigue que
S = IV − 2T = IV − 2ΠIm(T ), Nu(T ) = ΣNu(T ), Im(T ) .

Como Nu(T ) = Nu( 12 (IV − S)) e Im(T ) = Im( 12 (IV − S)). Entonces S es la simetría de V respecto
a Nu( 12 (IV − S)) en la dirección Im( 12 (IV − S)).
e) : Si S ∈ L(V) es tal que S 2 = IV , usando el ítem c), vimos que si definimos T := 12 (IV − S)
entonces T 2 = T. Como T 2 = T, por el ítem a) tenemos, que
1 1
V = Nu(T ) ⊕ Im(T ) = Nu( (IV − S)) ⊕ Im( (IV − S)).
2 2
Observar que si L es una transformación lineal y a ∈ K \ {0} (un escalar no nulo), siempre vale
que
Nu(aL) = Nu(L).
La prueba es muy simple, pero la vamos a hacer. Si v ∈ Nu(aL), entonces aL(v) = 0V , como a =
6 0,
se sigue que L(v) = a1 aL(v) = a1 0V = 0V y entonces v ∈ Nu(L). Recíprocamente, si v ∈ Nu(L)
entonces, L(v) = 0V y claramente aL(v) = a0V = 0V , entonces v ∈ N u(aL) y concluimos que
Nu(aL) = Nu(L).
Usando la idea anterior, se sigue que Nu( 12 (IV − S)) = Nu(T ) = Nu(IV − S).
Ahora, veamos que
1
Im( (IV − S)) = Im(T ) = Nu(IV + S).
2
De hecho, si v ∈ Im(T ), como T 2 = T, en el item a) probamos que eso implica que T (v) = v.
Entonces, reemplazado por la definición de T, nos queda
1 1
v = T (v) = (IV − S)v = (v − Sv).
2 2

87
2. Transformaciones Lineales

Entonces
1 1 1 1
(IV + S)(v) = (IV + S)( (v − Sv)) = [v − Sv + Sv − S 2 v] = [v − IV (v)] = [v − v] = 0V ,
2 2 2 2
donde usamos que S 2 = IV . Por lo tanto Im( 12 (IV − S)) ⊆ Nu(IV + S).
Finalmente, si v ∈ Nu(IV + S), entonces (IV + S)(v) = v + S(v) = 0V , es decir S(v) = −v. Como
T = 21 (IV − S), entonces S = IV − 2T. Por lo tanto
−v = S(v) = (IV − 2T )v = v − 2T (v),
entonces, −2v = −2T (v), o lo que es lo mismo, v = T (v), entonces v ∈ Im(T ) = Im( 12 (IV − S)) es
decir probamos que Nu(V + S) ⊆ Im( 12 (IV − S)). Por lo tanto, vale que Im( 12 (IV − S)) = Im(T ) =
Nu(IV + S) y entonces
V = Nu(T ) ⊕ Im(T ) = Nu(IV − S) ⊕ Nu(IV + S).


Las siguientes son algunas conclusiones que podemos obtener del Ejercicio 2.23.

Sea V un K-espacio vectorial, entonces

T es un proyector si y sólo si T 2 = T ◦ T = T.

En este caso, se cumplen las siguientes propiedades:


T = ΠIm(T ), Nu(T ) , es decir, T es la proyección de V sobre Im(T ) en la dirección de
Nu(T ).
T (v) = v si y sólo si v ∈ Im(T ).
V = Im(T ) ⊕ Nu(T ).

S es una simetría si y sólo si S 2 = I.


En este caso, se cumplen las siguientes propiedades:

S = ΣNu(IV −S), Im(IV −S) , es decir, S es la simetría de V sobre Nu(IV −S) en la dirección
de Im(IV − S).
V = Nu(S − IV ) ⊕ Nu(S + IV ).

Ejercicio 2.L. Sea V un K-espacio vectorial de dimensión n (finita) y S1 , S2 dos subespacios


complementarios de V, es decir
V = S1 ⊕ S2 .
Entonces, para cualquier base B de V se sigue que
([ΠS1 , S2 ]B )
B 2
= [ΠS1 , S2 ]B
B
y ([ΣS1 , S2 ]B )
B 2
= In×n .

Dem. Recordar que si v ∈ V, tenemos que


[ΠS1 , S2 (v)]
B
= [ΠS1 , S2 ]B
B
[v]B .
En el Ejercicio 2.19 item b), vimos que ΠS1 , S2 es idempotente, es decir Π2S1 , S2 = ΠS1 , S2 .
Entonces, por un lado, tenemos que
[Π2S1 , S2 (v)]
B
= [ΠS1 , S2 (v)]
B
= [ΠS1 , S2 ]B
B
[v]B

88
2.5. Proyectores y simetrías

y, por otro lado,

[Π2S1 , S2 (v)]
B
= [ΠS1 , S2 (ΠS1 , S2 (v))]
B
= [ΠS1 , S2 ]B
B
[ΠS1 , S2 (v)]B
B
=

= [ΠS1 , S2 ]B
B
[ΠS1 , S2 ]B
B
[v]B = ([ΠS1 , S2 ]B ) [v] .
B 2 B

Igualando las dos expresiones anteriores, nos queda que

([ΠS1 , S2 ]B )
B 2
[v]B = [Π2S1 , S2 (v)]
B
= [ΠS1 , S2 ]B
B
[v]B .

Es decir, tenemos que


([ΠS1 , S2 ]B )
B 2
[v]B = [ΠS1 , S2 ]B )[v] ,
B B

para todo v ∈ V. Recordar que si dos matrices A y B son tales que A[v]B = B[v]B para todo v ∈ V,
entonces A = B. Usando, este hecho, concluimos que

([ΠS1 , S2 ]B )
B 2
= [ΠS1 , S2 ]B .
B

Finalmente, en el Ejercicio 2.19 d), e), vimos que Σ2S1 , S2 = IV . Entonces, por un lado,
tenemos que
[Σ2S1 , S2 (v)]B = [IV (v)]B = [v]B
y, por otro lado,

[Σ2S1 , S2 (v)]
B
= [ΣS1 , S2 (ΣS1 , S2 (v))]
B
= [ΣS1 , S2 ]B
B
[ΣS1 , S2 (v)]B
B
=

= [ΣS1 , S2 ]B
B
[ΣS1 , S2 ]B
B
[v]B = ([ΣS1 , S2 ]B ) [v] .
B 2 B

Igualando las dos expresiones anteriores, nos queda que

([ΣS1 , S2 ]B )
B 2
[v]B = [Σ2S1 , S2 (v)]
B
= [v]B = In×n [v]B .

Es decir tenemos que ([ΣS1 , S2 ]B )


B 2
[v]B = In×n [v]B , para todo v ∈ V. Entonces, se sigue que

([ΣS1 , S2 ]B )
B 2
= In×n .

Ejercicio 2.M (De Parcial). Sea V un K-espacio vectorial y sean f, g : V → V dos proyectores.
Mostrar que:

a) f = g si y sólo si Im(f ) = Im(g) y Nu(f ) = Nu(g). Es decir un proyector queda unívocamente


definido conociendo su núcleo e imagen.

b) En general el ítem a) no vale si f y g son transformaciones lineales pero f ó g no son


proyectores.

c) Si f y g conmutan (es decir f ◦ g = g ◦ f ) entonces f ◦ g es un proyector tal que


Im(f ◦ g) = Im(f ) ∩ Im(g) y Nu(f ◦ g) = Nu(f ) + Nu(g).

Dem. Como f y g son proyectores entonces f y g son transformaciones lineales de V en V tales


que f ◦ f = f y g ◦ g = g.
a) : Si f = g entonces obviamente tenemos que Im(f ) = Im(g) y Nu(f ) = Nu(g).
Recíprocamente, acabamos de ver que si f ◦ f = f 2 = f, entonces f = ΠIm(f ), Nu(f ) , y además
si g ◦ g = g 2 = g, entonces g = ΠIm(g), Nu(g) . Usando que Im(f ) = Im(g) y Nu(f ) = Nu(g), se sigue
que f = ΠIm(f ), Nu(f ) = g.

89
2. Transformaciones Lineales

b): Por ejemplo, tomar f : R2 → R2 , f = idR2 (la función identidad de R2 ) y tomar g : R2 → R2 ,


definida en una base de R2 por:
1 1 1 1
       
g( )= , g( )= .
1 −1 0 1
1 1 1
     
Entonces g no es proyector, pues ∈ Im(g) pero g( ) 6= .
1 1 1
Además Im(f) = Im(g)
  = R y Nu(f ) = Nu(g) = {0}. Pero f = 6 g. Pues, por ejemplo,
2

1 1 1

f( )= 6= g( ).
1 1 1
c): Primero observar que f ◦ g es una transformación lineal y
(f ◦ g) ◦ (f ◦ g) = f ◦ (g ◦ f ) ◦ g = f ◦ (f ◦ g) ◦ g = (f ◦ f ) ◦ (g ◦ g) = f ◦ g.
Entonces f ◦ g es un proyector.
Siempre vale que Im(f ◦ g) ⊆ Im(f ) y Im(g ◦ f ) ⊆ Im(g). Entonces Im(f ◦ g) = Im(g ◦ f ) ⊆
Im(f ) ∩ Im(g). Si hay dudas sobre este hecho, se recomienda hacer la demostración como ejercicio.
Por otra parte, si x ∈ Im(f ) ∩ Im(g), entonces x ∈ Im(f ) y x ∈ Im(g). Entonces, como f y g
son proyectores, se sigue que x = f (x) y x = g(x). Entonces,
x = f (x) = f (g(x)) = f ◦ g(x).
Por lo tanto x ∈ Im(f ◦ g) y se sigue que Im(f ) ∩ Im(g) ⊆ Im(f ◦ g). Entonces, como probamos la
doble inclusión, tenemos que Im(f ◦ g) = Im(f ) ∩ Im(g).
Finalmente, siempre vale que Nu(f ) ⊆ Nu(g ◦ f ) = Nu(f ◦ g) y Nu(g) ⊆ Nu(f ◦ g). Entonces,
tenemos que Nu(f ) + Nu(g) ⊆ Nu(f ◦ g). De hecho, si z ∈ Nu(f ) + Nu(g), entonces z = z1 + z2 ,
con z1 ∈ Nu(f ) y z2 ∈ Nu(g), entonces,
f ◦ g(z) = f ◦ g(z1 + z2 ) = f ◦ g(z1 ) + f ◦ g(z2 ) = g ◦ f (z1 ) + f (0V ) = g(0V ) + 0V = 0V
y z ∈ Nu(f ◦ g).
Por otra parte, si x ∈ Nu(f ◦ g). Entonces, f (g(x)) = 0 y g(x) ∈ Nu(f ). Observar que
x = x − g(x) + g(x),
con x−g(x) ∈ Nu(g) pues g es proyector. De hecho, g(x−g(x))) = g(x)−g◦g(x) = g(x)−g(x) = 0V .
Entonces, como escribimos a x = x1 + x2 con x1 := x − g(x) ∈ Nu(g) y x2 := g(x) ∈ Nu(f ), se
sigue que x ∈ Nu(f ) + Nu(g), entonces Nu(f ◦ g) ⊆ Nu(f ) + Nu(g) y, como probamos la doble
inclusión, tenemos que Nu(f ◦ g) = Nu(f ) + Nu(g). 

2.6. Rotaciones
Para resolver lose ejercicios de esta sección, vamos usamos las siguientes propiedades
trigonométricas: Sean a, b ∈ R, entonces
cos(a)2 + sin(b)2 = 1.
cos(a ± b) = cos(a) cos(b) ∓ sin(a) sin(b).
sin(a ± b) = sin(a) cos(b) ± cos(a) sin(b).
El siguiente ejercicio nos presenta a las transformaciones lineales llamadas rotaciones.
Ejercicio 2.25. Sea O(2, R) := {Rθ , Sθ : θ ∈ R} el conjunto de todas las TL de R2 en R2 definidas
por
cos(θ) − sin(θ)
     
x1  x1
Rθ := ,
x2 sin(θ) cos(θ) x2
cos(θ) sin(θ)
     
x1  x1
Sθ := .
x2 sin(θ) − cos(θ) x2

90
2.6. Rotaciones

a) Hallar la imagen de la base canónica de R2 por R π3 y explicar el significado geométrico de la


acción de R π3 sobre los vectores de R2 .
1 0
   
Sea E = { , } la base canónica de R2 y θ = π3 . Entonces,
0 1
" √ #  √
1 3 1
1
    
− 3
= =

R π 2 √2 2 ,
3 0 1 3 0 1
2
2 2
" √ # 
1
0 3 1
0 −
    

= =

R π3 2 √2 √2 ,
1 1 3 1 2
3
2 2

que es la rotación de un ángulo π3 en sentido antihorario de ambos vectores.


 √   1 
3 −
b) Sea la base { 2
1 , √2
3 }, hallar la imagen de dicha base por S π3 y explicar el significado
2 2
geométrico de la acción de S π3 sobre los vectores de R2 .
Entonces,
√ " √ #  √
3 1
1
    
3 3
= =

S π3 2 2 2√ 2 ,
1
2
1
− 3 1
2
0
2 2

" √ # 
1 1
− 3 1 − 0
    
= =

S π3 √2 2 2√ √2 .
3 1 3 −1
2 2 − 23 2

En el ítem e) veremos el significado geométrico de Sθ .

c) Hallar la imagen de la base canónica de R2 por Rθ y explicar el significado geométrico de la


acción de Rθ sobre los vectores de R2 .
1 0
   
Sea E = { , } la base canónica de R2 . Entonces,
0 1

1 cos(θ) − sin(θ) 1 cos θ


       
= =

Rθ ,
0 sin(θ) cos(θ) 0 sin θ

0 cos(θ) − sin(θ) 0 − sin θ


       
= =

Rθ ,
1 sin(θ) cos(θ) 1 cos θ
que es la rotación de un ángulo θ en sentido antihorario (si θ ≥ 0) o en sentido horario (si
θ < 0) de ambos vectores.

cos( θ2 ) − sin( θ2 )
   
d) Comprobar que { , } es una base de R2 y hallar su imagen por Sθ .
sin( θ2 ) cos( θ2 )
cos( θ2 ) − sin( θ2 )
   
Veamos que { , } es una base de R2 . Para esto basta ver que el
sin( θ2 ) cos( θ2 )
conjunto es LI. Sean a, b ∈ R tales que

cos( θ2 ) − sin( θ2 ) 0
     
a +b = .
sin( θ2 ) cos( θ2 ) 0

Entonces, nos queda el siguiente sistema matricial

cos( θ2 ) − sin( θ2 ) 0
     
a
= .
sin( 2 ) cos( 2 )
θ θ
b 0

91
2. Transformaciones Lineales

Como
cos( θ2 ) − sin( θ2 )
 
θ θ
det( ) = cos( )2 + sin( )2 = 1 6= 0,
sin( θ2 ) cos( θ2 ) 2 2
la única solución del sistema homogéneo anterior es la trivial, es decir, a = b = 0.
cos( θ2 ) − sin( θ2 )
   
Por lo tanto, { , } es una base de R2 .
sin( θ2 ) cos( θ2 )
Por otra parte, veamos la imagen de esos vectores por Sθ .

cos( θ2 )  cos(θ) sin(θ) cos( θ2 )


     
Sθ =
sin( θ2 ) sin(θ) − cos(θ) sin( θ2 )
cos(θ) cos( θ2 ) + sin(θ) sin( θ2 )
 
=
sin(θ) cos( θ2 ) − cos(θ) sin( θ2 )
cos(θ − θ2 ) cos( θ2 )
   
= =
sin(θ − θ2 ) sin( θ2 )

− sin( θ2 ) cos(θ) sin(θ) − sin( θ2 )


     
=


cos( θ2 ) sin(θ) − cos(θ) cos( θ2 )
− cos(θ) sin( θ2 ) + sin(θ) cos( θ2 )
 
=
− sin(θ) sin( θ2 ) − cos(θ) cos( θ2 )
sin(θ − θ2 ) sin( θ2 ) − sin( θ2 )
     
= = = −
− cos(θ − θ2 ) − cos( θ2 ) cos( θ2 )

e) ¿Cuál es el signficado geométrico de la acción de Sθ sobre los vectores de R2 ?


cos( θ2 ) − sin( θ2 )
   
Sean S1 := gen{ } y S2 := gen{ }. En el item d) probamos que
sin( θ2 ) cos( θ2 )
cos( θ2 ) − sin( θ2 )
   
{ , } es una base de R2 . Por lo tanto
sin( 2 )
θ
cos( θ2 )

R2 = S1 ⊕ S2 .

En el item d) también probamos que:

Sθ (v) = v para todo v ∈ S1 y Sθ (v) = −v para todo v ∈ S2 .

Por lo tanto, Sθ es la simetría respecto a S1 en la dirección S2 .

f) Dados α, β ∈ R, hallar las matrices respecto a la base canónica de las siguientes


transformaciones lineales:

Rα ◦ Rβ , Sα ◦ Sβ , Sα ◦ Rβ , Rβ ◦ Sα .

[Rα ]E
E , [Sα ]E , [Rβ ]E y [Sβ ]E denotan las matrices respecto de la base canónica E de R de
E E E 2

las transformaciones lineales Rα , Sα , Rβ y Sβ , respectivamente. Entonces, por la Proposición


2.4.3,

[Rα ◦ Rβ ]E
E = [Rα ]E [Rβ ]E
E E

cos(α) − sin(α) cos(β) − sin(β)


   
=
sin(α) cos(α) sin(β) cos(β)
cos(α) cos(β) − sin(α) sin(β) − cos(α) sin(β) − sin(α) cos(β)
 
=
sin(α) cos(β) + cos(α) sin(β) − sin(α) sin(β) + cos(α) cos(β)

92
2.6. Rotaciones

cos(α + β) − sin(α + β)
 
= = [Rα+β ]E
E.
sin(α + β) cos(α + β)

[Sα ◦ Sβ ]E
E = [Sα ]E [Sβ ]E
E E

cos(α) sin(α) cos(β) sin(β)


   
=
sin(α) − cos(α) sin(β) − cos(β)
cos(α) cos(β) + sin(α) sin(β) cos(α) sin(β) − sin(α) cos(β)
 
=
sin(α) cos(β) − cos(α) sin(β) sin(α) sin(β) + cos(α) cos(β)
cos(α − β) sin(β − α) cos(α − β) − sin(α − β)
   
= = = [Rα−β ]E
E.
sin(α − β) cos(α − β) sin(α − β) cos(α − β)

[Sα ◦ Rβ ]E
E = [Sα ]E [Rβ ]E
E E

cos(α) sin(α) cos(β) − sin(β)


   
=
sin(α) − cos(α) sin(β) cos(β)
cos(α) cos(β) + sin(α) sin(β) − cos(α) sin(β) + sin(α) cos(β)
 
=
sin(α) cos(β) − cos(α) sin(β) − sin(α) sin(β) − cos(α) cos(β)
cos(α − β) sin(α − β)
 
= = [Sα−β ]E
E.
sin(α − β) − cos(α − β)

[Rβ ◦ Sα ]E
E = [Rβ ]E [Sα ]E
E E

cos(β) − sin(β) cos(α) sin(α)


   
=
sin(β) cos(β) sin(α) − cos(α)
cos(β) cos(α) − sin(β) sin(α) cos(β) sin(α) + sin(β) cos(α)
 
=
sin(β) cos(α) + cos(β) sin(α) sin(β) sin(α) − cos(β) cos(α)
cos(α + β) sin(α + β)
 
= = [Sα+β ]E
E.
sin(α + β) − cos(α + β)

(g) Concluir que el conjunto O(2, R) es cerrado por composiciones. Sean Rα , Sα , Rβ , Sβ ∈ O(2, R).
Entonces, por el item f ), tenemos que

cos(α + β) − sin(α + β)
     
x1  x1
Rα ◦ Rβ =
x2 sin(α + β) cos(α + β) x2
 
x1
= Rα+β (

.
x2

Por lo tanto, Rα ◦ Rβ = Rα+β ∈ O(2, R).


De la misma manera, podemos ver que Sα ◦ Sβ = Rα−β ∈ O(2, R), Sα ◦ Rβ = Sα−β ∈ O(2, R)
y Rβ ◦ Sα = Sα+β ∈ O(2, R). Por lo tanto, el conjunto O(2, R) es cerrado por composiciones.
h) Si θ = 0, entonces,

cos(0) − sin(0) 1 0
   
R0 = = = IR2 .
sin(0) cos(0) 0 1

i) Si [Rθ ]E
E es
 la matriz respectode la base canónica E de la transformación lineal Rθ , entonces
cos(θ) − sin(θ)
[Rθ ]E =
E
y
sin(θ) cos(θ)

det([Rθ ]E
E ) = cos(θ) + sin(θ) = 1 6= 0.
2 2

93
2. Transformaciones Lineales

−1
Entonces [Rθ ]E
E es inversible y, por lo tanto Rθ es un isomorfismo. Entonces, existe Rθ .
Observar que
cos(θ) sin(θ)
 
([Rθ ]E ) −1
= .
E − sin(θ) cos(θ)
Entonces Rθ−1 : R2 → R2 es la transformación lineal

cos(θ) sin(θ)
     
x1  x1
(Rθ )−1 = .
x2 − sin(θ) cos(θ) x2

De manera similar, si [Sθ ]EE es


 la matriz respectode la base canónica E de la transformación
cos(θ) sin(θ)
lineal Sθ , entonces [Sθ ]E
E = y
sin(θ) − cos(θ)

det([Sθ ]E
E ) = − cos(θ) − sin(θ) = −1 6= 0.
2 2

Entonces [Sθ ]E
E es inversible y, por lo tanto, Sθ es un isomorfismo.
Entonces, existe Sθ−1 . Observar que

cos(θ) sin(θ)
 
([Sθ ]E
E)
−1
= = [Sθ ]E
E.
sin(θ) − cos(θ)

Entonces Sθ−1 = Sθ .
Sigamos con otro ejercicio de rotaciones en R3 . Observar que la transformación lineal R : R3 → R3
definida por

R([1 0 0]T ) := [cos(θ) sin(θ) 0]T


R([0 1 0]T ) := [− sin(θ) cos(θ) 0]T
R([1 0 0]T ) := [0 0 0]T

es la rotación del ángulo θ en sentido antihorario del plano xy alrededor del eje z.
Ejercicio 2.26.
a) Hallar la imagen de los vectores v1 = [1 0 0]T , v2 = [1 1 0]T , v3 = [1 0 1]T por la rotación de
un ángulo π4 en sentido antihorario del plano xy alrededor del eje z.
Observar que la expresión general de la transformación lineal Rzθ : R3 → R3 que es la rotación
de un ángulo θ en sentido antihorario del plano xy alrededor del eje z es:

cos(θ) − sin(θ) 0
       
u1 u1 u1
Rzθ (  u2 ) =  sin(θ) cos(θ) 0   u2  con  u2  ∈ R3 .
u3 0 0 1 u3 u3

Tomando θ = π
4, tenemos que
 √ √  
2
−√ 22 0
    
u1 u1 u1
π
 √22
Rz ( u2 ) = 
4 2
0  u2  con  u2  ∈ R3 .
   
2 2
u3 0 0 1 u3 u3

Entonces  √ √    √ 
2
−√ 22 0 1 2

π √2  √22 
Rz4 (v1 ) =  2 2
0  0 =  .
   
2 2 2
0 0 1 0 0

94
2.6. Rotaciones

 √ √  
2
−√ 22 0 1 0
  
π √2 √
Rz4 (v2 ) =  2 2
0   1  =  2 .
 
2 2
0 0 1 0 0

 √ √    √ 
2
−√ 22 0 1 2

π √2 √2 
Rz4 (v3 ) =  2 2
0  0  =  2 .
   
2 2 2
0 0 1 1 1

b) Hallar la matriz respecto de la base canónica de la rotación de un ángulo θ en sentido


antihorario del plano yz alrededor del eje x.

La transformación lineal Rxθ : R3 → R3 que es la rotación de un ángulo θ en sentido antihorario


del plano yz alrededor del eje x tiene la expresión:

1 0 0
       
u1 u1 u1
Rxθ (  u2 ) =  0 cos(θ) − sin(θ)   u2  , con  u2  ∈ R3 .
u3 0 sin(θ) cos(θ) u3 u3

Por lo tanto, la matriz respecto de la base canónica de Rxθ es

1 0 0
 

[Rxθ ]E
E =
 0 cos(θ) − sin(θ)  ,
0 sin(θ) cos(θ)

donde E denota la base canónica de R3 .

c) Hallar la matriz respecto de la base canónica de la rotación de un ángulo θ en sentido


antihorario del plano zx alrededor del eje y.

La transformación lineal Ryθ : R3 → R3 que es la rotación de un ángulo θ en sentido antihorario


del plano xz alrededor del eje y, tiene la expresión:

cos(θ) 0 − sin(θ)
       
u1 u1 u1
Ryθ (  u2 ) =  0 1 0   u2  , con  u2  ∈ R3 .
u3 sin(θ) 0 cos(θ) u3 u3

Por lo tanto, la matriz respecto de la base canónica de Ryθ es

cos(θ) 0 − sin(θ)
 

[Ryθ ]E
E =  0 1 0 ,
sin(θ) 0 cos(θ)

donde E denota la base canónica de R3 .

95
2. Transformaciones Lineales

2.7. Ecuaciones diferenciales. Operador derivación

Sea K el cuerpo R o C. El operador derivación D : C ∞ (R, K) → C ∞ (R, K), está definido


por
dy
D[y] := .
dx
Dados a0 , a1 , · · · , an−1 ∈ K, se define el operador diferencial de orden n con coeficientes
constantes L : C ∞ (R, K) → C ∞ (R, K), como

L = Dn + an−1 Dn−1 + · · · + a1 D + a0 I,

donde Dn = D ◦ D ◦ · · · ◦ D (componer n veces el operador D).

Llamaremos polinomio característico del operador L al polinomio p ∈ Kn [x] que se obtiene


de L intercambiando papeles entre D y x, es decir

p(x) := xn + an−1 xn−1 + · · · + a1 x + a0 .

Recordar que probamos que L ∈ L(C ∞ (R, K)).


Definición. Sean V un K-espacio vectorial, D ∈ L(V) y q(x) = an xn + an−1 X n−1 + · · · + a1 x + a0 x
un polinomio de Cn [x] se define q(D) : V → V como

q(D) := an Dn + an−1 Dn−1 + · · · + a1 D + a0 I.

Es fácil ver que como D ∈ L(V) también tenemos que q(D) ∈ L(V). Por otra parte, si
q1 ∈ Cn [x], q2 ∈ Cm [x] son dos polinomios, α, β ∈ C y D ∈ L(V), es fácil ver que

(αq1 + βq2 )(D) = αq1 (D) + βq2 (D) y q1 q2 (D) = q1 (D) ◦ q2 (D) (2.3)

la prueba de esto es muy simple y se sugiere hacerla.


A partir de la definición anterior, observar que:

Si p es el polinomio característico del operador diferencial de orden n que llamamos L.


Entonces
p(D) = L.

La siguiente propiedad la vamos a usar para resolver varios ejercicios.

Proposición 2.7.1. Sea K = C y supongamos que

p(x) = (x − λ1 )(x − λ2 ) · · · (x − λn ),

donde λ1 , λ2 , · · · , λn ∈ C son las n raíces de p. Entonces

L = (D − λ1 I) ◦ (D − λ2 I) ◦ · · · ◦ (D − λn I).

Dem. Vamos a usar el principio de inducción para demostrar esta propiedad. Supongamos que
k = 1, entonces p(x) = x + a0 = (x − λ1 ), donde λ1 := −a0 ∈ C es la única raíz de p, Entonces

L = p(D) = (D − λ1 I).

Por lo tanto para k = 1 se cumple la propiedad.


Supongamos que para k = n vale la propiedad (HI, hipótesis inductiva). Usando la HI vamos a
probar que la propiedad también vale para k = n + 1. En este caso p ∈ Cn+1 [x].

96
2.7. Ecuaciones diferenciales. Operador derivación

Sea λn+1 ∈ C una raíz de p (existe por el Teorema Fundamental del Álgebra). Entonces, usando
la división de polinomios (por ejemplo), tenemos que

p(x) = (x − λn+1 )q(x),

donde q ∈ Cn [x].
Entonces, usando la propiedad (2.3), tenemos que

L = p(D) = (D − λn+1 I)q(D).

Sean λn , λn−1 , · · · , λ1 ∈ C, las n raíces del polinomio q, entonces por HI, tenemos que

q(D) = (D − λ1 I) ◦ (D − λ2 I) ◦ · · · ◦ (D − λn I).

Por otra parte,

p(x) = (x − λn+1 )q(x) = (x − λn+1 )[(x − λ1 )(x − λ2 ) · · · (x − λn )].

Entonces,

L = p(D) = (D − λn+1 I) ◦ q(D) = (D − λn+1 I) ◦ (D − λ1 I) ◦ (D − λ2 I) ◦ · · · ◦ (D − λn I) =

= (D − λ1 I) ◦ (D − λ2 I) ◦ · · · ◦ (D − λn I) ◦ (D − λn+1 I),
donde para la última igualdad usamos fuertemente que si α, β ∈ C, los operadores (D − αI) y
(D − βI) conmutan, es decir (D − αI) ◦ (D − βI) = D2 − αD − βD + αβI = (D − βI) ◦ (D − αI).
Finalmente, como a partir de la validez de la proposición para n deducimos la validez para
n + 1, se sigue por inducción, que la propiedad vale para todo n ∈ N. 

Para resolver el Ejercicio 2.27 vamos a usar la siguiente propiedad (su demostración es muy
simple y se sugiere hacerla): sea λ ∈ C y D el operador derivación. Observar que, como (D − λI)k+1
es componer k + 1 veces el operador D − λI, se sigue que para todo k ≥ 1,

(D − λI)k+1 = (D − λI) ◦ (D − λI)k = (D − λI)k ◦ (D − λI). (2.4)

Ejercicio 2.27. Sea D : C ∞ (R, C) → C ∞ (R, C) el operador derivación.

a) Sea λ ∈ C. Verificar que para todo k ∈ N vale que

(D − λI)k [f (x)eλx ] = f k (x)eλx ,

para toda f ∈ C ∞ (R, C).

b) Comprobar que
Nu(D − λI) = gen{eλx }.

c) Para cada k ∈ N verificar que si

Nu((D − λI)k ) = {p(x)eλx : p ∈ Ck−1 [x]},

entonces
Nu((D − λI)k+1 ) = {p(x)eλx : p ∈ Ck [x]}.

d) Utilizar los incisos b) y c) junto al principio de inducción para demostrar que para todo
k ∈ N, el conjunto {xi eλx } con i = {0, 1, 2 · · · , k − 1}, es una base de Nu((D − λI)k ).

97
2. Transformaciones Lineales

e) Sea g ∈ C ∞ (R, C). Comprobar que la ecuación

(D − λI)k [y] = g,

admite una solución particular de la forma yp (x) = f (x)eλx , donde f k (x) = g(x)e−λx .

Dem. a) : Vamos a probarlo por inducción. Primero, el caso n = 1. En este caso, dada f ∈ C ∞ (R, C),
por definición de D tenemos:

d(f (x)eλx )
(D − λI)[f (x)eλx ] = D[f (x)eλx ] − λf (x)eλx = − λf (x)eλx =
dx
= f 0 (x)eλx + λf (x)eλx − λf (x)eλx = f 0 (x)eλx ,
por lo que la igualdad se cumple para n = 1.
Supongamos que la igualdad vale para n = k (HI), es decir,

(D − λI)k [f (x)eλx ] = f k (x)eλx ,

veamos que la igualdad vale para n = k + 1. Entonces, dada f ∈ C ∞ (R, C), por definición de D,
usando la propiedad (2.4) y usando la HI, tenemos que

(D − λI)k+1 [f (x)eλx ] = ((D − λI) ◦ (D − λI)k ) [f (x)eλx ] = (D − λI)[(D − λI)k [f (x)eλx ]] =

d(f k (x)eλx )
= (D − λI)[f k (x)eλx ] = − λf k (x)eλx = f k+1 (x)eλx + λf k (x)eλx − λf k (x)eλx =
dx
= f k+1 (x)eλx .
Como a partir de la validez de la igualdad para n = k, deducimos la validez para n = k + 1, se
sigue que por inducción, la igualdad vale para todo k ∈ N.
b) : Tenemos que probar una igualdad de conjuntos así que veremos la doble inclusión.
Sea f ∈ Nu(D − λI), entonces (D − λI)[f (x)] = 0, para todo x ∈ R. Entonces D[f (x)] − λf (x) =
df
dx − λf (x) = 0, para todo x ∈ R. Es decir,

f 0 − λf = 0.

Para resolver esta ecuación diferencial, vamos a multiplicar ambos lados la última igualdad por
e−λx . Entonces, para todo x ∈ R,

0 = e−λx f 0 (x) − λe−λx f (x) = (e−λx f (x))0 .

Integrando, nos queda, para todo x ∈ R,


Z Z
e−λx f (x) = (e−λx f (x))0 = 0 = c,

donde c ∈ C es una constante. Por lo tanto, despejando, nos queda

f (x) = c(e−λx )−1 = ceλx .

Entonces, f ∈ gen{eλx } y tenemos que Nu(D − λI) ⊆ gen{eλx }.


Recíprocamente, sea f ∈ gen{eλx }, entonces f (x) = αeλx , para cierto α ∈ C. Entonces, para
cada x ∈ R,
(D − λI)[f (x)] = f 0 (x) − λf (x) = αλeλx − αλeλx = 0.
Entonces f ∈ Nu(D − λI) y se sigue que gen{eλx } ⊆ Nu(D − λI). Por lo tanto, como probamos la
doble inclusión, tenemos que Nu(D − λI) = gen{eλx }.
c) : Usando la propiedad (2.4), tenemos que

Nu((D − λI)k+1 ) = Nu((D − λI)k ◦ (D − λI)).

98
2.7. Ecuaciones diferenciales. Operador derivación

Con esto, vamos a demostrar la igualdad de conjuntos que nos pide el item c), para eso vamos a
probar la doble inclusión.
Sea f ∈ Nu((D − λI)k+1 ) = Nu((D − λI)k ◦ (D − λI)), entonces para cada x ∈ R,

0 = ((D − λI)k ◦ (D − λI))[f (x)] = (D − λI)k [(D − λI)[f (x)]].

Entonces (D − λI)[f ] ∈ Nu(D − λI)k . Por hipótesis, Nu((D − λI)k ) = {p(x)eλx : p ∈ Ck−1 [x]}.
Entonces, existe p ∈ Ck−1 [x], tal que

(D − λI)[f (x)] = f 0 (x) − λf (x) = p(x)eλx .

Para resolver esta ecuación diferencial, vamos a multiplicar ambos lados la última igualdad por
e−λx . Entonces, para todo x ∈ R,

e−λx f 0 (x) − λe−λx f (x) = e−λx p(x)eλx = p(x)e−λx eλx = p(x).


Entonces
(e−λx f (x))0 = e−λx f 0 (x) − λe−λx f (x) = p(x).
Entonces, integrando la ecuación anterior a cada lado, obtenemos
Z Z
e−λx f (x) = (e−λx f (x))0 = p(x).

Sea q(x) := p(x), entonces como p ∈ Ck−1 [x] (y estamos integrando p) tenemos que q ∈ Ck [x].
R

Entonces, despejando f de la última igualdad, nos queda, para todo x ∈ R,

f (x) = (e−λx )−1 q(x) = eλx q(x).

Entonces f ∈ {p(x)eλx : p ∈ Ck [x]} y tenemos la primera inclusión: Nu((D − λI)k+1 ) ⊆ {p(x)eλx :


p ∈ Ck [x]}.
Recíprocamente, sea f ∈ {p(x)eλx : p ∈ Ck [x]}, entonces f (x) = p(x)eλx , para cierto p ∈ Ck [x].
Entonces,

d(p(x)eλx )
(D − λ)[f (x)] = − λf (x) = p0 (x)eλx + p(x)λeλx − λp(x)eλx = p0 (x)eλx .
dx
Entonces, como p ∈ Ck [x] su derivada p0 ∈ Ck−1 [x], entonces

(D − λ)[f ] ∈ {p(x)eλx : p ∈ Ck−1 [x]} = Nu((D − λI)k ).

Entonces, para todo x ∈ R,

0 = (D − λI)k [(D − λ)[f (x)]] = ((D − λI)k ◦ (D − λI))[f (x)] = (D − λI)k+1 [f (x)].

Por lo tanto, f ∈ Nu((D − λI)k+1 ) y se sigue que {p(x)eλx : p ∈ Ck [x]} ⊆ Nu((D − λI)k+1 ).
Entonces, como probamos la doble inclusión, tenemos que

Nu((D − λI)k+1 ) = {p(x)eλx : p ∈ Ck [x]}.

d) : Vamos a demsostrar el inciso d) por inducción en k. Primero, el caso k = 1. En este


caso, queremos ver, que el conjunto {eλx } es una base de Nu(D − λI). En el ítem b), vimos que
Nu(D − λI) = gen{eλx } y como eλx no es la función nula, el conjunto {eλx } es LI, por lo tanto
{eλx } es una base de Nu(D − λI).
Ahora, supongamos que {eλx , xeλx , · · · , xk−1 eλx } es una base de Nu((D − λI)k ) (HI).
Veamos que esto también vale para k + 1, es decir, veamos que {eλx , xeλx , · · · , xk−1 eλx , xk eλx }
es una base de Nu((D − λI)k+1 ).

99
2. Transformaciones Lineales

Primero probemos que el conjunto {eλx , xeλx , · · · , xk−1 eλx , xk eλx } es LI. De hecho, sean
a0 , a1 , · · · , ak ∈ R tales que

0 = a0 eλx + a1 xeλx + · · · + ak−1 xk−1 eλx + ak xk eλx , para todo x ∈ R. Entonces


0 = eλx (a0 + a1 x + · · · + ak−1 xk−1 + ak xk ), para todo x ∈ R. Entonces como eλx > 0,
0 = a0 + a1 x + · · · + ak−1 xk−1 + ak xk , para todo x ∈ R

Entonces, como {1, x, · · · , xk−1 , xk } es un conjunto LI, se sigue que a0 = a1 = · · · = ak−1 = ak = 0.


Por lo tanto el conjunto {eλx , xeλx , · · · , xk−1 eλx , xk eλx } es LI.
Ahora sólo nos resta probar que

gen{eλx , xeλx , · · · , xk−1 eλx , xk eλx } = Nu((D − λI)k+1 ),

sabiendo que por (HI) vale

gen{eλx , xeλx , · · · , xk−1 eλx } = Nu((D − λI)k ).

Pero eso, es exactamente lo que hicimos en el item c). Si no se convencen, notar que

gen{eλx , xeλx , · · · , xk−1 eλx , xk eλx } = {p(x)eλx : p ∈ Ck [x]}.

De hecho, si f ∈ gen{eλx , xeλx , · · · , xk−1 eλx , xk eλx }, entonces existen α0 , α1 , · · · , αk ∈ C tales que

f (x) = α0 eλx + α1 xeλx + · · · + αk xk eλx = (α0 + α1 x + · · · + αk xk )eλx .

Si llamamos p(x) := α0 + α1 x + · · · + αk xk entonces p ∈ Ck [x] y f (x) = p(x)eλx , por lo tanto


f ∈ {p(x)eλx : p ∈ Ck [x]} y tenemos que gen{eλx , xeλx , · · · , xk eλx } ⊆ {p(x)eλx : p ∈ Ck [x]}.
Recíprocamente, si f ∈ {p(x)eλx : p ∈ Ck [x]}, entonces f (x) = p(x)eλx , para cierto p ∈ Ck [x].
Como p ∈ Ck [x], existen a0 , a1 , · · · , ak ∈ C tales que

p(x) = a0 + a1 x + · · · + αk xk .

Por lo tanto, f (x) = (a0 + a1 x + · · · + αk xk )eλx = a0 eλx + a1 xeλx + · · · + ak xk eλx , entonces


f ∈ gen{eλx , xeλx , · · · , xk eλx } y tenemos la otra inclusión.
Conclusión, con la HI y el item c) probamos que {eλx , xeλx , · · · , xk−1 eλx , xk eλx } es una base
de Nu((D − λI)k+1 ). Entonces por inducción, se sigue que para todo k ∈ N, el conjunto {xi eλx }
con i = {0, 1, 2 · · · , k − 1}, es una base de Nu((D − λI)k ).
e) : Para probar que yp es una solución particular del sistema (D − λI)k [y] = g, basta ver que
(D − λI)k [yp ] = g.
Observar que como f k (x) ∈ C ∞ (R, C) entonces f ∈ C ∞ (R, C) y por lo tanto podemos usar el
item a) de la siguiente manera: sea x ∈ R entonces,

(D − λI)k [yp (x)] = (D − λI)k [f (x)eλx ] = f k (x)eλx = g(x)e−λx eλx = g(x),


donde reemplazamos f k (x) = g(x)e−λx .
Por lo tanto, probamos que (D − λI)k [yp ] = g y entonces yp es una solución particular del
sistema (D − λI)k [y] = g. 

En el próximo ejercicio, vamos a aplicar la Proposición 2.7.1 y lo que acabamos de demostrar


en el Ejercicio 2.27.
Ejercicio 2.28 e), f). Resolver las siguientes ecuaciones diferenciales:

y 00 − 2y 0 + y = (3 + 5x)e2x ,

(D − I)3 [y] = (3 + 5x)e2x .

100
2.7. Ecuaciones diferenciales. Operador derivación

Dem. e) : Observar que si D es el operador derivación, entonces


L[y] := y 00 − 2y 0 + y = (D2 − 2D + I)[y].
Por lo tanto, si p es el polinomio característico de L tenemos que p(x) = x2 − 2x + 1. Para aplicar
la Proposición 2.7.1, observar que las raíces de p son λ1 = λ2 = 1. Entonces p(x) = (x − 1)(x − 1) y
por esa misma proposición, tenemos que
L = (D − λ1 I)(D − λ2 I) = (D − I)(D − I) = (D − I)2 .
Por lo tanto, vamos resolver el sistema
(D − I)2 [y] = g,
donde g(x) = (3 + 5x)e2x . Como ya vimos, todas las soluciones del sistema a resolver ys tienen la
forma
ys = yh + yp ,
donde yh ∈ Nu((D − I)2 ) e yp es una solución particular.
Por el Ejercicio 2.27 c) tenemos que una base de Nu((D − I)2 ), es
BNu((D−I)2 ) = {ex , xex }
y, por el Ejercicio 2.27 d), tenemos que una posible solución particular es yp = f (x)ex , donde
f 2 (x) = f 00 (x) = g(x)e−x = (3 + 5x)e2x e−x = (3 + 5x)ex . Entonces, integrando, nos queda que
Z
f 0 (x) = (3 + 5x)ex = 3ex + 5ex (x − 1) = (−2 + 5x)ex ,

observar que no agregamos la constante de integración porque basta encontrar una solución
particular. Integrando nuevamente, tenemos que
Z
f (x) = (−2 + 5x)ex = −2ex + 5ex (x − 1) = (−7 + 5x)ex .

Por lo tanto
yp = f (x)ex = (−7 + 5x)ex ex = (−7 + 5x)e2x
y las soluciones de la ecuación diferencial son:
ys = αex + βxex + (−7 + 5x)e2x ,
con α, β ∈ C.
f ) : Vamos resolver el sistema
(D − I)3 [y] = g,
donde g(x) = (3 + 5x)e2x . Como ya vimos, todas las soluciones del sistema a resolver ys tienen la
forma
ys = yh + yp ,
donde yh ∈ Nu((D − I)3 ) e yp es una solución particular.
Por el Ejercicio 2.27 c) tenemos que una base de Nu((D − I)3 ), es
BNu((D−I)3 ) = {ex , xex , x2 ex }
y, por el Ejercicio 2.27 d), tenemos que una posible solución particular es yp = f (x)ex , donde
f 3 (x) = f 000 (x) = g(x)e−x = (3 + 5x)e2x e−x = (3 + 5x)ex .
Entonces, usando lo que hicimos en el item anterior, tenemos que f 0 (x) = (−7 + 5x)ex . Integrando
nuevamente, nos queda que f (x) = (−12 + 5x)ex . Por lo tanto yp = f (x)ex = (−12 + 5x)ex ex =
(−12 + 5x)e2x y las soluciones de la ecuación diferencial son:
ys = αex + βxex + γx2 ex + (−12 + 5x)e2x ,
con α, β, γ ∈ C. 

101
2. Transformaciones Lineales

Ejercicio 2.29. Sea V un K-espacio vectorial y sean L y A dos transformaciones lineales de V en V


que satisfacen las siguientes propiedades

i) L ◦ A = A ◦ L, es decir L y A conmutan.

ii) Nu(A ◦ L) es de dimensión finita.

Verificar que:

a) Nu(L) + Nu(A) ⊆ Nu(A ◦ L).

b) Si w ∈ Nu(A), entonces toda solución de la ecuación L(v) = w, pertence a Nu(A ◦ L).

c) Si w ∈ Nu(A) ∩ Im(L) y S es un subespacio tal que Nu(L) ⊕ S = Nu(A ◦ L), entonces existe
un único v ∈ S tal que L(v) = w.

d) Si además Nu(L) ∩ Nu(A) = {0V }, entonces

• Nu(A ◦ L) = Nu(A) ⊕ Nu(L),


• para cada w ∈ Nu(A) ∩ Im(L) existe un único v ∈ Nu(A) tal que L(v) = w.

Dem. a) : Sea x ∈ Nu(L) + Nu(A), entonces

x = x1 + x2 ,

con x1 ∈ Nu(L) y x2 ∈ Nu(A). Entonces

(A ◦ L)(x) = A(L(x)) = A(L(x1 + x2 )) = A(L(x1 ) + L(x2 )) = A(L(x1 )) + A(L(x2 ))

= A(L(x1 )) + L(A(x2 )) = A(0V ) + L(0V ) = 0V + 0V = 0V ,


donde usamos que x1 ∈ Nu(L), x2 ∈ Nu(A), que A y L conmutan y que A, L ∈ L(V). Por lo tanto,
x ∈ Nu(A ◦ L) y se sigue que Nu(L) + Nu(A) ⊆ Nu(A ◦ L).
b) : Sea v ∈ V, tal que L(v) = w, es decir v es una solución de la ecuación L(v) = w. Entonces

(A ◦ L)(v) = A(L(v)) = A(w) = 0V ,

donde usamos que w ∈ Nu(A). Entonces v ∈ Nu(A ◦ L).


c) : Como w ∈ Nu(A) ∩ Im(L), entonces w ∈ Im(L) y entonces existe un vector x ∈ V tal que
L(x) = w.
En el item b) vimos que, como w ∈ Nu(A) y vale que L(x) = w, entonces x ∈ Nu(A ◦ L). Como
Nu(L) ⊕ S = Nu(A ◦ L) y x ∈ Nu(A ◦ L), existen únicos z ∈ Nu(L) y v ∈ S, tales que x = z + v.
Entonces
w = L(x) = L(z + v) = L(z) + L(v) = 0V + L(v) = L(v),
porque z ∈ Nu(L).
Observar que v es único, porque si existe v 0 ∈ S tal que L(v 0 ) = w. Entonces, como

L(v) = w = L(v 0 ),

tenemos que
0V = L(v) − L(v 0 ) = L(v − v 0 ),
entonces v − v 0 ∈ Nu(L) y como S es un subespacio y v, v 0 ∈ S, también tenemos que v − v 0 ∈ S.
Es decir v − v 0 ∈ Nu(L) ∩ S = {0}. Entonces v = v 0 y v es único.
d) : Este item no es nada fácil. La guía nos recomienda leer la demostración del teorema de la
dimensión de transfomaciones lineales definidas en dominios de dimensión finita como ayuda, ver
Teorema 2.1.1.

102
2.7. Ecuaciones diferenciales. Operador derivación

Dicho esto, vamos a demostrar

Nu(A ◦ L) = Nu(A) ⊕ Nu(L).

Usando el item a), ya sabemos que Nu(A) ⊕ Nu(L) ⊆ Nu(A ◦ L). Sólo nos resta probar la otra
inclusión. Para eso vamos a usar fuertemente que Nu(A ◦ L) es de dimensión finita.
Observemos que como siempre vale que Nu(A) ⊆ Nu(A) ⊕ Nu(L) (¿por qué?) y ya probamos
que Nu(A) ⊕ Nu(L) ⊆ Nu(A ◦ L), tenemos que Nu(A) ⊆ Nu(A ◦ L). Entonces

dim(Nu(A)) ≤ dim(Nu(A ◦ L)),

por lo tanto Nu(A) también es de dimensión finita. Supongamos que dim(Nu(A)) = r, donde r es 0
ó un número natural. Vamos a dividir la prueba en dos casos, si r = 0 ó r > 0.
Caso r = 0
Si r = 0, es decir A es monomorfismo, en este caso Nu(L) = Nu(A ◦ L). Es fácil ver que
Nu(L) ⊆ Nu(A ◦ L). Recíprocamente, si x ∈ Nu(A ◦ L) entonces A(L(x)) = 0V , entonces
L(x) ∈ Nu(A) = {0V }, entonces L(x) = 0V y x ∈ Nu(L). Por lo tanto, Nu(L) = Nu(A ◦ L)
y tenemos que
Nu(A ◦ L) = Nu(L) = {0V } ⊕ Nu(L) = Nu(A) ⊕ Nu(L).
Entonces, para el caso r = 0, lo que queremos demostrar se cumple de manera trivial.
Caso r > 0
Supongamos que r > 0 (y finito). Sea {v1 , v2 , · · · , vr } una base de Nu(A). La clave del ejercicio
es, usando un poco de imaginación y la prueba del teorema de la dimensión, probar que

{L(v1 ), L(v2 ), · · · , L(vr )}

también es una base de Nu(A).


Veamos eso. Por un lado tenemos que, para i = 1, 2, · · · , r

L(vi ) ∈ Nu(A),

pues A(L(vi )) = (A ◦ L)(vi ) = (L ◦ A)(vi ) = L(A(vi )) = L(0V ) = 0V , donde usamos que, como
{v1 , v2 , · · · , vr } es una base de Nu(A), entonces v1 , v2 , · · · , vr ∈ Nu(A).
Veamos que el conjunto {L(v1 ), L(v2 ), · · · , L(vr )} es LI. Sean a1 , a2 , · · · , ar ∈ K tales que

a1 L(v1 ) + a2 L(v2 ) + · · · + ar L(vr ) = 0V .

Entonces, usando que L es TL, tenemos que

L(a1 v1 + a2 v2 + · · · + ar vr ) = 0V ,

entonces a1 v1 + a2 v2 + · · · + ar vr ∈ Nu(L). Además, como a1 v1 + a2 v2 + · · · + ar vr es una CL de


elementos de Nu(A), tenemos que también a1 v1 + a2 v2 + · · · + ar vr ∈ Nu(A). Por lo tanto

a1 v1 + a2 v2 + · · · + ar vr ∈ Nu(L) ∩ Nu(A) = {0},

donde usamos la hipótesis. Entonces

a1 v1 + a2 v2 + · · · + ar vr = 0V ,
y tenemos un CL de los vectores v1 , v2 , · · · , vr igualada al elemento neutro de V. Entonces como
{v1 , v2 , · · · , vr } es LI (porque es una base) se sigue que a1 = a2 = · · · = ar = 0. Entonces el
conjunto {L(v1 ), L(v2 ), · · · , L(vr )} es LI.
Probamos que el conjunto {L(v1 ), L(v2 ), · · · , L(vr )} tiene r vectores LI que pertenecen a Nu(A),
entonces como dim(Nu(A)) = r, tenemos que {L(v1 ), L(v2 ), · · · , L(vr )} es una base de Nu(A).
Ahora sí, estamos listos para probar la otra inclusión que nos quedaba, es decir, veamos que
Nu(A ◦ L) ⊆ Nu(A) ⊕ Nu(L).

103
2. Transformaciones Lineales

Sea x ∈ Nu(A ◦ L) entonces (A ◦ L)(x) = A(L(x)) = 0V . Entonces, L(x) ∈ Nu(A). Como ya


vimos que {L(v1 ), L(v2 ), · · · , L(vr )} es una base de Nu(A), existen b1 , b2 , · · · , br ∈ K tales que

L(x) = b1 L(v1 ) + b2 L(v2 ) + · · · + br L(vr ).

Entonces, como L es una TL, se sigue que

L(x) = L(b1 v1 + b2 v2 + · · · + br vr ).

Pasando de miembro y usando nuevamente que L es una TL, nos queda que

0V = L(x) − L(b1 v1 + b2 v2 + · · · + br vr ) = L(x − b1 v1 − b2 v2 − · · · − br vr ),

entonces, x − b1 v1 − b2 v2 − · · · − br vr ∈ Nu(L).
Observar que

x = [b1 v1 + b2 v2 + · · · + br vr ] + [x − b1 v1 − b2 v2 − · · · − br vr ].

Donde x1 := b1 v1 + b2 v2 + · · · + br vr ∈ Nu(A), pues x1 es una CL de vectores de Nu(A) y (acabamos


de ver que) x2 := x − b1 v1 − b2 v2 − · · · − br vr ∈ Nu(L). Entonces tenemos que

x = x1 + x2 ,

con x1 ∈ Nu(A) y x2 ∈ Nu(L). Por lo tanto x ∈ Nu(A)⊕Nu(L), y tenemos que Nu(A◦L) ⊆ Nu(A)⊕
Nu(L). Como ya habíamos probado la otra inclusión, concluimos que Nu(A ◦ L) = Nu(A) ⊕ Nu(L),
como queríamos ver.
Finalmente, como probamos que Nu(A ◦ L) = Nu(L) ⊕ Nu(A), usando el item c) es inmediato
ver que para cada w ∈ Nu(A) ∩ Im(L) existe un único v ∈ Nu(A) tal que L(v) = w. La prueba es
idéntica al item c) tomando S = Nu(A). 
Nota: Usando la hipótesis Nu(A) ∩ Nu(L) = {0}, observar que para demostrar el ítem
d) sólo usamos que dim(Nu(A)) es finita y bastó con eso. Es decir si dim(Nu(L)) no es finita
pero dim(Nu(A)) sí es finita (por lo que dim(Nu(A ◦ L)) tampoco es finita) sigue valiendo que
Nu(A ◦ L) = Nu(A) ⊕ Nu(L). Con argumentos muy parecidos a los que usamos para demostrar el
ítem d), si pedimos que dim(Nu(L)) es finita pero dim(Nu(A)) es no finita también sigue valiendo
que Nu(A ◦ L) = Nu(A) ⊕ Nu(L). El problema ocurre cuando dim(Nu(A)) y dim(Nu(L)) son ambas
no finitas (y por ende también dim(Nu(A ◦ L)) es no finita), en ese caso no tiene porque ser cierto
que Nu(A ◦ L) = Nu(A) ⊕ Nu(L).

Antes de pasar al próximo ejercicio, repasemos una propiedad que vimos en la prueba de la
Proposición 2.7.1, si α, β ∈ C y D es el operador diferencial, entonces

(D − αI)k ◦ (D − βI)n = (D − βI)n ◦ (D − αI)k , (2.5)


para cualquier k, n ∈ N. Es decir, para cualquier k, n ∈ N, (D − αI)k y (D − βI)n conmutan. La
prueba de esta propiedad es muy simple y usa el princio de inducción, se sugiere hacerla de ejercicio.

Vamos a usar el Ejercicio 2.29 para resolver el próximo ejercicio.


Ejercicio 2.30. Se considera el operador diferencial L : C ∞ (R) → C ∞ (R) definido por

L := (D − 2I)(D − 4I)(D + 3I)2 ,

y la ecuación diferencial L[y] = p, donde p(x) = 5x3 e−3x .

a) Hallar una base BL de Nu(L).

b) Comprobar que el operador A = (D + 3I)4 , es un aniquilador de p: A[p] = 0.

104
2.7. Ecuaciones diferenciales. Operador derivación

c) Hallar una base BAL de Nu(A ◦ L) que contenga a la base BL .


d) Comprobar que existe una solución particular yp de la ecuación L[y] = p perteneciente al
subespacio gen(BAL \ BL ).
e) Hallar la solución general de la ecuación diferencial L[y] = p.

Dem. a) : Para resolver este ejercicio vamos a usar el Ejercicio 2.27 b), c) y el Ejercicio 2.29.
Llamemos R := (D − 2I), S := (D − 4I) y T := (D + 3I)2 . Entonces,

L = R ◦ S ◦ T.

Por el Ejercicio 2.27 b), c) tenemos que BR = {e2x }, BS = {e4x } y BT = {e−3x , xe−3x } son
bases de Nu(R), Nu(S) y Nu(T ), respectivamente.
Para encontrar una base de Nu(L), vamos a usar el Ejercicio 2.29 c) dos veces.
Primero, usando la propiedad (2.5), es fácil ver que S ◦ T = T ◦ S, por otra parte, es claro que

Nu(S) ∩ Nu(T ) = gen{e4x } ∩ gen{e−3x , xe−3x } = {0}.

Además, Nu(S) y Nu(T ) son de dimensión finita. Entonces podemos usar el Ejercicio 2.29 d) y
por lo tanto, tenemos que

Nu(S ◦ T ) = Nu(S) ⊕ Nu(T ) = gen{e4x , e−3x , xe−3x }.

Segundo, usando nuevamente la propiedad (2.5), es fácil ver que R ◦ (S ◦ T ) = (S ◦ T ) ◦ R, por


otra parte, es claro que

Nu(R) ∩ Nu(S ◦ T ) = gen{e2x } ∩ gen{e4x , e−3x , xe−3x } = {0}.

Además, Nu(R) y Nu(S ◦ T ) son de dimensión finita. Entonces podemos usar nuevamente el
Ejercicio 2.29d) y por lo tanto, tenemos que

Nu(L) = Nu(R ◦ S ◦ T ) = Nu(R) ⊕ Nu(S ◦ T ) = gen{e2x } ⊕ gen{e4x , e−3x , xe−3x } =

= gen{e2x , e4x , e−3x , xe−3x }.


Por lo tanto,
BL = {e2x , e4x , e−3x , xe−3x }.
b) : Llamemos f (x) := 5x3 , entonces claramente f ∈ C ∞ (R) y p(x) = f (x)e−3x . Sea x ∈ R,
entonces,

A[p(x)] = (D + 3I)4 [p(x)] = (D − (−3)I)4 [5x3 e−3x ] = (D − (−3)I)4 [f (x)e−3x ] = f 4 (x)e−3x = 0,

donde usamos el Ejercicio 2.27 a) y el hecho de que f 4 (x) = (5x3 )0000 = (15x2 )000 = (30x)00 =
(30)0 = 0. Por lo tanto A[p] = 0, donde 0 denota la transformación lineal nula.
c) : Observar que

A ◦ L = (D + 3I)4 (D − 2I)(D − 4I)(D + 3I)2 = (D − 2I)(D − 4I)(D + 3I)6 ,

donde usamos que por la propiedad (2.5), todos los operadores involucrados conmutan.
Si llamamos T̃ := (D + 3I)6 , con la misma notación que el item a), tenemos que

A ◦ L = R ◦ S ◦ T̃

y, por el Ejercicio 2.27 c) tenemos que

Nu(T̃ ) = gen{e−3x , xe−3x , x2 e−3x , x3 e−3x , x4 e−3x , x5 e−3x }.

Es claro que Nu(S) ◦ Nu(T̃ ) = {0} (verificarlo) y ambos subespacios son de dimensión finita.

105
2. Transformaciones Lineales

Por lo tanto, de la misma manera que lo hicimos en el item a), aplicando el Ejercicio 2.29 d),
se sigue que

Nu(A ◦ L) = Nu(R ◦ S ◦ T̃ ) = Nu(R) ⊕ Nu(S ◦ T̃ ) = Nu(R) ⊕ [Nu(S) ⊕ Nu(T̃ )] =

= gen{e2x } ⊕ gen{e4x , e−3x , xe−3x , x2 e−3x , x3 e−3x , x4 e−3x , x5 e−3x } =


= gen{e2x , e4x , e−3x , xe−3x , x2 e−3x , x3 e−3x , x4 e−3x , x5 e−3x }.
La base BAL = {e2x , e4x , e−3x , xe−3x , x2 e−3x , x3 e−3x , x4 e−3x , x5 e−3x } de Nu(A ◦ L), contiene
a la base BL .
d) : Primero, observemos que

BAL \ BL = {y ∈ BAL : y 6∈ BL } = {x2 e−3x , x3 e−3x , x4 e−3x , x5 e−3x }.

Entonces,
gen(BAL \ BL ) = gen{x2 e−3x , x3 e−3x , x4 e−3x , x5 e−3x }.
Vamos a comprobar que existe una solución particular yp perteneciente al subespacio
gen(BAL \ BL ). Para eso, sea y ∈ gen(BAL \ BL ), entonces

y(x) = ax2 e−3x + bx3 e−3x + cx4 e−3x + dx5 e−3x = (ax2 + bx3 + cx4 + dx5 )e−3x ,

para ciertos a, b, c, d ∈ C. Entonces, con la notación del item a) y usando el Ejercicio 2.27 a) con
f (x) = ax2 + bx3 + cx4 + dx5 , tenemos que y(x) = f (x)e−3x y

T [y(x)] = (D + 3I)2 [y(x)] = (D − (−3I))2 [f (x)e−3x ] = f 00 (x)e−3x =

= (ax2 + bx3 + cx4 + dx5 )00 e−3x = (2ax + 3bx2 + 4cx3 + 5dx4 )0 e−3x =
= (2a + 6bx + 12cx2 + 20dx3 )e−3x .
Ahora, llamemos g(x) := 2a + 6bx + 12cx2 + 20dx3 , entonces T [y(x)] = g(x)e−3x . Entonces

(S ◦ T )[y(x)] = S(T [y(x)]) = S[g(x)e−3x ] =

d[g(x)e−3x ]
= − 4g(x)e−3x = g 0 (x)e−3x − 3g(x)e−3x − 4g(x)e−3x =
dx
= (−7g(x) + g 0 (x))e−3x = −7g(x)e−3x + (6b + 24cx + 60dx2 )e−3x =
= [−14a + 6b + (−42b + 24c)x + (−84c + 60d)x2 − 140dx3 ]e−3x .
Finalmente, llamemos h(x) := [−14a + 6b + (−42b + 24c)x + (−84c + 60d)x2 − 140dx3 ], entonces
(S ◦ T )[y(x)] = h(x)e−3x . Entonces

L[y(x)] = (R ◦ S ◦ T )[y(x)] = R[h(x)e−3x ] =

d(h(x)e−3x )
= − 2h(x)e−3x = h0 (x)e−3x − 3h(x)e−3x − 2h(x)e−3x =
dx
= [−5h(x) + h0 (x)]e−3x =
= [70a − 72b + 24c + (210b − 288c + 120d)x + (420c − 720d)x2 + 700x3 ]e−3x .
Como, para todo x ∈ R, tenemos que

L[y(x)] = [70a − 72b + 24c + (210b − 288c + 120d)x + (420c − 720d)x2 + 700dx3 ]e−3x = 5x3 e−3x ,

simplificando el término e−3x (que siempre es positivo), se sigue que

70a − 72b + 24c + (210b − 288c + 120d)x + (420c − 720d)x2 + 700dx3 = 5x3 .

106
2.7. Ecuaciones diferenciales. Operador derivación

Entonces

700d = 5, 420c − 720d = 0, 210b − 288c + 120d = 0, 70a − 72b + 24c = 0.

Entonces, d = 5
700 = 140 ;
1
c= 72
42 d = 72
42×140 = 245 ;
3
b= 288c−120d
210 = 1225 ;
107
a= 72b−24c
70 = 2872
42875 . Por
lo tanto
2872 2 107 3 3 4 1 5 −3x
yp = ( x + x + x + x )e ,
42875 1225 245 140
es una solución particular perteneciente al subespacio gen(BAL \ BL ). Se recomienda revisar bien
las cuentas porque es altamente probable que alguna cuenta este mal.
e) : La solución general ys tiene la forma ys = yh + yp , donde yh ∈ Nu(L) e yp es una solución
particular. Usando los item a) y d) tenemos que,

2872 2 107 3 3 4 1 5 −3x


ys = αe2x + βe4x + γe−3x + δxe−3x + ( x + x + x + x )e ,
42875 1225 245 140
con α, β, γ, δ ∈ C. 

Observaciones y repaso de algunas propiedades


Antes de resolver el siguiente ejercicio, algunas observaciones:

Con lo que vimos en el Ejercicio 2.30, es fácil ver que si tenemos el operador

L := (D − λ1 )k1 (D − λ2 )k2 · · · (D − λn )kn

donde k1 , · · · , kn ∈ N y λ1 , · · · , λn ∈ C todos distintos entre sí, entonces:

Nu(L) = {y ∈ C ∞ (R, C) : L[y] = 0}


= {y ∈ C ∞ (R, C) : (D − λ1 )k1 [y] = 0} ⊕ · · · ⊕ {y ∈ C ∞ (R, C) : (D − λn )kn [y] = 0}
= Nu((D − λ1 )k1 ) ⊕ · · · ⊕ Nu((D − λn )kn ).
(2.6)

Es decir, la solución del sistema homogéneo L[y] = 0 se puede obtener factorizando el operador
L como L = (D −λ1 )k1 (D −λ2 )k2 · · · (D −λn )kn donde k1 , · · · , kn ∈ N y λ1 , · · · , λn ∈ C todas
distintas entre sí (es decir las raíces del polinomio característico asociado a L se cuentan una
vez). Luego, la solución del sistema homogéneo L[y] = 0, se obtiene sumando las soluciones
de cada sistema homogéneo (D − λi )ki [y] = 0.

Recordemos que si z = a + ib ∈ C (donde a, b ∈ R) entonces

ez = ea+ib = ea (cos(b) + i sin(b)). (2.7)

Recordemos que en el Ejercicio 1.3 se probó que, si estamos trabajando en un cuerpo


complejo, dados a, b ∈ R, se sigue que

gen{eax cos(bx), eax sin(bx)} = gen{e(a+ib)x , e(a−ib)x }. (2.8)

Vamos a resolver un ejemplo para aplicar estas propiedades.

107
2. Transformaciones Lineales

Ejemplo 2.e. Obtener una base de soluciones del sistema

L[y] = y (6) − 9y (5) + 25y (4) − 17y (3) = 0.

El polinomio característico asociado a L es

p(x) = x6 − 9x5 + 25x4 − 17x3 .

Las raíces de p son λ1 = 0 (triple), λ2 = 4 + i, λ3 = 4 − i, λ4 = 1. Entonces,

p(x) = x3 (x − (4 + i))(x − (4 − i))(x + 1).

Por la Proposición 2.7.1, L se factoriza como

L = D3 (D − (4 + i)I)(D − (4 − i)I)(D − I).

Por lo tanto, usando el Ejercicio 2.27 tenemos que:

Nu(D3 ) = Nu(D − 0I)3 = gen{1, x, x2 }, Nu((D − I)) = gen{ex },

Nu((D − (4 + i)I)) = gen{e(4+i)x }, Nu((D − (4 − i)I)) = gen{e(4−i)x }.


Por la propiedad (2.8), tenemos que

gen{e(4+i)x , e(4−i)x } = gen{e4x cos(x), e4x sin(x))}.

Entonces, por la propiedad (2.6), se sigue que

Nu(L) = gen{1, x, x2 } ⊕ gen{ex } ⊕ gen{e4x cos(x), e4x sin(x)} =

= gen{1, x, x2 , ex , e4x cos(x), e4x sin(x)}.


Por lo tanto, una base de soluciones del sistema es

BL = {1, x, x2 , ex , e4x cos(x), e4x sin(x)}.

Ahora sí, con todas las propiedades que vimos vamos a poder resolver los ejercicios que restan.
Ejercicio 2.33 e). Construir una ecuación diferencial

L[y] = y (n) + an−1 y (n−1) + · · · + a1 y 0 + a0 y = 0,

con a0 , a1 , · · · , an−1 ∈ R, del menor orden posible que tenga como soluciones:
y1 (t) = t, y2 (t) = cos(3t), y3 (t) = e−t .

Dem. e) : Para resolver este item vamos a usar el Ejercicio 2.27 y las propiedades (2.6), (2.7) y
(2.8).
Observar que, si y1 (t) = t = te0t es una solución de L[y] = 0, es porque λ1 = 0 es una raíz del
polinomio característico asociado a L. Además, como t multiplica a e0t , esa raíz es doble.
Además, si y2 (t) = cos(3t) = e0t cos(3t), es una solución de L[y] = 0, es porque λ1 = 3i
es una raíz del polinomio característico asociado a L. Como a0 , a1 , · · · , an−1 ∈ R, el polinomio
característico asociado a L tendrá coeficientes reales, entonces si λ3 = 3i es una raíz, su conjugado
λ4 = −3i también es una raíz.
Finalmente, si y3 (t) = e−t es una solución de L[y] = 0, es porque λ5 = −1 es una raíz del
polinomio característico asociado a L.
De esta manera, el polinomio mónico p de menor grado cuyas raíces son {0 (doble) , 3i, −3i, −1}
es
p(x) = x2 (x − 3i)(x + 3i)(x + 1).

108
2.7. Ecuaciones diferenciales. Operador derivación

Entonces, por la Proposición 2.7.1, podemos factorizar al operador L como

L = (D − (0)I)2 (D − 3iI)(D + 3iI)(D + I) = D5 + D4 + 9D3 + 9D2 .

Entonces y1 , y2 , y3 son soluciones del sistema

L[y] = (D5 + D4 + 9D3 + 9D2 )[y] = y (5) + y (4) + 9y (3) + 9y 00 = 0.


Es más, una base de soluciones de ese sistema es

BL = {1, t, cos(3t), sin(3t), e−t }.

109
CAPÍTULO 3

Espacios Euclídeos

En esta unidad, comenzaremos con el estudio de K-espacios vectoriales con producto interno.
También, vamos a generalizar los conceptos geométricos de distancia, ortogonalidad y ángulo
conocidas en R2 y en R3 , a otros espacios vectoriales.

3.1. Producto interno y propiedades

Sea V un K-espacio vectorial, K = R ó K = C. Un producto interno en V es una función


h ·, · i : V × V → K, tal que:

i) Para cada λ ∈ K y para cada x, y, z ∈ V


1. h x + y, z i = h x, z i + h y, z i ,
2. h λx, y i = λ h x, y i .
ii) h x, y i = h y, x i, para todo x, y ∈ V.
iii) h x, x i > 0 si x 6= 0.
Un K-espacio vectorial con producto interno h ·, · i se llama espacio euclídeo y lo denotaremos
por (V, h ·, · i).

Observar que si (V, h ·, · i) es un espacio euclídeo entonces:

h x, λy i = h λy, x i = λ h y, x i = λ h y, x i = λ h x, y i ,
donde usamos i.2) y ii) de la definición de producto interno y que si z, w ∈ C entonces
zw = z w.

h x, x i ≥ 0 para todo x ∈ V y h x, x i = 0 si y sólo si x = 0V .


En el Ejercicio 1.I vimos que 0V = 0·0V . Entonces h 0V , 0V i = h 0 · 0V , 0V i = 0 h 0V , 0V i = 0,
donde usamos i.2) de la definición de producto interno. Entonces, por iii), se sigue que
h x, x i ≥ 0 para todo x ∈ V. Recíprocamente, como h x, x i ≥ 0 para todo x ∈ V, si h x, x i = 0
entonces x = 0V , donde usamos nuevamente iii).

Veamos algunos ejemplos de funciones que definen productos internos en los K-espacios
vectoriales correspondientes.
Ejercicio 3.A. Demostrar que las siguientes funciones definen productos internos en los K-espacios
vectoriales indicados:

111
3. Espacios Euclídeos

a) h ·, · i : C2 × C2 → C definida por
h x, y i = y ∗ Ax,
2
 
i
donde A = , define un producto interno en C2 (visto como C-espacio vectorial).
−i 2

b) h ·, · i : C([0, 1], R) × C([0, 1], R) → R definida por


Z 1
h f, g i = f (t) g(t)dt,
0

define un producto interno en C([0, 1], R).

c) h ·, · i : R2 [x] × R2 [x] → R definida por

h p, q i = p(0)q(0) + p(1)q(1) + p(2)q(2),

define un producto interno en R2 [x].

d) h ·, · i : C2R × C2R → R definida por

h x, y i = Re(y ∗ x)

define un producto interno en C2 como R-espacio vectorial.

Dem. a): Veamos que la función h ·, · i cumple con los axiomas del producto interno.

i) Para cada λ ∈ C y para cada x, y, z ∈ C2 , tenemos que

1. h x + y, z i = z ∗ A(x + y) = z ∗ Ax + z ∗ Ay = h x, z i + h y, z i .
2. h λx, y i = y ∗ A(λx) = λy ∗ Ax = λ h x, y i .

Observar que los items i.1) y i.2) valen para cualquier matriz A.

2 i
 
ii) Observar que A∗ = AT = = A. Entonces, para todo x, y ∈ C2 ,
−i 2

h x, y i = y ∗ Ax = y ∗ A∗ x = (x∗ Ay)∗ = x∗ Ay = h y, x i.

Donde usamos que como x∗ Ay ∈ C entonces (x∗ Ay)T = (x∗ Ay) y entonces (x∗ Ay)∗ =
(x∗ Ay)T = (x∗ Ay).
 
x1
iii) Sea x = ∈ C2 entonces
x2

2 2x1 + ix2
     
i x1
h x, x i = x∗ Ax = [x1 x2 ] = [x1 x2 ] =
−i 2 x2 −ix1 + 2x2

= 2x1 x1 + ix1 x2 − ix2 x1 + 2x2 x2 = [x1 x1 + ix1 x2 − ix2 x1 + x2 x2 ] + x1 x1 + x2 x2 =


(x1 + ix2 )(x1 + ix2 ) + x1 x1 + x2 x2 = |x1 + ix2 |2 + |x1 |2 + |x2 |2 .
Entonces, como |x1 + ix2 |2 ≥ 0, |x1 |2 ≥ 0 y |x2 |2 ≥ 0, tenemos que h x, x i ≥ 0, para todo
x ∈ C2 . Además, si h x, x i = 0 entonces |x1 + ix2 |2 = 0,|x1 |2 = 0 y |x2 |2 = 0, entonces
0
x1 = x2 = 0. Por lo tanto, h x, x i > 0 si y sólo si x 6= y se cumple iii).
0

b): Veamos que la función h ·, · i cumple con los axiomas del producto interno.

112
3.1. Producto interno y propiedades

i) Para cada λ ∈ R y para cada f, g, h ∈ C([0, 1], R), tenemos que


R1 R1 R1
1. h f + g, h i = 0 (f + g)(t) h(t)dt = 0 (f (t) + g(t)) h(t)dt = 0 (f (t)h(t) + g(t)h(t))dt =
R1 R1
0
f (t) h(t)dt + 0 g(t) h(t)dt = h f, h i + h g, h i .
R1 R1 R1
2. h λf, g i = 0 (λf )(t) g(t)dt = 0 λf (t) g(t)dt = λ 0 f (t) g(t)dt = λ h f, g i .
ii) Para cada f, g ∈ C([0, 1], R), tenemos que
Z 1 Z 1
h f, g i = f (t) g(t)dt = g(t) f (t)dt = h g, f i .
0 0

iii) Sea f ∈ C([0, 1], R), entonces, como f (t)2 ≥ 0 para todo t ∈ [0, 1], se sigue que
Z 1
h f, f i = f (t)2 dt ≥ 0.
0
R1
Ahora, supongamos que h f, f i = 0 f (t) dt = 0. Si f 6= 0, entonces existe t0 ∈ [0, 1] tal
2

que f 2 (t0 ) > 0. Como f es continua, f 2 también es continua. Por definición de continuidad,
como f 2 (t0 ) > 0, existe un entorno alrededor de t0 tal que f 2 es positiva en los puntos de ese
entorno. Es decir, si llamamos  := f (t20 ) , entonces existe δ > 0 tal que si |t − t0 | < δ entonces
|f 2 (t) − f 2 (t0 )| < . Por lo tanto, si |t − t0 | < δ, entonces
f 2 (t0 )
f 2 (t) > f 2 (t0 ) −  = .
2
Entonces
Z 1 Z t0 −δ Z t0 +δ Z 1
h f, f i = f 2 (t)dt = f 2 (t)dt + f 2 (t)dt + f 2 (t)dt ≥
0 0 t0 −δ t0 +δ

t0 +δ t0 +δ
f 2 (t0 ) f 2 (t0 )
Z Z
f (t)dt ≥
2
dt = (t0 + δ − (t0 − δ)) = f 2 (t0 )δ > 0.
t0 −δ t0 −δ 2 2
Lo cual es absurdo, porque h f, f i = 0. Entonces h f, f i = 0 si y sólo si f = 0 o
equivalentemente, h f, f i > 0 si y sólo si f 6= 0 y se cumple iii).
c): Veamos que la función h ·, · i cumple con los axiomas del producto interno.

i) Para cada λ ∈ R y para cada p, q, r ∈ R2 [x] tenemos que


1. h p + q, r i = (p + q)(0)r(0) + (p + q)(1)r(1) + (p + q)(2)r(2) = (p(0) + q(0))r(0) + (p(1) +
q(1))r(1) + (p(2) + q(2))r(2) = [p(0)r(0) + p(1)r(1) + p(2)r(2)] + [q(0)r(0) + q(1)r(1) +
q(2)r(2)] = h p, r i + h q, r i .
2. h λp, q i = (λp)(0)r(0) + (λp)(1)r(1) + (λp)(2)r(2) = λp(0)r(0) + λp(1)r(1) + λp(2)r(2) =
λ h p, q i .
ii) Para cada p, q ∈ R2 [x] tenemos que
h p, q i = p(0)q(0) + p(1)q(1) + p(2)q(2) = q(0)p(0) + q(1)p(1) + q(2)p(2) = h q, p i .

iii) Sea p ∈ R2 [x] entonces, h p, p i = p(0)2 + p(1)2 + p(2)2 ≥ 0. Por otra parte, si
h p, p i = p(0)2 + p(1)2 + p(2)2 = 0,
como p(0)2 ≥ 0, p(1)2 ≥ 0 y p(2)2 ≥ 0, tenemos que p(0) = p(1) = p(2) = 0. Es decir, el
polinomio p tiene 3 raíces. Como p ∈ R2 [x], por el Teorema Fundamental del Álgebra, p tiene
2 raíces ó p = 0. Como acabamos de ver que p tiene 3 raíces, se sigue que p = 0.
Por lo tanto h p, p i > 0 si y sólo si p 6= 0 y se cumple iii).

113
3. Espacios Euclídeos

d): Veamos que la función h ·, · i cumple con los axiomas del producto interno.

i) Para cada λ ∈ R y para cada x, y ∈ C2 , tenemos que

1. h x + y, z i = Re(z ∗ (x + y)) = Re(z ∗ x + z ∗ y) = Re(z ∗ x) + Re(z ∗ y) = h x, z i + h y, z i .


2. h λx, y i = Re(y ∗ (λx)) = Re(λy ∗ x) = λ Re(y ∗ x) = λ h x, y i .

ii) Para todo x, y ∈ C2 ,

h x, y i = Re(y ∗ x) = Re((y ∗ x)T ) = Re(xT y) = Re(xT y) = Re(xT y) = Re(x∗ y) = h y, x i.

Donde usamos que como y ∗ x ∈ C entonces (y ∗ x)T = y ∗ x y además, Re(z) = Re(z), para
todo z ∈ C.
 
x1
iii) Sea x = ∈ C2 entonces
x2

h x, x i = Re(x∗ x) = Re(|x1 |2 + |x2 |2 ) = |x1 |2 + |x2 |2 .

Entonces, como |x1 |2 ≥ 0 y |x2 |2 ≥ 0 tenemos que h x, x i ≥ 0 para todo x ∈ C2 . Además, si


h x, x i = 0. Entonces |x1 | = |x2 | = 0, entonces x1 = x2 = 0. Por lo tanto, h x, x i > 0 si y sólo
0

si x 6= y se cumple iii).
0


Ejercicio 3.B. Justificar por qué las siguientes funciones NO definen productos internos.

a) La función φ : C2 × C2 → C definida por

φ(x, y) = x∗ Ay,

1 1
 
donde A = .
1 1

b) La función φ : C([0, 1], R) × C([0, 1], R) → R definida por


Z 1
φ(f, g) = (t − 2) f (t) g(t)dt.
0

c) La función φ : R2 [x] × R2 [x] → R definida por

φ(p, q) = p(0)q(0) + p(1)q(1).

Dem. Observar que las funciones φ de los items a), b) y c) cumplen los ítems i.1), i.2) y ii) de la
definición de producto interno. El problema va a estar en el hecho de que ninguna cumple el item
iii).
1
 
a) : Sea x = ∈ C2 , entonces
−1

1 1 1
   
φ(x, x) = [1 − 1]T = 0,
1 1 −1

0
 
pero x 6= . Por lo tanto φ no cumple el axioma iii) de la definición de producto interno.
0

114
3.1. Producto interno y propiedades

b) : Sea f (t) = 1 ∈ C([0, 1], R). Entonces


1
t2 3
Z
φ(f, f ) = (t − 2) 1dt = ( − 2t)|10 = − < 0.
0 2 2

Por lo tanto φ no cumple el axioma iii) de la definición de producto interno.


c) Sea p(x) = x(x − 1) ∈ R2 [x], entonces p(0) = p(1) = 0. Entonces

φ(p, p) = p(0)2 + p(1)2 = 0,

pero p 6= 0 (el polinomio nulo). Por lo tanto φ no cumple el axioma iii) de la definición de producto
interno. 

Ejercicio 3.1. Sea (V, h ·, · i) un C-espacio euclídeo finito dimensional y sea v0 ∈ V \ {0V } un vector
arbitrario pero fijo.
a) Comprobar que la aplicación φ : V → C definida por

φ(v) := h v, v0 i

es una funcional lineal de V. Describir su núcleo e indicar la dimensión del mismo. Observar
que
V = Nu(φ) ⊕ gen{v0 }.

b) Explicar por qué la aplicación ψ : V → C definida por ψ(v) := h v0 , v i no es una funcional


lineal.

Dem. a) : Usando los items i.1) y i.2) de la definición de producto interno, tenemos que, dados
u, v ∈ V y λ ∈ C,

φ(u + v) = h u + v, v0 i = h u, v0 i + h v, v0 i = φ(u) + φ(v),

φ(λu) = h λu, v0 i = λ h u, v0 i = λφ(u).


Por lo tanto φ es una funcional lineal de V.
Veamos que V = Nu(φ) ⊕ gen{v0 }. Primero, veamos que Nu(φ) ∩ gen{v0 } = {0V }. Sea
v ∈ Nu(φ) ∩ gen{v0 } entonces, v ∈ Nu(φ) y v ∈ gen{v0 }. Como v ∈ Nu(φ), tenemos que φ(v) = 0
y como v ∈ gen{v0 } tenemos que v = αv0 para cierto α ∈ C. Entonces

0 = φ(v) = h v, v0 i = h αv0 , v0 i = α h v0 , v0 i .

Usando iii) de la definición de producto interno, tenemos que h v0 , v0 i > 0, pues v0 6= 0. Entonces
se sigue que α = 0, entonces v = αv0 = 0v0 = 0V , y probamos que Nu(φ) ∩ gen{v0 } = {0V }.
Veamos ahora, que V = Nu(φ) ⊕ gen{v0 }. Sea v ∈ V, entonces, como φ(v) ∈ C y φ(v0 ) 6= 0
φ(v)
(recién vimos que v0 6∈ Nu(φ)), podemos definir el siguiente escalar complejo: α := φ(v 0)
∈ C.
Entonces, es fácil ver que
v = [v − αv0 ] + αv0 .
Entonces, usando que φ es una funcional lineal y la definición de α, tenemos que

φ(v)
φ(v − αv0 ) = φ(v) − αφ(v0 ) = φ(v) − φ(v0 ) = 0.
φ(v0 )

Por lo tanto, v−αv0 ∈ Nu(φ). Entonces v = v1 +v2 con v1 := v−αv0 ∈ Nu(φ) y v2 := αv0 ∈ gen{v0 }.
Por lo tanto v ∈ Nu(φ) ⊕ gen{v0 } y se sigue que

V = Nu(φ) ⊕ gen{v0 }.

115
3. Espacios Euclídeos

Observar que para hacer estas cuentas no usamos que V es de dimensión finita.
Finalmente, ahora sí, como V es de dimensión finita, podemos aplicar el Teorema de la dimensión
de la suma de subespacios y entonces,

dim(Nu(φ)) = dim(V) − dim(gen{v0 }) = dim(V) − 1.

Notar que

Nu(φ) = {v ∈ V : φ(v) = 0} = {v ∈ V : h v, v0 i = 0} = gen{v0 }⊥ ,

para la última igualdad usamos la definición de subespacio ortogonal del conjunto gen{v0 } que
veremos con detalle en la Sección 3.4.
b) Tomemos i ∈ C, entonces usando los items i.1) y ii) de la definición de producto interno,
tenemos que
ψ(iv0 ) = h v0 , iv0 i = i h v0 , v0 i = −iψ(v0 ) 6= iψ(v0 ),
donde usamos que ψ(v0 ) = h v0 , v0 i > 0 para afirmar que −iψ(v0 ) 6= iψ(v0 ). Por lo tanto, ψ no es
una funcional lineal, ya que existe un escalar α ∈ C tal que ψ(αv0 ) 6= αψ(v0 ). 

3.2. Espacios normados

Una norma en un K-espacio vectorial V es una función k · k : V → R+ , tal que:

i) kxk = 0 si y sólo si x = 0V .
ii) kλxk = |λ| kxk, para todo x ∈ V, λ ∈ C.
iii) kx + yk ≤ kxk + kyk, para todo x, y ∈ V (desigualdad triangular).

El par (V, k · k) se llama espacio normado. Si (V, h ·, · i) es un K-espacio euclídeo, la función


1/2
kxk := h x, x i

define una norma en V. Dicha norma se llama la norma inducida por el producto interno.

Se deja como ejercicio verificar que si (V, h ·, · i) es un K-espacio euclídeo, la función


1/2
kxk := h x, x i

define una norma en V. Ayuda: para el item iii) usar la desigualdad de Cauchy-Schwarz.
La siguiente es una propiedad que se deduce de la definición de norma y que usaremos más
adelante:

Sean u, v ∈ V. Entonces
| kuk − kvk | ≤ ku − vk. (3.1)

De hecho, por la desigualdad triangular, tenemos que kuk = ku − v + vk ≤ ku − vk + kvk.


Entonces, restando a ambos lados de la desigualdad por kvk se sigue que

kuk − kvk ≤ ku − vk.

De manera similar, kvk = kv − u + uk ≤ kv − uk + kuk. Entonces

kvk − kuk ≤ kv − uk = k(−1)(u − v)k = | − 1|ku − vk = ku − vk.

Por lo tanto, tenemos que −ku−vk ≤ kuk−kvk ≤ ku−vk. Equivalentemente | kuk−kvk | ≤ ku−vk,
y probamos los que queríamos.

116
3.3. Matriz de Gram, Gramiano y triángulos

Sea (V, h ·, · i) un K-espacio euclídeo, k · k la norma inducida por el producto interno y sean
u, v ∈ V. Las siguientes propiedades resultan útiles para la resolución de varios ejercicios.

ku + vk2 = kuk2 + kvk2 + 2 Re(h u, v i). (3.2)

De hecho, usando los axiomas de la definición de producto interno, tenemos


ku + vk2 = h u + v, u + v i = h u, u i + h u, v i + h v, u i + h v, v i
= kuk2 + h u, v i + h u, v i + kvk2
= kuk2 + kvk2 + 2 Re(h u, v i).

Teorema de Pitagoras: Si h u, v i = 0 entonces

ku + vk2 = kuk2 + kvk2 . (3.3)

La prueba de (3.3) es inmediata usando que h u, v i = 0 y la ecuación (3.2). Finalmente, si ahora


(V, h ·, · i) es un R-espacio euclídeo, la ecuación (3.2), nos queda
ku + vk2 = kuk2 + kvk2 + 2 h u, v i . (3.4)
Entonces,

ku − vk2 = ku + (−v)k2 = kuk2 + k − vk2 + 2 h u, −v i = kuk2 + kvk2 − 2 h u, v i . (3.5)


Si hacemos la resta de las ecuaciones (3.4) y (3.5), se sigue que:

si (V, h ·, · i) es un R-espacio euclídeo entonces,

4 h u, v i = ku + vk2 − ku − vk2 . (3.6)

Si hacemos la suma de las ecuaciones (3.4) y (3.5), se sigue que:

si (V, h ·, · i) es un R-espacio euclídeo entonces,

ku + vk2 + ku − vk2 = 2(kuk2 + kvk2 ). (3.7)

3.3. Matriz de Gram, Gramiano y triángulos


Sea (V, h ·, · i) un K-espacio euclídeo. Y sea X = {x1 , x2 , · · · , xr } un conjunto de vectores de V,
se llama la matriz de Gram y se denota por GX a
 
h x1 , x1 i h x1 , x2 i · · · h x1 , xr i
 h x2 , x1 i h x2 , x2 i · · · h x2 , xr i 
GX :=  .. .. .. .
 
 . . . 
h xr , x1 i h xr , x2 i ··· h xr , xr i
Observar que GX ∈ C r×r
. Llamaremos Gramiano de X al determinante de GX .

Antes de resolver el Ejercicio 3.C, recordemos algunas propiedades de la operación ∗ . Sea


A ∈ Cm×n (cuando n = 1 tenemos un vector columna), se define
A∗ = AT .
Entonces:

117
3. Espacios Euclídeos

(A + B)∗ = A∗ + B ∗ , A, B ∈ Cm×n .

(αA)∗ = αA∗ , A ∈ Cm×n , α ∈ C.

(AB)∗ = B ∗ A∗ , A ∈ Cm×n , B ∈ Cn×m .

(A∗ )∗ = A, A ∈ Cm×n .

Si A ∈ C1×1 = C (es decir A es un escalar) como claramente AT = A, tenemos que A∗ = A.

Si hay alguna duda con alguna de las propiedades se recomienda probarlas.

El siguiente ejercicio es similar al Ejercicio 3.2 para dim(V) = n.


Ejercicio 3.C. Sea (V, h ·, · i) un C-espacio euclídeo de dimensión n y sean B = {v1 , v2 , · · · , vn } una
base de V.
 
h v1 , v1 i h v1 , v2 i · · · h v1 , vn i
 h v2 , v1 i h v2 , v2 i · · · h v2 , vn i 
a) Comprobar que GB :=  .. .. ..
 
. . .

 
h vn , v1 i h vn , v2 i ··· h vn , vn i
es la única matriz de C n×n
tal que

h x, y i = ([x]B )T GB [y]B = ([y]B )∗ GTB [x]B ,

para todo x, y ∈ V.

b) Comprobar que si B 0 = {v10 , v20 , · · · , vn0 } es otra base de V vale que

GB0 = (MBB0 )T GB MBB0 ,

donde MBB0 es la matriz de cambio de coordenadas de las bases B 0 a B.

Dem. a): Sean x, y ∈ V. Como B es una base V, entonces x = a1 v1 + a2 v2 + · · · + an vn , para


ciertos a1 , a2 , · · · , an ∈ C y y = b1 v1 + b2 v2 + · · · + bn vn , para ciertos b1 , b2 , · · · , bn ∈ C. Entonces,
es claro que    
a1 b1
 a2   b2 
[x]B =  .  , [y]B =  .  .
   
.
 .  .
 . 
an bn

Usando los items i.1), i.2) y ii) de la definición de producto interno, tenemos que

h x, y i = h a1 v1 + · · · + an vn , b1 v1 + · · · + bn vn i
= a1 b1 h v1 , v1 i + · · · + a1 bn h v1 , vn i + · · · + an b1 h vn , v1 i + · · · + an bn h vn , vn i
   
b1 b1
 b2   b2 
= a1 [h v1 , v1 i · · · h v1 , vn i]  .  + · · · + an [h vn , v1 i · · · h vn , vn i]  . 
   
.
 .   . .
bn bn
 
b1
 b2 
= [a1 a2 · · · an ] GB ..  = ([x]B )T GB [y]B .
 
.

 
bn

118
3.3. Matriz de Gram, Gramiano y triángulos

Por último, como h x, y i = [([x]B )T GB [y]B ] ∈ C arriba vimos que [([x]B )T GB [y]B ]T =
[([x]B )T GB [y]B ], es decir la transpuesta de un número es el mismo número. Entonces, tenemos que
T
h x, y i = ([x]B )T GB [y]B = [([x]B )T GB [y]B ]T = [y]B GTB (([x]B )T )T = ([y]B )∗ GTB [x]B .

Veamos que GB es única. Supongamos que existe otra matriz A ∈ Cn×n tal que

h x, y i = ([x]B )T GB [y]B = ([x]B )T A [y]B .

1
 
 0 
Entonces tomemos x = y = v1 , entonces, es claro que [x]B = [y]B =  ..  = e1 (el primer vector
 
 . 
0
de la base canónica de Cn ). Entonces,

eT1 GB e1 = (GB )11 = eT1 A e1 = A11 .


Es decir el lugar (1, 1) de A y GB coinciden.
Siguiendo con esa idea, tomemos x = vi e y = vj con i ∈ {1, 2, · · · , n} y j ∈ {1, 2, · · · , n}.
Entonces [x]B = ei y [y]B = ej (los vectores i-ésimos y j-ésimos de la base canónica de Cn ). Entonces

eTi GB ej = (GB )ij = eTi A ej = Aij .

Por lo tanto, el lugar (i, j) de A y GB coinciden para todo i ∈ {1, 2, · · · , n} y j ∈ {1, 2, · · · , n}.
Entonces A = GB como queríamos ver.
b) : Recordar que MBB0 es la matriz cuyas columnas son las coordenadas de los vectores
v1 , v20 , · · · , vn0 en la base B, es decir
0

MBB0 = [ [v10 ]B [v20 ]B · · · [vn0 ]B ].

([v10 ]B )T
 
 ([v20 ]B )T 
Es fácil verificar que (MBB0 )T =  ..  . Entonces
 
 . 
([vn0 ]B )T
([v10 ]B )T
 
 ([v20 ]B )T 
(MBB0 )T GB MBB0 =  ..  GB [ [v10 ]B [v20 ]B · · · [vn0 ]B ] =
 
 . 
([vn0 ]B )T

([v10 ]B )T GB [v10 ]B ([v10 ]B )T GB [v20 ]B ··· ([v10 ]B )T GB [vn0 ]B


 
 ([v 0 ]B )T GB [v 0 ]B ([v20 ]B )T GB [v20 ]B ··· ([v20 ]B )T GB [vn0 ]B 
2 1
= .. .. .. =
 
 . . . 
([vn0 ]B )T GB [v10 ]B ([vn0 ]B )T GB [v20 ]B · · · ([vn0 ]B )T GB [vn0 ]B
h v10 , v10 i h v10 , v20 i · · · h v10 , vn0 i
 
 h v20 , v10 i h v20 , v20 i · · · h v20 , vn0 i 
= .. .. ..  = GB0 ,
 
 . . . 
h vn0 , v10 i v,0 v20 · · · h vn0 , vn0 i

donde, usamos que por el item a), vale que

vi0 , vj0 = ([vi0 ]B )T GB [vj0 ]B ,



para cada i ∈ {1, 2, · · · , n} y j ∈ {1, 2, · · · , n}. 

119
3. Espacios Euclídeos

A partir del ejercicio anterior podemos afirmar que

La matriz de Gram de una base B determina unívocamente al producto interno h ·, · i . En


este caso, llamamos a GB la matriz del producto interno h ·, · i en la base B.

Ejercicio 3.3. En cada uno de los siguientes casos, verificar que la fórmula

h x, y i := y T Gx,

define un producto interno en R2 .


 " √ # " √ #
1 0 1 12 1 2
1 3
  
a) G ∈ G1 := { , , √ 2 , √ 2 }.
0 1 1
2 1 2
1 3
1
2 2

1 cos(θ)
 
b) G ∈ G2 := { : θ ∈ (0, π)}.
cos(θ) 1

l12 l1 l2 cos(θ)
 
c) G ∈ G3 := { : θ ∈ (0, π), l1 , l2 > 0}.
l1 l2 cos(θ) l22
   
a b a b
d) G ∈ G4 := { : a > 0, det > 0}.
b c b c

¿Se podrán definir otros productos internos en R2 ?

Dem. Observar que G1 ⊂ G2 ⊂ G3 = G4 .


1 cos(θ)
 
De hecho, tomando θ = π
2, θ = π
3, θ = π
y θ = π
en la matriz G = ,
4 6 cos(θ) 1
obtenemos las 4 matrices de G1 . Por lo tanto  G1 ⊂ G2 y la inclusión es estricta porque por ejemplo
1 1
si θ := arc cos( 13 ), tenemos que 3 ∈ G2 \ G1 .
1
3 1
l12 l1 l2 cos(θ)
 
Por otra parte, tomando l1 = l2 = 1, en la matriz G = obtenemos
l1 l2 cos(θ) l22
todas las matrices de G3 y la inclusión es estricta porque por ejemplo si l1 = l2 = 2 y θ = π2 ,
2 0

tenemos que ∈ G3 \ G2 .
0 2
l12 l1 l2 cos(θ)
 
Finalmente, sea G = . Entonces, para todo l1 , l2 > 0 y θ ∈ (0, π),
l1 l2 cos(θ) l22
el lugar G12 coincide con el lugar G21 , el lugar G11 = l12 > 0 y det(G) = l12 l22 − l12 l22 cos(θ)2 =
l12 l22 (1 − cos(θ)2 ) = l12 l22 sin(θ)

2
>0. Entonces G3 ⊆ G4 . 
a b a b 2
Por último, si G = con a > 0 y det = ac − b2 > 0. Entonces c > ba > 0.
b c b c
√ √
Tomemos l1 := a > 0 y l2 := c > 0. Por otra parte,√notar √ que como b < ac y ac > 0, tomando
2

raíz (que es una función creciente) se sigue que |b| < a c = l1 l2 . Por lo tanto,

|b|
< 1.
l1 l2

Entonces, podemos definir θ := arc cos( l1bl2 ) ∈ (0, π) y entonces b = l1 l2 cos(θ). Por lo tanto G4 ⊆ G3
y, como ya probamos la otra inclusión, concluimos que G3 = G4 .

Vamos a demostrar que h x, y i := y T Gx, define un producto interno en R2 con G ∈ G4 si


hacemos eso, como G1 ⊂ G2 ⊂ G3 = G4 , lo
 habremos
 demostrado para los demás casos.
a b a b
Sea G = con a > 0 y det = ac − b2 > 0. Entonces
b c b c

120
3.3. Matriz de Gram, Gramiano y triángulos

i) Para cada α ∈ R y para cada x, y, z ∈ R2 tenemos que

1. h x + z, y i = y T G(x + z) = y T (Gx + Gz) = y T Gx + y T Gx = h x, y i + h z, y i .


2. h αx, y i = y T G(αx) = αy T Gx = α h x, y i .

Observar que i.1 y i.2 valen para cualquier G ∈ R2×2 .

ii) Para cada x, y ∈ R2 tenemos que

h x, y i = y T Gx = (y T Gx)T = xT GT (y T )T = xT Gy = h y, x i ,
 
a b
donde usamos que G = = GT y que y T Gx ∈ R.
b c
 
x1
iii) Sea x = ∈ R2 entonces,
x2
   
a b x1
h x, x i = xT Gx = [x1 x2 ] = ax21 + 2bx1 x2 + cx22 .
b c x2

Usando que a > 0 podemos completar cuadrados y concluir que

√ b b2
ax21 + 2bx1 x2 + cx22 = ( ax1 + √ x2 )2 + (c − )x22 .
a a
√ b2
Entonces, h x, x i = ( 2x1 + √b x2 )2
a
+ (c − a )x2
2
≥ 0, porque ac − b2 > 0 y, como a > 0, se
b2
sigue que c − a > 0. Por otra parte, si

√ b b2
h x, x i = ( ax1 + √ x2 )2 + (c − )x22 = 0,
a a
√ b2
como cada sumando es mayor o igual a cero, tenemos que ( ax1 + √b x2 )2
a
= (c − a )x2
2
= 0.
2 2
Entonces, como (c − ba ) > 0 y (c − ba )x22 = 0, se sige que x2 = 0. Finalmente, como
√ 0
 
0 = ( ax1 + √a x2 ) = ax1 y a > 0, se sigue que x1 = 0. Por lo tanto x =
b 2 2
.
0
0
 
Probamos que h x, x i > 0 si y sólo si x 6= y se cumple iii).
0

Finalmente, veamos que NO se pueden definir otros productos


 internos en R2 . De hecho,
a b
supongamos que la fórmula h x, y i := y T Gx, con G = ∈ R2×2 define un producto interno
b0 c
en R2 . Veamos que G ∈ G4 . De hecho, si h x, y i = y T Gx, define un producto interno entonces
1
 
h x, y i = y Gx = x Gy = h y, x i , para todo x, y ∈ R . En particular, podemos tomar x =
T T 2
0
0
 
ey= . Entonces
1

1 0
       
a b a b
y Gx = [0 1]
T
= b = [1 0]
0
= b.
b0 c 0 b0 c 1
 
a b
Por lo tanto G = . Por último, tenemos que
b c

h x, x i = xT Gx > 0,

121
3. Espacios Euclídeos

0 1
   
para todo x 6= . En particular, si tomamos x = , entonces
0 0

1 1 1
        
a b
, = [1 0] = a > 0.
0 0 b c 0

Sólo nos resta probar que det(G) > 0. Para eso, consideremos la función f : [0, 1] → R, definida por

f (t) := det(tI + (1 − t)G),

1 0
 
donde I = es la matriz identidad de 2 × 2. Claramente f es una función continua
0 1
(básicamente por que f en definitiva
 es  un polinomio en t). Además, f (0) = det(G) y f (1) =
0
det(I) = 1. Supongamos que x 6= , entonces
0

xT (tI + (1 − t)G)x = txT x + (1 − t)xT Gx > 0,

pues xT x > 0, t ∈ [0, 1] y estamos usando que xT Gx > 0. Entonces f (t) = det(tI + (1 − t)G) 6= 0,
porque si tI + (1 − t)G fuera una matriz singular (no inversible o con determinante nulo), existiría
algún vector no nulo v ∈ R2 tal que (tI + (1 − t)G)v = 0, con lo que v T [tI + (1 − t)G]v = 0, que
sería una contradicción. Por lo tanto, f (t) 6= 0, para todo t ∈ [0, 1].
Como f (1) = 1 > 0 y f es continua, si f (t) = det(G) < 0, por el Teorema de Bolzano, existiría
algún t ∈ [0, 1] tal que f (t) = 0. Como probamos que f (t) 6= 0 para todo t ∈ [0, 1], se sigue que
f (0) = det(G) > 0. 

La siguiente propiedad la vamos a usar para resolver el Ejercicio 3.6 y tiene interés en sí
misma.

Proposición 3.3.1. Sea (V, h ·, · i) un K-espacio euclídeo de dimensión finita y


{x1 , x2 , · · · , xr } un conjunto de vectores de V. Entonces

{x1 , x2 , · · · , xr } es LD si y sólo si det(G{x1 ,x2 ,··· ,xr } ) = 0.

Es decir el Gramiano es nulo.

Antes de comenzar con la demostración, veamos una manera conveniente de escribir la matriz
G{x1 ,x2 ,··· ,xr } .
Sea B = {v1 , · · · , vn } una base ortonormal de V. Es decir kvi k = 1 para todo i = 1, 2 · · · , n y
h vi , vj i = 0 para todo i 6= j. Entonces, tenemos que GB = In×n (comprobarlo) y, por el Ejercicio
3.C a),
h xi , xj i = ([xj ]B )∗ GTB [xi ]B = ([xj ]B )∗ [xi ]B ,
para todo i = 1, 2, · · · , r y j = 1, 2, · · · , r. Sea

A := [[ x1 ]B [x2 ]B · · · [xr ]B ] ∈ Cn×r ,

la matriz que resulta de poner en sus columnas las coordenadas en base B de los vectores
x1 , x2 , · · · , xr . Entonces, observar que
 
h x1 , x1 i h x2 , x1 i · · · h xr , x1 i
 h x1 , x2 i h x2 , x2 i · · · h xr , x2 i 
GT{x1 ,x2 ,··· ,xr } =  .. .. .. =
 
 . . . 
h x1 , xr i h x2 , xr i ··· h xr , xr i

122
3.3. Matriz de Gram, Gramiano y triángulos

([x1 ]B )∗ [x1 ]B ([x1 ]B )∗ [x2 ]B ([x1 ]B )∗ [xr ]B


 
···
 ([x2 ]B )∗ [x1 ]B ([x2 ]B )∗ [x2 ]B ··· ([x2 ]B )∗ [xr ]B 
= .. .. ..  = A∗ A.
 
 . . . 
([xr ]B )∗ [x1 ]B ([xr ]B )∗ [x2 ]B ··· ([xB
r ) [xr ]
∗ B

Ahora sí vamos a demostar la proposición.


Dem. Supongamos que {x1 , x2 , · · · , xr } es un conjunto LD de V. Entonces, por definición de
independencia lineal, existen escalares a1 , a2 , · · · , ar ∈ K no todos nulos, tales que

a1 x1 + a2 x2 + · · · + ar xr = 0V .

Sea z := [a1 a2 · · · ar ]T 6= 0Kr . Entonces, tenemos que


 
a1
 a2 
Az = [[ x1 ]B [x2 ]B · · · [xr ]B ]  .  = a1 [x1 ]B + a2 [x2 ]B + · · · + ar [xr ]B =
 
 .. 
a4

= [a1 x1 + a2 x2 + · · · + ar xr ]B = [0V ]B = 0Kn .


Entonces
GT{x1 ,x2 ,··· ,xr } z = A∗ Az = A∗ 0Kn = 0Kr .

Por lo tanto z ∈ nul(GT{x1 ,x2 ,··· ,xr } ). Entonces como z 6= 0Kr , se sigue que dim(nul(GT{x1 ,x2 ,··· ,xr } )) >
0 ó, usando el Teorema de la Dimensión, se sigue que rg(GT{x1 ,x2 ,··· ,xr } ) < r. Por lo tanto,
GT{x1 ,x2 ,··· ,xr } es una matriz de r × r cuyo rango no es completo, entonces det(GT{x1 ,x2 ,··· ,xr } ) = 0.
Finalmente como el determinante de una matriz y el determinante de su transpuesta coinciden,
tenemos det(G{x1 ,x2 ,··· ,xr } ) = det(GT{x1 ,x2 ,··· ,xr } ) = 0.
Recíprocamente, si det(G{x1 ,x2 ,··· ,xr } ) = 0, entonces det(GT{x1 ,x2 ,··· ,xr } ) = det(G{x1 ,x2 ,··· ,xr } ) =
0. Entonces, existe un vector no nulo z = [z1 z2 · · · zr ]T ∈ Kr tal que

GT{x1 ,x2 ,··· ,xr } z = A∗ Az = 0Kr .

Entonces,
z ∗ A∗ Az = z ∗ 0Kr = 0.
Observar que z ∗ A∗ Az = (Az)∗ (Az) = kAzkpic , donde k · kpic denota el producto interno canónico
de Kn . Entonces,
kAzkpic = 0.
Por lo tanto, por definición de norma, Az = 0Kn , entonces

0Kn = Az = z1 [x1 ]B + z2 [x2 ]B + · · · + zr [xr ]B = [z1 x1 + z2 x2 + · · · + zr xr ]B .

Entonces,
z1 x1 + z2 x2 + · · · + zr xr = 0V ,
y como z1 , z2 , · · · , zr ∈ K son escalares no todos nulos, se sigue que {x1 , x2 , · · · , xr } es un conjunto
LD de V. 

De la Proposición 3.3.1 es imediato ver que: si (V, h ·, · i) es un K-espacio euclídeo de dimensión


finita y {x1 , x2 , · · · , xr } un conjunto de vectores de V. Entonces

{x1 , x2 , · · · , xr } es LI si y sólo si det(G{x1 ,x2 ,··· ,xr } ) 6= 0.

123
3. Espacios Euclídeos

Notación para triángulos


Sea (V, h ·, · i) un R-espacio euclídeo, se define el ángulo θ entre dos vectores no nulos x e y
mediante la fórmula
h x, y i
cos θ := ,
kxk kyk
con θ ∈ [0, π].
Sean u, v, w ∈ V (3 puntos no alineados) en el R-espacio euclídeo (V, h ·, · i), el siguiente es el
triangulo de vértices u, v, w :

Figura 3.1: Notación triangulo.

Con la notación de la Figura 3.1, se sigue que:

c = v − u, a = w − v, b = u − w.

Como u, v, w son puntos no alineados, se sigue que a, b, c =


6 0V . Entonces, podemos considerar los
vectores normalizados:
a b c
ã = , b̃ = , c̃ = .
kak kbk kck
Comprobar que kãk = kb̃k = kc̃k = 1. En cuánto a los ángulos interiores del triángulo, tenemos que:
 
h c, −b i c −b
cos α = = = c̃, −b̃ ,


,
kckkbk kck kbk

donde usamos i.2) de la definición de producto interno. De la misma manera,

h a, −c i h −a, b i

cos β = = h ã, −c̃ i , cos γ = = −ã, b̃ .



kakkck kakkbk

Para obtener los ángulos interiores del triángulo, observar los signos que usamos en las fórmulas de
los ángulos.
La altura del triángulo se obtiene como

khk = kbk sin(α).

Finalmente recordemos las siguientes identidades trigonómetricas: sean α, β ∈ R entonces

cos(α + β) = cos(α) cos(β) − sin(α) sin(β),

cos(α)2 + sin(α)2 = 1.

Vamos a resolver un ejercicio muy similar al Ejercicio 3.5.

124
3.3. Matriz de Gram, Gramiano y triángulos

Ejercicio 3.D. Sea (V, h ·, · i) un R-espacio euclídeo de dimensión 3 y sea

B = {u1 , u2 , u3 } ⊂ {u ∈ V : kuk = 1},


√ √
una base de V tal que kui + uj k2 = 2 + 3 y kui − uj k2 = 2 − 3 para i 6= j.
a) Hallar la matriz del producto interno h ·, · i en la base B.
b) Hallar Θ := [ arc cos(h ui , uj i)]i∈{1,2,3},j∈{1,2,3} .
c) Calcular al área del triangulo de vértices, u1 , u2 , u3 .
d) Determinar los vértices de un triángulo rectángulo T tal que T ⊂ gen{u1 , u2 } y cuyos catetos
midan 3 y 4.

Dem. a) : Vamos a calcular la matriz

ku1 k2
 
h u1 , u2 i h u1 , u3 i
GB =  h u2 , u1 i ku2 k2 h u2 , u3 i  .
h u3 , u1 i h u3 , u2 i ku3 k2

Como u1 , u2 , u3 ∈ {u ∈ V : kuk = 1}, entonces ku1 k = ku2 k = ku3 k = 1.


Como estamos en un R-espacio euclídeo podemos usar la ecuación (3.6). Entonces, si i 6= j,
√ √ √
kui + uj k2 − kui − uj k2 2 + 3 − (2 − 3) 3
h ui , uj i = = = .
4 4 2
Por lo tanto  √ √ 
1 2
3 3
√2 
 √3
GB =  2 1 3
2 
.
√ √
2
3
2
3
1

b) : Como arc cos(1) = 0 y arc cos( 2 )
3
= π6 , tenemos que

0 π6 π6
 

Θ =  π6 0 π6  .
π
6
π
6 0

c) : Con la notación de la Figura 3.1, tenemos que u = u1 , v = u2 , w = u3 . Entonces

c = v − u = u2 − u1 , b = u − w = u1 − u3 .
√ √
Entonces kck2 = ku2 − u1 k2 = 2 − 3, kbk2√= ku√ 1 − u3 k =
2

2 − √3 y h c, b i = h u2 − u1 , u1 − u3 i =
h u2 , u1 i − h u2 , u3 i − ku1 k2 + h u1 , u3 i = 23 − 23 − 1 + 23 = 3−2 2 . Entonces

h c, −b i
2
( 2−2 3 )2 1
cos(α)2 = = √ = .
kck2 kbk2 (2 − 3) 2 4

Entonces √
1 3
r
sin(α) = 1 − cos(α)2 = 1− =
p
.
4 2
q √ q √ √3 √ √3 √
Por lo tanto, AreaT = kck khk
2 = kck kbk sin(α)
2 = (2 − 3) (2 − 3) 4 = (2 − 3) 4 = 3 3
2 − 4.
d) : Con la notación de la Figura 3.1, buscamos un triangulo de vértices u, v, w ∈ V tales
que α = π2 (triángulo rectángulo) u, v, w ∈ gen{u1 , u2 } y los catetos que son c y b midan 3 y 4
respectivamente, es decir kck = kv − uk = 3, kbk = ku − wk = 4, y 0 = h c, −b i = h v − u, w − u i .
Como nos piden un triángulo (es decir no tenemos que hallar todos los triángulos que cumplen lo
anterior), para simplificar cuentas, podemos suponer que u = 0V , v = z0 u1 , para cierto z0 ∈ R y

125
3. Espacios Euclídeos

w = z1 u1 + z2 u2 , para ciertos z1 , z2 ∈ R. Entonces, como u, v, w ∈ gen{u1 , u2 } el triángulo T con


esos vértices cumple T ⊂ gen{u1 , u2 }.
Vamos a obtener los escalares z0 , z1 , z2 ∈ R para que T quede totalmente definido. Para eso
vamos a usar los datos:

3 = kck = kv − uk = kz0 u1 k = |z0 |ku1 k = |z0 |.

Tomamos z0 = 3 (podríamos haber tomado también z0 = −3). Entonces



3
0 = h c, b i = h v, w i = h 3u1 , z1 u1 + z2 u2 i = 3z1 h u1 , u1 i + 3z2 h u1 , u2 i = 3z1 + 3z2 .
2

Entonces z1 = −z2 3
2 . Entonces, usando que

16 = kbk2 = ku − wk2 = kz1 u1 + z2 u2 k2 = z12 ku1 k2 + z22 ku2 k2 + 2z1 z2 h u1 , u2 i =



= z12 + z22 + z1 z2 3.

Reemplazando z1 = −z2 3
2 , nos queda que

3 3 1
16 = z22 + z22 − z22 = z22 .
4 2 4
√ √ √
Entonces |z2 | = 64 = 8. Tomamos z2 = 8 y entonces z1 = −8 23 = −4 3.

Entonces, el triangulo T de vértices u = 0V , v = 3u1 y w = −4 3u1 + 8u2 , cumple con lo
pedido. 

Ejercicio 3.6. Sea (V, h ·, · i) un R-espacio vectorial. Sean v1 , v2 dos vectores linealmente
independientes. Demostrar que la suma de los ángulos internos del triángulo de vertices 0V , v1 , v2
es π.

Dem. Con la notación de la Figura 3.1, tenemos que u = 0V , v = v1 , w = v2 , entonces


c = v1 , a = v2 − v1 , b = −v2 . Entonces,

a + b + c = v2 − v1 − v2 + v1 = 0V ,

entonces el conjunto {a, b, c} es linealmente dependiente en V y por lo tanto, por la Proposición


3.3.1, su Gramiano se anula, es decir

kak2 h a, b i h a, c i
 

det G{a,b,c} = det  h b, a i kbk2 h b, c i  = 0.


h c, a i h c, b i kck2

Desarrollando el determinante por la primera columna, operando y usando que como estamos en
un R-espacio vectorial el producto interno es simétrico, tenemos que
2 2 2
kak2 kbk2 kck2 − kak2 h b, c i − h a, b i kck2 − h a, c i kbk2 + 2 h b, c i h a, b i h a, c i = 0.

Ahora, si dividimos la expresión anterior por kak2 kbk2 kck2 6= 0 y normalizamos los vectores,
nos queda:
2
2 2
1 − b̃, c̃ − ã, b̃ − h ã, c̃ i + 2 b̃, c̃ ã, b̃ h ã, c̃ i = 0.



2 2 2
2 2
Entonces (1 − b̃, c̃ )(1 − ã, b̃ ) − b̃, c̃ ã, b̃ = h ã, c̃ i − 2 b̃, c̃ ã, b̃ h ã, c̃ i .





Entonces,
2 2 2
2 2
(1 − b̃, c̃ )(1 − ã, b̃ ) = b̃, c̃ ã, b̃ + h ã, c̃ i − 2 b̃, c̃ ã, b̃ h ã, c̃ i





= (− h ã, c̃ i + b̃, c̃ ã, b̃ )2 .




126
3.3. Matriz de Gram, Gramiano y triángulos

Tomando raíz cuadrada a ambos lados, obtenemos


q q
2 2
1 − b̃, c̃ 1 − ã, b̃ = | − h ã, c̃ i + b̃, c̃ ã, b̃ |.




√ q 2
Recordemos que: cos α = c̃, −b̃ , entonces sin α = 1 − cos α2 = 1 − c̃, b̃ . De la

q
2
misma manera, tenemos que cos β = h ã, −c̃ i , sin β = 1 − h ã, c̃ i , cos γ = −ã, b̃ , sin γ =


q 2
1 − ã, b̃ .

Entonces, reemplazando en la ecuación anterior por las expresiones de los cosenos y senos de los
ángulos correspondientes, nos queda:

sin α sin γ = | cos β + cos α cos γ| = cos β + cos α cos γ,


donde usamos que como α, β, γ ∈ [0, π2 ] el coseno es mayor o igual a 0 y podemos eliminar el módulo.
Entonces, pasando de término, nos queda

− cos β = cos (π − β) = cos α cos γ − sin α sin γ = cos(α + γ).


Como en el intervalo [0, π2 ] el coseno es biyectivo, se sigue que

π − β = α + γ, entonces α + β + γ = π

y probamos lo que queríamos. 

Ejercicio 3.E (De Parcial). Sea(R2 , h ·, · i)


 el R-espacio euclídeo respecto del cual triángulo de
0 1 0 √
vértices u := , v := y w := , es un triángulo equilatero de área 3.
0 0 1
Hallar h x, y i para todo x, y ∈ R2 .
Antes de resolver el ejercicio, notar que el producto interno h ·, · i nunca puede ser el producto
interno canónico de R2 . Si lo fuera, el ángulo entre los vectores v y w sería π2 y por lo tanto, nunca
podrían ser los vértices de un triángulo equilátero.
Vamos a usar la notación de la Figura (3.1). Con esa notación a = w − v, b = u − w = −w y
c = v − u = v. Como su nombre lo indica, un triángulo equilátero tiene sus lados iguales. Por lo
tanto
kak = kbk = kck.
Por otra parte, los ángulos de un triángulo equilátero también son iguales. De hecho, como
a + b + c = 0, se sigue que b = −a − c. Entonces

h c, −b i h c, a + c i h a, c i kck2 h a, c i
cos α = = 2
= 2
+ 2
=1+ ,
kbkkck kak kak kak kak2
h a, −b i h a, a + c i h a, c i kak2 h a, c i
cos γ = = 2
= 2
+ 2
=1+ .
kakkbk kak kak kak kak2

Entonces cos α = cos γ y como en [0, π] el coseno es inyectivo, tenemos que α = γ. De manera
similar, se prueba que α = β. Por lo tanto, tenemos que α = β = γ.
Ahora sí, resolvamos el ejercicio.
Dem. Notar que el conjunto {v, w} es una base (no ortogonal) del espacio R2 . Entonces, dados
x, y ∈ R2 , vale que x = αv + βw e y = α0 v + β 0 w, con α, β, α0 , β 0 ∈ R. Por lo tanto, usando la
linealidad del producto interno, tenemos que

h x, y i = h αv + βw, α0 v + β 0 w0 i = αα0 kvk2 + αβ 0 h v, w i + βα0 h w, v i + ββ 0 kwk2 .

Por lo tanto, si hallamos kvk2 , kwk2 y h v, w i = h w, v i tendremos h x, y i para todo x, y ∈ R2 .

127
3. Espacios Euclídeos

Como el triángulo en cuestión es equilátero, vimos que sus lados y sus ángulos son iguales. Por
el Ejercicio 3.6, tenemos que α + β + γ = π. Por lo tanto
π
α=β=γ= .
3
Recordemos que √
√ kckkbk sin α kbk2 sin π3 kbk2 3
3 = AT = = = .
2 2 4
Despejando, se sigue que kbk = 2. Entonces kwk = k − bk = 2 y kvk = kck = kbk = 2. Finalmente,
tenemos que h v, w i = h c, −b i = cos(α)kbkkck = cos( π3 )4 = 2.
Entonces, si x = αv + βw e y = α0 v + β 0 w, con α, β, α0 , β 0 ∈ R, concluimos que

h x, y i = αα0 kvk2 + αβ 0 h v, w i + βα0 h w, v i + ββ 0 kwk2 = 4αα0 + 2(αβ 0 + βα0 ) + 4ββ 0 .

3.4. Subespacio ortogonal, sistemas y bases ortonormales

Sea (V, h ·, · i) un K-espacio euclídeo y sea A ⊆ V un conjunto no vacío de V, el subespacio


ortogonal a A, denotado por A⊥ , se define por

A⊥ := {x ∈ V : h x, a i = 0 para todo a ∈ A}.

Las siguientes son algunas propiedades importantes del subespacio ortogonal.

Proposición 3.4.1. Sea (V, h ·, · i) un K-espacio euclídeo y sea A ⊆ V un conjunto no vacío


de V. Entonces:

1. A⊥ es un subespacio de V.
2. A ∩ A⊥ = {0V }.
3. Si B ⊆ V es un conjunto no vacío tal que B ⊆ A entonces A⊥ ⊆ B ⊥ .

Dem. 1. : Por un lado, es claro que 0V ∈ A⊥ , pues para todo a ∈ A,

h 0V , a i = h 0 · 0V , a i = 0 h 0V , a i = 0.

Por otra parte, sean x, y ∈ A⊥ y α ∈ K, entonces vale que h x, a i = h y, a i = 0, para todo a ∈ A.


Por lo tanto,
h αx + y, a i = α h x, a i + h y, a i = 0,
para todo a ∈ A. Entonces αx+y ∈ A⊥ y con eso concluimos que A⊥ es un subespacio (observar que
juntamos en una misma demostración la prueba de que si x, y ∈ A⊥ y α ∈ K entonces x + y ∈ A⊥
y αx ∈ A⊥ ).
2. : Sea x ∈ A ∩ A⊥ entonces x ∈ A y x ∈ A⊥ , como x ∈ A⊥ vale que h x, a i = 0 para todo
a ∈ A. En particular, como x ∈ A, vale que h x, x i = 0 entonces, por definición de producto interno,
x = 0V . Por lo tanto A ∩ A⊥ = {0V }.
3. : Sea x ∈ A⊥ , entonces h x, a i = 0, para todo a ∈ A. Sea b ∈ B entonces vale que h x, b i = 0,
pues como B ⊆ A, tenemos que b ∈ A. Por lo tanto x ∈ B ⊥ y concluimos que A⊥ ⊆ B ⊥ . 

La siguiente es una simple observación que nos resultará muy útil.

128
3.4. Subespacio ortogonal, sistemas y bases ortonormales

Sea (V, h ·, · i) un K-espacio euclídeo y sea S ⊆ V un subespacio de V tal que S =


gen{v1 , v2 , · · · , vr }. Entonces

w ∈ S ⊥ si y sólo si h w, v1 i = h w, v2 i = · · · = h w, vr i = 0. (3.8)

Es decir, para ver que w ∈ S ⊥ basta ver que w es ortogonal a cada generador de S.

De hecho, si w ∈ S ⊥ entonces h w, s i = 0 para todo s ∈ S. Entonces, como v1 , v2 , · · · , vr ∈ S es


claro que se cumple que h w, v1 i = h w, v2 i = · · · = h w, vr i = 0.
Recíprocamente, supongamos que h w, v1 i = h w, v2 i = · · · = h w, vr i = 0 y sea s ∈ S. Entonces
s = a1 v1 + a2 v2 + · · · + ar vr con a1 , a2 , · · · , ar ∈ K. Entonces

h w, s i = h w, a1 v1 + a2 v2 + · · · + ar vr i = a1 h w, v1 i + a2 h w, v2 i + · · · + ar h w, vr i = 0,

como s era cualquier vector de S, concluimos que w ∈ S ⊥ y probamos lo que queríamos.

Sea (V, h ·, · i) un K-espacio euclídeo. Un conjunto de vectores no nulos {u1 , u2 , · · · , un } ⊆ V


se llama:

Sistema ortogonal cuando

h ui , uj i = 0 para todo i 6= j.

Sistema ortonormal cuando

h ui , uj i = 0 para todo i 6= j y kui k = 1 para todo i ∈ {1, · · · , n}.

Finalmente, llamaremos base ortogonal (ortonormal) de V a los sistemas ortogonales


(ortonormales) que generan V.

Veamos un ejemplo:
Ejercicio 3.F. Comprobar que los siguientes sistemas de vectores son ortonormales en su
correspondiente espacio euclídeo:
El sistema {eikt : k ∈ Z} en el espacio C([−π, π]) con el producto interno definido por
1
Z π
h f, g i := f (t)g(t)dt.
2π −π

Antes de resolver este ejercicio, recordar que si z = a + ib ∈ C, con a, b ∈ R, entonces

ez = eax (cos(b) + i sin(b)).

Es fácil ver que valen las siguientes propiedades (verificarlas):


Si w, z ∈ C entonces ez ew = ez+w .
Si z ∈ C entonces ez = ez .
Si t ∈ R y z = a + ib ∈ C con a, b ∈ R, entonces
d(ezt )
= (e(a+ib)t )0 = (eat+ibt )0 = (eat (cos(bt) + i sin(bt)))0
dt
= aeat (cos(bt) + i sin(bt))) + eat (−b sin(bt) + ib cos(bt))
= (a + ib)eat (cos(bt) + i sin(bt))) = zezt .

129
3. Espacios Euclídeos

Si t ∈ R y z = a + ib ∈ C (no nulo) con a, b ∈ R, usando el item anterior, se sigue que


zt
e dt = ez .
R zt

Si k ∈ Z, entonces eikπ = (−1)k .


Ahora sí, resolvamos el ejercicio.
Dem. Observar que {eikt : k ∈ Z} = {· · · , e−3it , e−2it , e−it , 1, eit , e2it , e3it , · · · }. Veamos que ese
conjunto es ortonormal. Para cada k ∈ Z llamemos fk (t) := eikt . Entonces, si k 6= l, tenemos que
1 1 1
Z π Z π Z π
h fk , fl i = fk (t)fl (t)dt = e e dt =
ikt ilt
eikt e−ilt dt =
2π −π 2π −π 2π −π
1 1 1 1 1
Z π
= ei(k−l)t dt = ei(k−l)t |π−π = (ei(k−l)π − e−i(k−l)π ) = 0.
2π −π 2π i(k − l) 2π i(k − l)
Por otra parte,
1 1 1 1 1
Z π Z π Z π Z π
h fk , fk i = fk (t)fk (t)dt = ikt −ikt
e e dt = e dt =
0
dt = 2π = 1.
2π −π 2π −π 2π −π 2π −π 2π
Por lo tanto, el sistema {eikt : k ∈ Z} es ortonormal. 
R1
Ejercicio 3.G. Sea en R2 [x] el producto interno h p, q i := −1 12 p(x)q(x)dx. Hallar una base
ortogonal de S = gen{x2 }⊥ y descomponer cada polinomio p ∈ R2 [x] en la forma p = pS + pS ⊥ ,
con pS ∈ S y pS ⊥ ∈ S ⊥ .

Dem. Por definición S = gen{x2 }⊥ = {p ∈ R2 [x] : p, x2 = 0} (observar que usamos (3.8)).



Entonces, p ∈ S si p(x) = ax2 + bx + c, con a, b, c ∈ R y


1 1 4
Z
0 = p, x = ax + bx + c, x = [
2
ax + bx3 + cx2 dx] =


2 2
2 −1
1 x5 x4 x3 1 2 2 1 1
=[a + b + c ]|1−1 = [a + b · 0 + c ] = a + c .
2 5 4 3 2 5 3 5 3
Entonces, despejando nos queda a = − 53 c. Volviendo a la expresión de p tenemos que,
5 5
p(x) = ax2 + bx + c = − cx2 + bx + c = c(− x2 + 1) + bx,
3 3
con b, c ∈ R. Entonces, S = gen{− 35 x2 + 1, x}. Observar que afortunadamente
5
 
− x2 + 1, x = 0,
3
entonces BS = {− 53 x2 + 1, x}, es una base ortogonal de S.
Por otra parte, es claro que (sino hacer la cuenta), S ⊥ = (gen{x2 }⊥ )⊥ = (gen{− 35 x2 +1, x})⊥ =
gen{x2 }.
Por último sea p(x) = ax2 + bx + c, cualquier vector de R2 [x] y α, β, γ ∈ R, tales que
5
p(x) = ax2 + bx + c = αx2 + β(− x2 + 1) + γx.
3
Es fácil ver que γ = b, β = c y α = a + 35 c. Entonces
5 5
p(x) = (a + c)x2 + c(− x2 + 1) + bx.
3 3
Si llamamos pS := c(− 53 x2 + 1) + bx ∈ S y pS ⊥ := (a + 53 c)x2 ∈ S ⊥ , tenemos que p = pS + pS ⊥ .
Como vimos que S ∩ S ⊥ = {0} la descomposición que acabamos de encontrar es única.


130
3.5. Proyección ortogonal

Ejercicio 3.H (De Parcial). En el R-espacio vectorial R2 [x] se define la función Φ : R2 [x]×R2 [x] → R
como Z 2
Φ(p, q) := (1 − x)f (x)g(x)dx.
0
Sea S = gen{(1 − x)2 }. Entonces:
a) Hallar una base de T := {p ∈ R2 [x] : Φ(p, q) = 0 para todo q ∈ S}.
b) Probar que S ⊆ T .
c) Decidir si Φ define un producto interno en R2 [x].

Dem. a) : Busquemos una base de T . Tenemos que p ∈ T si p ∈ R2 [x], es decir p(x) = ax2 + bx + c
con a, b, c ∈ R y Φ(p, q) = 0 para todo q ∈ S. Si q ∈ S, entonces q(x) = α(1 − x)2 , con α ∈ R.
Entonces, Φ(p, α(1 − x)2 ) = 0, para todo α ∈ R. En particular, lo anterior vale para α = 1. Entonces

Z 2
0 = Φ(ax2 + bx + c, (1 − x)2 ) = (1 − x)(ax2 + bx + c)(1 − x)2 dx
0
Z 2
= (1 − x) (ax + bx + c)dx
3 2
0
x 3x5 3x4 x3 x 3x4 x2 (1 − x)4 2
= a[− + − + ] + b[− + − x3 + ] + c[− ]|0
6 5 4 3 5 4 2 4
−4a −2b 4a 2b
= + +c·0=− − .
5 5 5 5
Despejando, nos queda b = − 4a
5 2 = −2a. Por lo tanto p(x) = ax − 2ax + c = a(x − 2x) + c · 1,
5 2 2

con a, c ∈ R. Por lo tanto,


T = gen{x2 − 2x, 1}
y una base de T puede ser BT = {x2 − 2x, 1}.
b) : Veamos que S ⊆ T . Si q ∈ S entonces q(x) = α(x − 1)2 , con α ∈ R. Observar que
q(x) = α(x − 1)2 = α(x2 − 2x + 1) = α(x2 − 2x) + α1 ∈ T
y se sigue que S ⊆ T .
c) : Φ NO define un producto interno. Por ejemplo, si p(x) = 1, entonces
Z 2 Z 2
x2
Φ(p, p) = (1 − x)p(x)2 dx = (1 − x)1dx = x − |20 = 0.
0 0 2
Sin embargo p(x) = 1 es decir p 6= 0 (el polinomio nulo). Por lo tanto Φ no define un producto
interno en R2 [x]. 

3.5. Proyección ortogonal


Sean (V, h ·, · i) un K-espacio euclídeo, S un subespacio de V y v ∈ V, decimos que v̂ es la
proyección ortogonal del vector v sobre S si verifica:
v̂ ∈ S y v − v̂ ∈ S ⊥ .

Teorema 3.5.1. Sean (V, h ·, · i) un K-espacio euclídeo, S un subespacio de V (de dimensión


finita) y v ∈ V, entonces v̂ (la proyección ortogonal del vector v sobre S) existe y es única.
Más aún, si BS = {v1 , v2 , · · · , vr } es una base ortogonal de S. Entonces

h v, v1 i h v, v2 i h v, vr i
v̂ = v1 + v2 + · · · + vr .
kv1 k2 kv2 k2 kvr k2

131
3. Espacios Euclídeos

Dem. Primero veamos que de existir la proyección ortogonal de v sobre S, esta es única. De hecho,
supongamos que v̂ y ŵ son dos proyecciones ortogonales de v sobre S. Entonces

kv̂ − ŵk2 = h v̂ − ŵ, v̂ − ŵ i = h v̂ − ŵ, v̂ − v + v − ŵ i


= h v̂ − ŵ, v̂ − v i + h v̂ − ŵ, v − ŵ i = 0 + 0 = 0,

donde usamos que como v̂, ŵ ∈ S y S es un subespacio entonces v̂ − ŵ ∈ S y, como v̂ y ŵ son


dos proyecciones ortogonales de v, entonces v − v̂ y v − ŵ son elementos de S ⊥ . Entonces, como
kv̂ − ŵk = 0, se sigue que v̂ = ŵ y la proyección ortogonal es única.
Por otra parte, notar que el vector hkv v,v1 i
1k
h v,v2 i h v,vr i
2 v1 + kv k2 v2 + · · · + kv k2 vr ∈ S pues {v1 , v2 , · · · , vr }
2 r
es una base de S. Además, para 1 ≤ i ≤ r, tenemos que
 
h v, v1 i h v, v2 i h v, vr i h v, vi i
v− 2
v1 + 2
v2 + · · · + 2
vr , vi = h v, vi i − h vi , vi i
kv1 k kv2 k kvr k kvi k2
h v, vi i
= h v, vi i − kvi k2 = 0,
kvi k2
donde usamos que, como {v1 , v2 , · · · , vr } es una base ortogonal de S, entonces h vi , vj i = 0 para
i 6= j. Entonces, por (3.8), el vector v − hkv v,v1 i
1k
h v,v2 i
2
h v,vr i
2 v1 + kv k2 v2 + · · · + kv k2 vr ∈ S
r

. Por lo tanto,
h v,v1 i h v,v2 i h v,vr i
v̂ = kv1 k2 v1 + kv2 k2 v2 + ··· + kvr k2 vr es la (única) proyección ortogonal de v sobre S. 
Sean (V, h ·, · i) un K-espacio euclídeo, S ⊆ V un subespacio de dimensión finita y BS =
{v1 , v2 , · · · , vr } una base ortogonal de S. Definimos la función PS : V → V como la función que
a cada elemento v ∈ V le asigna su proyección ortogonal sobre S, es decir
h v, v1 i h v, v2 i h v, vr i
PS (v) := v̂ = 2
v1 + 2
v2 + · · · + vr .
kv1 k kv2 k kvr k2
La función PS está bien definida porque a cada elemento v ∈ V le corresponde un único elemento
de V que es v̂. Por otra parte, PS es una transformación lineal, pues si v, w ∈ V y α, β ∈ K entonces
r r r
X h αv + βw, vi i X h v, vi i X h w, vi i
PS (αv + βw) = vi = α vi + β vi
i=1
kvi k2 i=1
kvi k2 i=1
kvi k2
= αPS (v) + βPS (w).
Pr h v,vi i
Notar que como PS (v) = i=1 kvi k2 vi ∈ S, entonces
r r X r  
X h v, vi i X h v, vi i vi vj
PS (PS (v)) = PS ( 2 i
v ) = 2
, vj 2
i=1
kv i k j=1 i=1
kv i k kv jk
r X
r r
X h v, vi i vj X h v, vi i
= h vi , vj i = vi = PS (v),
j=1 i=1
kvi k2 kvj k2
i=1
kvi k2

donde usamos que h vi , vj i = 0 si i 6= j. Por lo tanto PS2 = PS ◦ PS = PS , entonces PS es un


proyector. Finalmente, observar que

Im(PS ) = S y Nu(PS ) = S ⊥ .

De hecho, como PS es un proyector, vimos que v ∈ Im(PS ) si y sólo si v = PS (v) = v̂ ∈ S,


donde para la última igualdad usamos la definición de proyección ortogonal del vector v sobre el
subespacio S. Meditar por qué esto demuestra que Im(PS ) = S.
Por último, es claro que si v ∈ S ⊥ , entonces PS (v) = 0V , porque h v, vi i = 0 para i = 1, 2, · · · , r.
Por otra parte, si v ∈ Nu(PS ) entonces PS (v) = v̂ = 0V , entonces, por definición de proyección
ortogonal del vector v sobre el subespacio S, tenemos que v = v − 0V = v − v̂ ∈ S ⊥ . Concluimos
entonces que Nu(PS ) = S ⊥ .

132
3.5. Proyección ortogonal

Vamos a remarcar todas estas propiedades que probamos para tenerlas presentes:

Sean (V, h ·, · i) un K-espacio euclídeo, S ⊆ V un subespacio de dimensión finita y


BS = {v1 , v2 , · · · , vr } una base ortogonal de S. La función PS : V → V definida como

h v, v1 i h v, v2 i h v, vr i
PS (v) := v̂ = v1 + v2 + · · · + vr , (3.9)
kv1 k2 kv2 k2 kvr k2

es una transformación lineal que cumple:


PS2 = PS , es decir PS es un proyector.
Im(PS ) = S y Nu(PS ) = S ⊥ . Entonces, claramente V = Im(T ) ⊕ Nu(T ) y además
Im(PS ) ⊥ Nu(PS ).
Como PS es un proyector y tenemos que Im(PS ) = S y Nu(PS ) = S ⊥ , entonces

PS ⊥ = IV − PS . (3.10)

Observar que si T es un proyector, tenemos que Im(T ) y Nu(T ) están en suma directa (no
necesariamente son ortogonales). Por otra parte, si T es un proyector ortogonal entonces T es
un proyector y además Im(T ) = Nu(T )⊥ , es decir Im(T ) y Nu(T ) son ortogonales entre sí (en
particular están en suma directa). Todo proyector ortogonal es un proyector, pero obviamente no
todo proyector es un proyector ortogonal. Por ejemplo, en R2 con el producto interno canónico,
definimos T : R2 → R2 , como

1 1 0 0
       
T( )= , T( )= .
1 1 1 0

0
 
Entonces T es un proyector (verificarlo). Pero como Nu(T ) = gen{ } NO es ortogonal a
1
1
 
Im(T ) = gen{ }, concluimos que T NO es un proyector ortogonal.
1

A partir de la existencia de la proyección ortogonal podemos enunciar las siguientes propiedades:

Proposición 3.5.2. Sea (V, h ·, · i) un K-espacio euclídeo de dimensión finita y S ⊆ V un


subespacio. Entonces:
1. V = S ⊕ S ⊥ .
2. dim(S ⊥ ) + dim(S) = dim(V).
3. (S ⊥ )⊥ = S.

Notar que la Proposición 3.5.2 sólo vale cuando S es un subespacio y V es de


dimensión finita.
Dem. 1. : Es claro que S ∩ S ⊥ = {0V }. Por otra parte, si v ∈ V tenemos que

v = PS (v) + (v − PS (v)).

Por definición de proyección ortogonal, PS (v) ∈ S y v − PS (v) ∈ S ⊥ . Por lo tanto v ∈ S ⊕ S ⊥ y se


sigue que V ⊆ S ⊕ S ⊥ . Como la otra inclusión siempre vale, tenemos que V = S ⊕ S ⊥ .
2. : Usando el item 1. y el Teorema de la dimensión para suma de subespacios, tenemos que

dim(V) = dim(S ⊕ S ⊥ ) = dim(S) + dim(S ⊥ ).

133
3. Espacios Euclídeos

3. : Es claro que S ⊆ (S ⊥ )⊥ , pues si s ∈ S entonces h s, t i = 0 para todo t ∈ S ⊥ entonces


s ∈ (S ⊥ )⊥ . Por otra parte, usando el item 2. dos veces, tenemos que

dim((S ⊥ )⊥ ) = dim(V) − dim(S ⊥ ) = dim(S).

Entonces, como S ⊆ (S ⊥ )⊥ y dim(S) = dim((S ⊥ )⊥ ) se sigue que (S ⊥ )⊥ = S. 


Recordemos la definición de distancia de un punto a un subespacio: sean (V, h ·, · i) un K-espacio
euclídeo, S un subespacio de V y v ∈ V. Se define la distancia del punto v al subespacio S como

d(v, S) := ı́nf{kv − sk : s ∈ S}.

Donde ı́nf denota el ínfimo del conjunto en cuestión. Notar que como S es un subespacio, entonces
el conjunto {kv − sk : s ∈ S} =
6 ∅ y además, kv − sk ≥ 0 para todo s ∈ S. Por lo tanto, el conjunto
en cuestión es no vacío y acotado inferiormente, entonces existe el ínfimo y d(v, S) queda bien
definida.
En el siguiente teorema probaremos que si S es de dimensión finita, ese ínfimo en realidad es un
mínimo y el vector que realiza el mínimo es justamente v̂ = PS (v).
Teorema 3.5.3. Sea (V, h ·, · i) un K-espacio euclídeo de dimensión finita y S ⊆ V un subespacio.
Entonces
d(v, S) = kv − PS (v)k = kPS ⊥ (v)k.

Dem. Sea s ∈ S, entonces como v − PS (v) ∈ S ⊥ y PS (v) − s ∈ S podemos aplicar el Teorema de


Pitágoras:

kv − sk2 = kv − PS (v) + PS (v) − sk2 = kv − PS (v)k2 + kPS (v) − sk2 ≥ kv − PS (v)k2 .

Tomando raíz en la ecuación anterior, se sigue que kv − sk ≥ kv − PS (v)k para todo s ∈ S. Además
como PS (v) ∈ S, concluimos que PS (v) realiza el mínimo del conjunto {kv − sk : s ∈ S}.
Por lo tanto
d(v, S) = kv − PS (v)k = kPS ⊥ (v)k,
donde para la última igualdad usamos que por (3.10), tenemos que PS ⊥ = IV − PS . Entonces

PS ⊥ (v) = IV (v) − PS (v) = v − PS (v).

El siguiente es un ejemplo de cálculo de la proyección ortogonal PS .


Ejercicio 3.I. En R2×2 con el producto interno h A, B i = tr(B T A), consideramos el subespacio S
de todas las matrices simétricas.

a) Dada X ∈ R2×2 , hallar la expresión de PS (X).

1 −1
 
b) Hallar la proyección ortogonal de B = sobre S. Calcular d(B, S).
1 1

Dem.  a) : El subespacio S en cuestión es


 S = {A
 ∈ R : A =
2×2 T
 A}. Si A ∈ S, entonces
a b a c a b
A= con a, b, c, d ∈ R y A =
T
=A= . Entonces, b = c. Por lo
c d  b d c d
a b
tanto A = y tenemos que
b d

1 0 0 1 0 0
     
S = gen{ , , }.
0 0 1 0 0 1

134
3.5. Proyección ortogonal

Observar que
1 0 0 1 0 1 1 0 0 0
          
, = tr( ) = tr( ) = 0,
0 0 1 0 1 0 0 0 1 0
0 1 0 0 0 0 0 1 0 0
          
, = tr( ) = tr( ) = 0,
1 0 0 1 0 1 1 0 1 0
1 0 0 0 0 0 1 0 0 0
          
, = tr( ) = tr( ) = 0.
0 0 0 1 0 1 0 0 0 0

1 0 0 1 0 0
     
Entonces, BS = { , , } es una base ortogonal de S. Y podemos
0 0 1 0 0 1
usar la ecuación (3.9). Entonces
1 0 0 1
     
X, X,
0 0 1 0 1 0 0 1
   
PS (X) = +
1 0 0 0 0 1 1 0
   
k k2 k k2
0 0 1 0
0 0
  
X,
0 1 0 0
 
+ .
0 0 0 1
 
k k2
0 1

1 0 0 0 0 1
     
Haciendo cuentas, tenemos que k k2 = 1, k k2 = 1 y k k2 = 2.
0 0 0 1 1 0
 
x1 x2
Por otra parte, si X = ∈ R2×2 , se sigue que
x3 x4

1 0 1 0
          
x1 x2 x1 x2 x1 x2
, = tr( ) = tr( ) = x1 .
x3 x4 0 0 0 0 x3 x4 0 0

0 1
    
x1 x2
Operando de manera similar, tenemos que , = x2 + x3 y
x3 x4 1 0
0 0
    
x1 x2
, = x4 . Entonces, reemplazando, nos queda:
x3 x4 0 1

1 0 x2 + x3 0 1 0 0 x2 +x3
       
x1
PS (X) = x1 +( ) + x4 = 2 .
0 0 2 1 0 0 1 x2 +x3
2 x4
Observar que (obviamente) PS (X) siempre es simétrica pues por definición PS (X) ∈ S.

0 1
 
Otra manera de resolver este ejercicio es observar que por un lado ∈ S ⊥ (hacer la
−1 0
cuenta) y como, por la Proposición 3.5.2, dim(S ⊥ ) = dim(R2×2 ) − dim(S) = 4 − 3 =  1, tenemos
0 1 0 1

que S ⊥ = gen{ }. Una base de S ⊥ (ortogonal) es BS ⊥ = { }. Entonces
−1 0 −1 0
(verificarlo haciendo las cuentas),
0 1
  
X,
−1 0 0 1 0 x2 −x3
   
PS ⊥ (X) = = 2 .
0 1 −1 0 x3 −x2
0
 
k k2 2
−1 0
Entonces, por la ecuación (3.10),
0 x2 −x3 x2 +x3
     
x1 x2 x1
PS (X) = X − PS ⊥ (X) = − 2 = 2 ,
x3 x4 x3 −x2
2 0 x2 +x3
2 x4

135
3. Espacios Euclídeos

y (por suerte) obtuvimos el mismo resultado.


b) : Usando la fórmula que acabamos de probar, tenemos que

1 −1 1 −1+1
1 0
     
PS (B) = PS ( )= 2 = .
1 1 −1+1
2 1 0 1
Finalmente,
1 1 0 0 −1
     
−1
d(B, S) = kB − PS (B)k = k − k=k k=
11 0 1 1 0

0 1 0 1 0 √
     
−1
[tr( )]1/2 = [tr( )]1/2 = 2.
−1 0 1 0 0 1


3.6. Matriz de la proyección ortogonal y distancia mínima


Si V es dimensión finita y B es cualquier base de V, podemos estar interesados en calcular la
matriz de la transformación lineal PS en dicha base B. Recuerden que si B = {w1 , w2 , · · · , wn } es
una base del espacio vectorial V entonces, las columnas de [PS ]B
B nos quedan

[PS ]B
B = [ [PS (w1 )] [PS (w2 )]
B B
· · · [PS (wn )]B ] ∈ Kn×n ,

donde para i = 1, 2, · · · , n podemos calcular PS (wi ) usando la fórmula (3.9).

Veamos dos ejemplos.


Ejercicio 3.J.
a) En R2×2 con el producto interno canónico de R2×2 , hallar la matriz con respecto a la base
canónica de R2×2 de la proyección ortogonal de R2×2 sobre S el subespacio de todas las
matrices simétricas.
b) En R4 con el producto interno canónico de R4 , hallar la matriz con respecto a la base canónica
de R4 de la proyección ortogonal de R4 sobre S = gen{[1 − 1 0 0]T , [1 1 − 2 0]T }.

Dem. a) : En el Ejercicio 3.I, hallamos la expresión de PS : R2×2 → R2×2 la proyección ortogonal


de R2×2 sobre S (el subespacio de todas las matrices simétricas) y nos quedó
x2 +x3
 
x1
PS (X) = x2 +x3
2 .
2 x4

1 0 0 1 0 0 0 0
       
Recordar que E = { , , , } es la base canónica de R2×2 .
0 0 0 0 1 0 0 1
Entonces, haciendo cuentas tenemos que:
1
 
1 0 1 0 1 0  0 
     
PS ( )= y [PS ( )]E =   0 .
0 0 0 0 0 0

0
0
 
0 1 0 12 0 1  1 
     
PS ( )= y [PS ( )]E =  2 
 1 .
0 0 1
2 0 0 0 2
0
0
 

0 0 0 12 0 0  1 
     
PS ( )= y [PS ( )]E =  2 
 1 .
1 0 1
2 0 1 0 2
0

136
3.6. Matriz de la proyección ortogonal y distancia mínima

0
 

0 0 0 0 0 0 0 
     
PS ( )= y [PS ( )]E = 

0 1 0 1 0 1  0 .

1
Por lo tanto
1 0 0 1 0 0 0 0
       
[PS ]E = [ [P S ( )]E [PS ( )]E [PS ( )]E [PS ( )]E ]
E 0 0 0 0 1 0 0 1
1 0 0 0
 
 0 1 1
0 
= 0 1
2 2 .
2
1
2 0 
0 0 0 1

b) : Para calcular PS (x) en cualquier vector x ∈ R4 con la fórmula (3.9), necesitamos


una base ortogonal de S. Afortunadamente, B := {[1 − 1 0 0]T , [1 1 − 2 0]T } es una
base de S que además es ortogonal (en el producto interno canónico de R4 ). Recordar que
E = {[1 0 0 0]T , [0 1 0 0]T , [0 0 1 0]T , [0 0 0 1]T } es la base canónica de R4 . Entonces, haciendo
cuentas tenemos que:

[1 0 0 0]T , [1 − 1 0 0]T


PS ([1 0 0 0]T ) = [1 − 1 0 0]T
k[1 − 1 0 0]T k2
[1 0 0 0]T , [1 1 − 2 0]T


+ [1 1 − 2 0]T
k[1 1 − 2 0]T k2
1 1 2 1 1
= [1 − 1 0 0]T + [1 1 − 2 0]T = [ − − 0]T ,
2 6 3 3 3
 2 
3
 −1 
y [PS ([1 0 0 0]T )]E =  3 
 −1  .
3
0
Operando de manera similar, nos queda que:
− 13
 
 2
PS ([0 1 0 0]T ) = [− 13 0]T y [PS (0 1 0 0]T )]E = 
2 1

3 − 3  −1
3 .

3
0
 1 
−3
 −1
PS ([0 0 1 0]T ) = [− 13 − 0]T y [PS (0 0 1 0] )] =  23
1 2 T E

 .
3 3 
3
0
0
 
 0 
PS ([0 0 0 1]T ) = [0 0 0 0]T y [PS (0 0 0 1]T )]E =   0 .

0
Por lo tanto

[PS ]E
E = [ [PS ([1 0 0 0] )]
T E
[PS ([0 1 0 0]T )]E [PS ([0 0 1 0]T )]E [PS ([0 0 0 1]T )]E ]
0
 2
− 13 − 13

3
 −1 2
− 13 0 
= 3 3 .
 −1 −1
3 3
2
3 0 
0 0 0 0


Veamos a continuación un ejemplo de cálculo de matriz de la proyección ortogonal en la base
canónica de R3 donde NO usamos el producto interno canónico.

137
3. Espacios Euclídeos

Ejercicio 3.8. En R3 con el producto interno h ·, · i definido por


2 −2 0
 

h x, y i = y T −2 5 4 x
0 4 6
se consideran los subespacios S1 = {x ∈ R3 : x1 + x2 + x3 = 0} y S2 {x ∈ R3 : x1 − x3 = 0}.
a) Hallar las matrices con respecto a la base canónica de las proyecciones ortogonales de R3
sobre S1⊥ y sobre S2⊥ .
b) Sea b = [1 1 2]T . Hallar la distancia de b al subespacio S1⊥ y la distancia de b al subespacio
S2 .
c) Hallar el conjunto de todos los x ∈ R3 cuya distancia a S1 coincide con su distancia a S2 .

1 0
   

Dem. a) : Notar que S1 = gen{−1 ,  1 }. Por otra parte, por (3.8),
0 −1
*  1 + *  0 +
S1⊥ = {x ∈ R3 : x, −1 = x,  1  = 0}.
0 −1
 
x1
Por lo tanto, x = x2  ∈ S1⊥ si
x3
1 + 2 0 x1 2x1 − 2x2
      
* −2
0 = x, −1 = [1 − 1 0] −2 5 4 x2  = [1 − 1 0] −2x1 + 5x2 + 4x3 
0 0 4 6 x3 4x2 + 6x3
= 2x1 − 2x2 − (−2x1 + 5x2 + 4x3 ) = 4x1 − 7x2 − 4x3 .
y
0 2 0 x1 2x1 − 2x2
 +     
−2
*
0= x,  1  = [0 1 − 1] −2 5 4 x2  = [0 1 − 1] −2x1 + 5x2 + 4x3 
−1 0 4 6 x3 4x2 + 6x3
= −2x1 + 5x2 + 4x3 − (4x2 + 6x3 ) = −2x1 + x2 − 2x3 .
Resolviendo el sistema 4x1 − 7x2 − 4x3 = −2x1 + x2 − 2x3 = 0. Nos queda que
 
−9
S1⊥ = gen{−8}.
5
1 0
     
−9
Consideremos el conjunto B := {−8 , −1 ,  1 }. Entonces, como S1 ⊕ S1⊥ = R3 , vale que
5 0 −1
B es una base (no ortogonal) de R . Sea P la proyección ortogonal
3
  sobre  S1 , es decir

 el  proyector
1 0
 
−9 −9
que actúa sobre S1⊥ en la dirección S1 . Entonces, como P (−8) = −8 , P (−1) = 0 ,
5 5 0 0
0 0
   

P ( 1 ) = 0 , es claro que


−1 0
1 0 1 0 0
       
−9
[P ]B
B = [[P ( −8 )] [P ( −1 )] [P (
  B   B  1 )]B ] = 0 0 0 .
5 0 −1 0 0 0

138
3.6. Matriz de la proyección ortogonal y distancia mínima

Haciendo el cambio de base correspondiente, vale que

[P ]E
E = [M ]B [P ]B [P ]E .
E B B

1 0
 
−9
Es fácil ver que la matriz de cambio de base de B a E es [M ]E
B = −8 −1 1  . Además,
5 0 −1
 
−1 −1 −1
[M ]B
E = ([M ]B )
E −1
= 12
1 
3 −9 −9  . Por lo tanto
−5 −5 −17

−9 1 0 1 0 0 9 9 9
      
−1 −1 −1
1 1
[P ]E = −8 −1 1  0 0 0
E  3 −9 −9  = 8 8 8 .
12 12
5 0 −1 0 0 0 −5 −5 −17 −5 −5 −5

1 0
   

Por otra parte, notar que S2 = gen{0 , 1}. Además, por (3.8),
1 0

1 0
*  + *  +
S2⊥ = {x ∈ R3 : x, 0 = x, 1 = 0}.
1 0
 
x1
Por lo tanto, x = x2  ∈ S2⊥ si

x3

1 2 −2 0 x1 2x1 − 2x2
*  +     

0 = x, 0 = [1 0 1] −2 5 4 x2  = [1 0 1] −2x1 + 5x2 + 4x3 


1 0 4 6 x3 4x2 + 6x3
= 2x1 − 2x2 + (4x2 + 6x3 ) = 2x1 + 2x2 + 6x3 .

0 2 0 x1 2x1 − 2x2
 +     
−2
*
0= x, 1 = [0 1 0] −2 5 4 x2  = [0 1 0] −2x1 + 5x2 + 4x3 
0 0 4 6 x3 4x2 + 6x3
= −2x1 + 5x2 + 4x3 .

Resolviendo el sistema 2x1 + 2x2 + 6x3 = −2x1 + 5x2 + 4x3 = 0. Nos queda que
 
−11
S2 = gen{−10}.

1 0
     
−11
Consideremos el conjunto C := {−10 , 0 , 1}. Entonces, como S2 ⊕ S2⊥ = R3 , vale que
7 1 0
C es una base (no ortogonal) de R3 . Sea Q la proyección ortogonal
sobreS2 , 

es decir
 el proyector
1 0
  
−11 −11
que actúa sobre S2⊥ en la dirección S2 . Entonces, como Q(−10) = −10 , Q(0) = 0 ,
7 7 1 0
0 0
   

Q(1) = 0 , es claro que


0 0

139
3. Espacios Euclídeos

1 0 1 0 0
       
−11
[Q]C
C = [[Q(−10)]C
[Q(0)]C
[Q(1 )]C
] = 0 0 0 .
7 1 0 0 0 0
Haciendo el cambio de base correspondiente, vale que
[Q]E
E = [M ]C [Q]C [P ]E .
E C C

1 0
 
−11
Es fácil ver que la matriz de cambio de base de C a E es [M ]E
C = −10 0 1 . Además,
7 1 0
0 1
 
−1
[M ]C
E = ([M ]C )
E −1
= 181 
7 0 11 . Por lo tanto
−10 18 10
−11 1 0 1 0 0 −1 0 1 11 0 −11
      
1 1
E = −10 0 1
[Q]E  0 0 0  7 0 11 =  10 0 −10 .
18 18

7 1 0 0 0 0 −10 18 10 −7 0 7
 
−9
b): Notar que el conjunto {−8} es una base (ortogonal) de S1⊥ . Entonces, aplicando (3.9),
5
* 1 −9 +
1 , −8  
1
 
2 5 −9
PS1⊥ (b) = PS1⊥ (1) =   −8
2 −9 5
k −8 k2
5
2 −2 0 1
    
 [−9 − 8 5] −2 5 4 1       
 −9 −9 −9
0 4 6 2  −8 = −8 −8 = − 1 −8 .

=
 
2 −2 0 −9  24 3
   
 [−9 − 8 5] −2 5 4 −8  5 5 5

 

0 4 6 5
Entonces
1
     
−9 −6
1 1
d(b, S1⊥ )2 = kb − PS1⊥ bk2 = k 1 + −8 k2 = k −5 k2
3 3
2 5 11
2 −2 0
  
−6
1 363 121
= [−6 − 5 11] −2 5 4 −5 = = .
9 9 3
0 4 6 11
q
Por lo tanto, d(b, S1⊥ ) = 121 3 =
11

3
.
 
−11
De manera similar, notar que {−10} es una base (ortogonal) de S2⊥ . Entonces, por (3.9),
7
* 1   
−11 +
1 , −10
1
   
2 7 −11
PS2⊥ (b) = PS2⊥ (1) =   −10
2 −11 7
k −10 k2
7

140
3.6. Matriz de la proyección ortogonal y distancia mínima

2 −2 0 1
    
 [−11 − 10 7] −2 5 4 1       
 −11 −11 −11
0 4 6 2  2  1 

=   −10 = −10 =

−10 .
2 −2 0 −11  36 18
 
 7 7 7


 [−11 − 10 7] −2 5 4 −10 
0 4 6 7

Entonces
 
−11
1
d(b, S2 )2 = kb − PS2 bk2 = kPS2⊥ bk2 = k −10 k2
18
7
2 −2 0
  
−11
1 1
= [−11 − 10 7] −2 5 4 −10 = .
324 9
0 4 6 7

Por lo tanto, d(b, S2 ) = 13 .


 
x1
c) : Sea x = x2  ∈ R3 tal que
x3

d(x, S1 ) = kPS1⊥ xk = d(x, S2 ) = kPS2⊥ xk.

Entonces, aplicando la fórmula (3.9), tenemos

2 −2 0 x1
    
 [−9 − 8 5] −2 5 4 x2    
0 4 6 x3  −9
 
PS1⊥ (x) =  −8 =

   
2 −2 0

 −9  5
 [−9 − 8 5] −2 5 4 −8 
0 4 6 5
   
−9 −9
−2(x1 + x2 + x3 )   x1 + x2 + x3  
= −8 = − −8 .
24 12
5 5

2 −2 0 x1
    
 [−11 − 10 7] −2 5 4 x2    
0 4 6 x3  −11
 
PS2⊥ (x) =    −10 =

2 −2 0 −11 
 
 [−11 − 10 7] −2 5 4 −10  7

 

0 4 6 7
   
−11 −11
2(−x1 + x3 )  −x 1 + x 3 
= −10 = −10 .
36 18
7 7

Entonces
   
−9 −9
x1 + x2 + x3   |x1 + x2 + x3 |  
kPS1⊥ (x)k = k − −8 k = k −8 k
12 12
5 5

|x1 + x2 + x3 | √ 6
= 24 = |x1 + x2 + x3 |.
12 6

141
3. Espacios Euclídeos

   
−11 −11
−x1 + x3  | − x 1 + x 3 |
kPS2⊥ (x)k = k −10 k = k −10 k
18 18
7 7
| − x1 + x3 | 1
= 6 = | − x1 + x3 |.
18 3
Igualando, nos queda resolver el sistema

6
| − x1 + x3 | = |x1 + x2 + x3 |.
2
Supongamos que x1 + x2 √+ x3 > 0 y x3 − x1 > 0 ó x1 + x2 + x3 < 0 y x3 − x1 < 0. Entonces,
tenemos que −x1 + x3 = 26 (x1 + x2 + x3 ). Resolviendo, nos queda que
√ √
6 6
x2 = x1 (− − 1) + x3 ( − 1).
3 3
Notar que, con lo que acabamos de resolver tenemos que
√ √ √
6 6 6
x1 + x2 + x3 = x1 (1 − − 1) + x3 (1 + − 1) = (x3 − x1 ).
3 3 3
Entonces, en este caso, x1 + x2 + x3 > 0 si y sólo si x3 − x1 > 0 y x1 + x2 + x3 < 0 si y sólo si
x3 − x1 < 0.
Ahora, supongamos que x1 + x2 +√ x3 > 0 y x3 − x1 < 0 ó x1 + x2 + x3 < 0 y x3 − x1 > 0.
Entonces, tenemos que −x1 + x3 = − 26 (x1 + x2 + x3 ). Resolviendo, nos queda que
√ √
6 6
x2 = x1 ( − 1) + x3 (− − 1).
3 3
Notar que, con lo que acabamos de resolver tenemos que
√ √ √
6 6 6
x1 + x2 + x3 = x1 (1 + − 1) + x3 (1 − − 1) = (x1 − x3 ).
3 3 3
Observar que si x1 + x2 + x3 > 0 no puede ocurrir que x3 − x1 < 0. De la misma manera, si
x1 + x2 + x3 < 0 no puede ocurrir que x3 − x1 > 0. Por lo tanto, este caso nunca ocurre y lo
descartamos.
Conclusión:
1 0
       
x1 √
x1 √ √ √
x = x2  = x1 (− 36 − 1) + x3 ( 36 − 1) = x1 − 36 − 1 + x3  36 − 1 ,
x3 x3 0 1

con x1 , x3 ∈ R. Por lo tanto d(x, S1 ) = d(x, S2 ) si y sólo si

1 0
   
√ √
x ∈ gen{− 36 − 1 ,  36 − 1}.
0 1

En el siguiente ejercicio vamos a aplicar el concepto de distancia mínima de un punto a un


subespacio.

142
3.6. Matriz de la proyección ortogonal y distancia mínima

Ejercicio 3.10. En R2 [x] se considera el producto interno definido por


Z 1
h p, q i := p(x)q(x)dx.
0

Calcular Z 1
mı́n (x2 − ax − b)2 dx.
a,b∈R 0

Dem. Primero, observemos que


Z 1
(x2 − ax − b)2 dx = kx2 − ax − bk2 .
0

Donde (abusando de la notación) con kx2 − ax − bk2 queremos decir kpk2 con p(x) = x2 − ax − b.
Entonces
Z 1
mı́n (x2 − ax − b)2 dx = mı́n{kx2 − ax − bk2 : a, b ∈ R}
a,b∈R 0
= mı́n{kx2 − pk2 : p ∈ gen{1, x}}
= d(x2 , gen{1, x})2
= kx2 − Pgen{1,x} (x2 )k2 = kPgen{1,x}⊥ (x2 )k2 ,

donde usamos el Teorema 3.5.3 .


Entonces, busquemos una base del subespacio gen{1, x}⊥ . De hecho, q ∈ gen{1, x}⊥ si y sólo si
q ∈ R2 [x], es decir q(x) = αx2 + βx + γ para ciertos α, β, γ ∈ R y

h q, 1 i = h q, x i = 0.

Entonces
1
x3 x2
Z
α β
0 = h q, 1 i = [1 · (αx2 + βx + γ)]dx = α +β + γx|10 = + + γ.
0 3 2 3 2
1
x4 x3 x2
Z
α β γ
0 = h q, x i = [x · (αx2 + βx + γ)]dx = α +β + γ |10 = + + .
0 4 3 2 4 3 2
Resolviendo el sistema 0 = α3 + β2 + γ = α4 + β3 + γ2 . Nos queda que α = −β y γ = − β6 . Entonces,
volviendo a la expresión de q, tenemos que q(x) = −βx2 + βx − β6 con β ∈ R. Por lo tanto

gen{1, x}⊥ = gen{−6x2 + 6x − 1}.

Una base (ortogonal) del subspacio gen{1, x}⊥ puede ser {−6x2 + 6x − 1}. Entonces, por (3.9),
!
x , −6x2 + 6x − 1

2
Pgen{1,x}⊥ (x ) =
2
(−6x2 + 6x − 1)
k − 6x2 + 6x − 1k2
R1 2 !
x (−6x 2
+ 6x − 1)dx 5
= R0 1 (−6x2 + 6x − 1) = (−6x2 + 6x − 1)
(−6x + 6x − 1) dx
2 2 30
0
1
= (−6x2 + 6x − 1).
6
Por lo tanto,

1 1 1
1 1
Z
kPgen{1,x}⊥ (x2 )k2 = k (−6x2 + 6x − 1)k2 = (−6x2 + 6x − 1)2 dx = = .
6 36 0 36 · 5 180

143
3. Espacios Euclídeos

Conclusión
1
1
Z
mı́n (x2 − ax − b)2 dx = .
a,b∈R 0 180

En el próximo ejercicio veremos la diferencia entre un proyector ortogonal y un proyector que
no es ortogonal.
Ejercicio 3.12. Sean Π1 , Π2 ∈ L(R2 ) las transformaciones lineales definidas por
1 1 1 1 2 1
   
Π1 (x) = x, Π2 (x) = x.
2 1 1 3 2 1

a) Comprobar que Π1 y Π2 son dos proyecciones, identificando en cada caso el subespacio sobre
el que proyectan y la dirección en la qué lo hacen.
b) ¿Es Π1 una proyección ortogonal?
b) ¿Es Π2 una proyección ortogonal?
d) ¿Existe x ∈ R2 tal que kΠ1 (x)k > kxk? Si la respuesta es afirmativa, exhibir al menos uno.
e) ¿Existe x ∈ R2 tal que kΠ2 (x) > kxk? Si la respuesta es afirmativa, exhibir al menos uno.

Dem. En este ejercicio consideramos R2 con el producto interno canónico.


a) : Sea x ∈ R2 , entonces
1 1 1
   
Π1 (x) = Π1 (Π1 (x)) = Π1
2
x
2 1 1
1 1 1 1 1 1 1 1 1
      
= x= x = Π1 (x).
2 1 1 2 1 1 2 1 1

1
 
Por lo tanto Π21 = Π1 y por Ejercicio 2.23, Π1 es un proyector sobre Im(Π1 ) = gen{ } en la
1
1
 
dirección Nu(Π1 ) = gen{ }.
−1
Por otra parte, sea x ∈ R , entonces
2

1 2 1
   
Π2 (x) = Π2 (Π2 (x)) = Π2
2
x
3 2 1
1 2 1 1 2 1 1 2 1
      
= x= x = Π2 (x).
3 2 1 3 2 1 3 2 1

1
 
Por lo tanto Π22 = Π2 y por Ejercicio 2.23, Π2 es un proyector sobre Im(Π2 ) = gen{ } en la
1
1
 
dirección Nu(Π1 ) = gen{ }.
−2
b) : Como Π21 = Π1 y además Im(Π1 ) ⊥ Nu(Π1 ) entonces Π1 es una proyección ortogonal.
c) : Como Im(Π2 ) 6⊥ Nu(Π2 ) entonces Π2 NO es una proyección ortogonal.
d) : No existe x ∈ R2 tal que kΠ1 (x)k > kxk. De hecho, como Π1 es una proyección ortogonal,
para cada x ∈ R2 , vale que Π1 (x) ⊥ (x − Π1 (x)). Entonces, aplicando el Teorema de Pitágoras, se
sigue que

kxk2 = kΠ1 (x) + (x − Π1 (x))k2 = kΠ1 (x)k2 + kx − Π1 (x)k2 ≥ kΠ1 (x)k2 .

Entonces, tomando raíz en la ecuación anterior, tenemos que para todo x ∈ R2 ,

kxk ≥ kΠ1 (x)k.

144
3.6. Matriz de la proyección ortogonal y distancia mínima


2 √ 2 1 5 5 5 2
       
e) : Notar que k k= 5. Además, Π2 ( )= . Entonces k 13 k= .
1 1 3 5 5 3
Entonces √
1 √ 5 2 1
   
k k= 5< = kΠ2 ( )k.
2 3 2


El siguiente resultado permite caracterizar a los proyectores ortogonales.


Teorema 3.6.1. Sea (V, h ·, · i) un K-espacio euclídeo y sea T ∈ L(V) un proyector, es decir T 2 = T.
Verificar que las siguientes afirmaciones son equivalentes:
a) T es una proyección ortogonal,
b) para todo x, y ∈ V vale h T (x), y i = h x, T (y) i ,
c) para todo x ∈ V vale kT (x)k ≤ kxk.

Dem. a) ⇒ b) : Supongamos que T es una proyección ortogonal y veamos que para todo x, y ∈ V
vale h T (x), y i = h x, T (y) i .
Sean x, y ∈ V, entonces como T es un proyector, vimos que vale que V = Im(T ) ⊕ Nu(T ).
Entonces x = x1 + x2 e y = y1 + y2 , con (únicos) x1 , y1 ∈ Im(T ) y x2 , y2 ∈ Nu(T ). Entonces

T (x) = T (x1 + x2 ) = T (x1 ) + T (x2 ) = T (x1 ) + 0V = T (x1 ) = x1 y

T (y) = T (y1 + y2 ) = T (y1 ) + T (y2 ) = T (y1 ) + 0V = T (y1 ) = y1 ,


donde usamos que como T es un proyector T (z) = z, para todo z ∈ Im(T ) y como x1 , y1 ∈ Im(T ),
tenemos que T (x1 ) = x1 y T (y1 ) = y1 . Como T es una proyección ortogonal tenemos también que
Im(T ) ⊥ Nu(T ), entonces h x1 , y2 i = h x2 , y1 i = 0. Por lo tanto

h T (x), y i = h x1 , y1 + y2 i = h x1 , y1 i + h x1 , y2 i
= h x1 , y1 i + 0 = h x1 , y1 i + h x2 , y1 i = h x1 + x2 , y1 i = h x, T (y) i .

b) ⇒ c) : Supongamos que para todo x, y ∈ V vale h T (x), y i = h x, T (y) i y veamos que para
todo x ∈ V vale kT (x)k ≤ kxk. Sea x ∈ V, usando la hipótesis (es decir que vale a)) y que T es
proyector, tenemos que

h T (x), x − T (x) i = h x, T (x − T (x)) i = x, T (x) − T 2 (x) = h x, T (x) − T (x) i = h x, 0V i = 0.



Por lo tanto, por el Teorema de Pitágoras (o haciendo la cuenta),

kxk2 = kT (x) + [x − T (x)]k2 = kT (x)k2 + kx − T (x)k2 ≥ kT (x)k2 ,

donde usamos que kx − T (x)k2 ≥ 0. Finalmente, tomando raíz (que es una función creciente),
tenemos que para todo x ∈ V vale kT (x)k ≤ kxk.
c) ⇒ d) : Supongamos que para todo x ∈ V, kT (x)k ≤ kxk y veamos que T es una proyección
ortogonal. Como T es un proyector (por hipótesis), para probar que T es un proyector ortogonal
sólo nos resta probar que Nu(T )⊥ = Im(T ).
Veamos primero que Nu(T )⊥ ⊆ Im(T ). Sea x ∈ Nu(T )⊥ queremos ver que x ∈ Im(T ) es
decir T (x) = x (recordemos que como T es proyector, x ∈ Im(T ) si y sólo si T (x) = x). Como
x − T (x) ∈ Nu(T ) pues T (x − T (x)) = T (x) − T 2 (x) = T (x) − T (x) = 0V y x ∈ Nu(T )⊥ se sigue
que
0 = h x, x − T (x) i = h x, x i − h x, T (x) i = kxk2 − h x, T (x) i .
Entonces, nos queda que
kxk2 = h x, T (x) i .

145
3. Espacios Euclídeos

Entonces

kx − T (x)k2 = kxk2 − 2 Re h x, T (x) i + kT (x)k2 = kxk2 − 2kxk2 + kT (x)k2 = kT (x)k2 − kxk2 .

Usando la hipótesis, tenemos que

kx − T (x)k2 = kT (x)k2 − kxk2 ≤ 0.

Entonces, como siempre tenemos que kx − T (x)k2 ≥ 0, se sigue que kx − T (x)k2 = 0, entonces
x − T (x) = 0V , por lo tanto T (x) = x y x ∈ Im(T ).
Recíprocamente, supongamos que x ∈ Im(T ). Por la Proposición 3.5.2, Nu(T ) ⊕ Nu(T )⊥ = V
y tenemos que x = x1 + x2 , con (únicos) x1 ∈ Nu(T ) y x2 ∈ Nu(T )⊥ . Entonces, por un lado
x = T (x) pues x ∈ Im(T ). Por otro lado, acabamos de probar que Nu(T )⊥ ⊆ Im(T ), entonces,
como x2 ∈ Nu(T )⊥ tenemos que x2 ∈ Im(T ) y (nuevamente) como T es proyector, se sigue que
T (x2 ) = x2 . Por lo tanto

x = T (x) = T (x1 + x2 ) = T (x1 ) + T (x2 ) = 0V + T (x2 ) = T (x2 ) = x2 .

En conclusión,
x = x2 ∈ Nu(T )⊥ ,
entonces x ∈ Nu(T )⊥ y tenemos que Im(T ) ⊆ Nu(T )⊥ . Por lo tanto, como probamos la doble
inclusión, se sigue que Nu(T )⊥ = Im(T ) y T es un proyector ortogonal.
Como probamos a) ⇒ b) ⇒ c) ⇒ a), se sigue que a), b) y c) son equivalentes. 

3.7. Mínimos cuadrados


Sean V, W dos K-espacios vectoriales y sea T ∈ L(V, W). Dado w0 ∈ W, recordemos que en la
guía de transformaciones lineales vimos que:

existe v0 ∈ V tal que T (v0 ) = w0 si y sólo si w0 ∈ Im(T ).

Cuando w0 6∈ Im(T ), sabemos que la ecuación T (v) = w0 NO tiene solución. En ese caso, nos
interesa obtener una solución aproximada (en algún sentido) de dicha ecuación.
Si W, h ·, · i es un K-espacio euclídeo, el problema de mínimos cuadrados consiste en encontrar
(si existen) todos los vectores v̂ ∈ V tales que la distancia de T (v̂) a w0 sea mínima, es decir,
buscamos v̂ ∈ V tal que

kw0 − T (v̂)k = mı́n{kw0 − T (v)k : v ∈ V}.

Notar que
{kw0 − T (v)k : v ∈ V} = {kw0 − wk : w ∈ Im(T )}
(verificarlo probando la doble inclusión).
Entonces,
kw0 − T (v̂)k = mı́n{kw0 − wk : w ∈ Im(T )}.
Ya vimos en el Teorema 3.5.3, que si Im(T ) es de dimensión finita, entonces el vector PIm(T ) (w0 )
es el (único) vector de Im(T ) que minimiza la distancia a w0 . Por lo tanto los vectores v̂ que
buscamos son las soluciones del sistema

T (v) = PIm(T ) (w0 ),

como PIm(T ) (w0 ) ∈ Im(T ), la ecuación T (v) = PIm(T ) (w0 ) siempre tiene solución y será única si y
sólo si T es un monomorfismo.

El siguiente ejercicio y las siguientes propiedades las usaremos para resolver el Ejercicio 3.13.

146
3.7. Mínimos cuadrados

Ejercicio 3.K (De Parcial). En Rn con el producto interno canónico consideramos nul(A) donde A
es una matriz de Rm×n . Probar que

nul(A)⊥ = fil(A)

y expresar las dimensiones de nul(A) y nul(A)⊥ en función del rango de A. ¿Qué forma tomaría el
problema si en lugar de R apareciese C?

Dem. Veamos que nul(A)⊥ = fil(A) = col(AT ).


Supongamos que y ∈ fil(A) = col(AT ) entonces existe x ∈ Rm tal que y = AT x (estamos usando
que como A ∈ Rm×n , AT ∈ Rn×m ). Recordemos que el producto interno canónico se define como
h u, v i = v T u = uT v, para u, v ∈ Rn . Sea z ∈ nul(A), entonces Az = 0 y tenemos que

h y, z i = AT x, z = (AT x)T z = xT (AT )T z = xT (Az) = 0.



Es decir, h y, z i = 0 para todo z ∈ nul(A). Por lo tanto y ∈ nul(A)⊥ y se sigue que

fil(A) = col(AT ) ⊆ nul(A)⊥ .

En la Proposición 3.5.2, probamos que

dim(nul(A)) + dim(nul(A)⊥ ) = dim(Rn ) = n.

Entonces, aplicando el Teorema de la Dimensión y recordando que rg(A) = rg(AT ), se sigue que

dim(nul(A)⊥ ) = n − dim(nul(A)) = rg(A) = rg(AT ) = dim(col(AT )).

Como ya probamos que col(AT ) ⊆ nul(A)⊥ y los subespacios tienen la misma dimensión, concluimos
que fil(A) = col(AT ) = nul(A)⊥ .
Si ahora consideramos Cn como C-espacio euclídeo, en este caso el producto interno canónico
se define como h u, v i = v ∗ u, para u, v ∈ Cn . Entonces, operando de la misma manera que en Rn ,
nos quedaría que
nul(A)⊥ = col(A∗ ).


Proposición 3.7.1. Sea A ∈ Rm×n y consideremos el espacio euclídeo canónico correspon-


diente. Entonces:

1. nul(AT A) = nul(A).
2. col(AT A) = col(AT ).
3. nul(A) = col(AT )⊥ .
4. nul(AT ) = col(A)⊥ .

Dem. 1. : Vamos a probar nul(AT A) = nul(A) viendo la doble inclusión. Ya sabemos que siempre
vale nul(A) ⊆ nul(AT A) (verificarlo). Por otra parte, si x ∈ nul(AT A) entonces AT Ax = 0.
Entonces,
kAxk2 = (Ax)T (Ax) = xT AT (Ax) = xT (AT Ax) = xT 0 = 0.
Entonces Ax = 0, x ∈ nul(A) y tenemos que nul(AT A) ⊆ nul(A). Como probamos la doble inclusión,
se sigue que nul(AT A) = nul(A).
2. : Recordemos que en el Ejercicio 3.K, probamos que si A ∈ Rm×n y (Rn , h ·, · i) es el espacio
euclídeo canónico entonces
nul(A)⊥ = col(AT ).

147
3. Espacios Euclídeos

Por lo tanto, usando esa propiedad y que (acabamos de ver que) nul(AT A) = nul(A), tenemos que

col(AT A) = col((AT A)T ) = nul(AT A)⊥ = nul(A)⊥ = col(AT ).

3. : Como nul(A) es un subespacio, por la Proposición 3.5.2, tenemos que

nul(A) = (nul(A)⊥ )⊥

y usando que nul(A)⊥ = col(AT ) se sigue que

nul(A) = (nul(A)⊥ )⊥ = col(AT )⊥ .

4. : Finalmente, por 3.,


nul(AT ) = col((AT )T )⊥ = col(A)⊥ .


En el siguiente ejercicio vamos a estudiar un caso particular del problema de mínimos cuadrados
cuando consideramos matrices A ∈ Rm×n y el espacio (Rn , h ·, · i) euclídeo canónico.
Ejercicio 3.13. Sean (Rn , h ·, · i) y (Rm , h ·, · i) los espacios euclídeos canónicos de dimensión n y
m, respectivamente. Sean A ∈ Rm×n y b ∈ Rm .
Por definición, resolver la ecuación Ax = b por mínimos cuadrados significa determinar el
conjunto
arg mı́nn kAx − bk := {x ∈ Rn : kAx − bk = mı́nn kAx − bk}.
x∈R x∈R

En palabras, arg mı́nn kAx − bk es el conjunto de todos los x ∈ Rn cuyas imágenes por A minimizan
x∈R
la distancia al vector b.
a) Explicar por qué
arg mı́nn kAx − bk = {x ∈ Rn : Ax = Pcol(A) b}.
x∈R

b) Observar que {x ∈ Rn : Ax = Pcol(A) b} 6= ∅. Motivo por el cual para cualquier b ∈ Rm existe


al menos una solución por mínimos cuadrados de la ecuación Ax = b.
c) Verificar que nul(AT ) = col(A)⊥ .
d) Utilizando que b − Pcol(A) (b) ⊥ col(A), concluir que

arg mı́nn kAx − bk = {x ∈ Rn : AT Ax = AT b}.


x∈R

e) Verificar que nul(A)⊥ = fil(A) = col(AT ).


f) Utilizando que todo x ∈ Rn se descompone de manera única en la forma x = xf + xh , con
xf ∈ fil(A) y xh ∈ nul(A), deducir que la aplicación xf → Axf es una biyección de fil(A) en
col(A).
g) Concluir que para cada b ∈ Rm existe un único xf (b) ∈ fil(A) tal que

arg mı́nn kAx − bk = {xf (b) + xh : xh ∈ nul(A)}.


x∈R

Utilizando el Teorema de Pitágoras observar que de todas las soluciones por mínimos cuadrados
de la ecuación Ax = b, la solución xf (b) es la que tiene norma mínima.
h) Observar que cuando dim(col(A)) = n la matriz AT A es inversible y que por lo tanto,
x̂ = (AT A)−1 AT b es la única solución por mínimos cuadrados de la ecuación Ax = b. Como
Ax̂ = Pcol(A) b se deduce que A(AT A)−1 A es la matriz en base canónica de la proyección
ortogonal sobre col(A).

148
3.7. Mínimos cuadrados

Dem. a) : Observar que

mı́n kAx − bk = mı́n ky − bk = d(b, col(A)).


x∈Rn y∈col(A)

Por el Teorema 3.5.3, como col(A) es un subespacio de dimensión finita, entonces el vector Pcol(A) b
es el (único) vector de col(A) que minimiza la distancia a b. Por lo tanto, los vectores x ∈ Rn que
buscamos son las soluciones de la ecuación

Ax = Pcol(A) b.

Conclusión, arg mı́nn kAx − bk = {x ∈ Rn : Ax = Pcol(A) b}.


x∈R
b) : Como Pcol(A) b ∈ col(A), el sistema Ax = Pcol(A) b siempre tiene solución. Por lo tanto,
{x ∈ Rn : Ax = Pcol(A) b} =
6 ∅.
c) : Lo probamos en la Proposición 3.7.1.
d) : Por definición de proyección ortogonal, tenemos que

b − Pcol(A) (b) ∈ col(A)⊥ = nul(AT ),

donde usamos c). Entonces


AT (b − Pcol(A) b) = 0. (3.11)
Recordar que los vectores x ∈ Rn que buscamos son las soluciones de la ecuación Ax = Pcol(A) b.
Entonces, por (3.11), los vectores x ∈ Rn que buscamos son las soluciones de la ecuación
AT Ax = AT (Pcol(A) b) = AT b.
e) : Demostrado en el Ejercicio 3.K.
f ) : Llamemos Φ : fil(A) → col(A) a la aplicación Φ(xf ) = Axf . Veamos que Φ es una biyección
de fil(A) en col(A). Supongamos que Φ(xf ) = Axf = Φ(x0f ) = Ax0f , para xf , x0f ∈ fil(A). Entonces

A(xf − x0f ) = 0.

Por lo tanto xf − x0f ∈ nul(A) ∩ fil(A) = nul(A) ∩ nul(A)⊥ = {0}, donde usamos el ítem e). Por
lo tanto xf = x0f y Φ es inyectiva. Por otra parte, sea y ∈ col(A), entonces existe x ∈ Rn tal que
Ax = y. Descompongamos x de la forma x = xf + xh , con xf ∈ fil(A) = nul(A)⊥ y xh ∈ nul(A).
Entonces Axh = 0 y tenemos que

Φ(xf ) = Axf = A(xf + xh ) = Ax = y.

Por lo tanto Φ es sobreyectiva y entonces Φ es biyectiva.


g) : Los vectores x ∈ Rn que buscamos son las soluciones de la ecuación Ax = Pcol(A) b. Sea
x ∈ Rn una solución de Ax = Pcol(A) b. Como Rn = nul(A)⊥ ⊕ nul(A) = fil(A) ⊕ nul(A), podemos
escribir de manera única al vector x como

x = xf + xh ,

con xf ∈ fil(A) y xh ∈ nul(A). Entonces como Axh = 0, tenemos que

Axf = Ax = Pcol(A) b.

Por lo tanto xf ∈ fil(A) es una solución de cuadrados mínimos de Ax = b. Si existe otra solución
de cuadrados mínimos x0f ∈ fil(A) entonces Ax0f = Pcol(A) b = Axf . Entonces A(xf − x0f ) = 0 y tal
como hicimos en f ), se sigue que xf − x0f ∈ nul(A) ∩ fil(A) = nul(A) ∩ nul(A)⊥ = {0}. Entonces
xf = x0f y xf es la única solución de cuadrados mínimos de Ax = b que pertenece a fil(A). Por lo
tanto, concluimos que para cada b ∈ Rm existe un único xf (b) ∈ fil(A) (el vector xf depende de b)
tal que
arg mı́nn kAx − bk = {xf (b) + xh : xh ∈ nul(A)}.
x∈R

149
3. Espacios Euclídeos

Por último, sea x̂ una solución de cuadrados mínimos de Ax = b. Entonces Ax̂ = Pcol(A) b.
Entonces A(x̂ − xf ) = Pcol(A) b − Pcol(A) b = 0 y, tenemos que x̂ − xf ∈ nul(A). Además, como
xf ∈ nul(A)⊥ , podemos aplicar el Teorema de Pitátogoras y concluir que

kx̂k2 = kx̂ − xf + xf k2 = kx̂ − xf k2 + kxf k2 ≥ kxf k2 .

Por lo tanto kx̂k ≥ kxf k y xf es la solución de cuadrados mínimos de Ax = b que tiene norma
mínima.
h) : Por la Proposición 3.7.1, col(AT A) = col(AT ). Como AT A ∈ Rn×n y

dim(col(AT A)) = dim(col(AT )) = rg(AT ) = rg(A) = n,

tenemos que AT A es inversible (es de rango completo) y entonces existe la matriz (AT A)−1 . Por lo
tanto, la única solución del sistema AT Ax = AT b es

x̂ := (AT A)−1 AT b.

y x̂ es la única solución por cuadrados mínimos de Ax = b. Entonces, por a) vale que, para cada
b ∈ Rm ,

A(AT A)−1 AT b = Ax̂ = Pcol(A) b = [Pcol(A) b]E = [Pcol(A) ]E


E [b] = [Pcol(A) ]E b,
E E

donde E es la base canónica de Rm . Como las matrices A(AT A)−1 AT y [Pcol(A) ]E


E coinciden en
todo b ∈ Rm , se sigue que A(AT A)−1 AT = [Pcol(A) ]E
E. 

Vamos a remarcar las conclusiones del ejercicio anterior para tenerlas presentes:

Sean (Rn , h ·, · i) y (Rm , h ·, · i) los espacios euclídeos canónicos de dimensión n y m


respectivamente. Sean A ∈ Rm×n y b ∈ Rm . Entonces, son equivalentes:
a) x̂ ∈ Rn es una solución de mínimos cuadrados de la ecuación Ax = b.
b) kAx̂ − bk = mı́n{kAx − bk : x ∈ Rn } ó, equivalentemente, kAx̂ − bk ≤ kAx − bk para
todo x ∈ Rn .
c) x̂ ∈ Rn es una solución de la ecuación Ax = Pcol(A) (b), es decir Ax̂ = Pcol(A) (b).
d) x̂ ∈ Rn es una solución de la ecuación normal AT Ax = AT b, es decir AT Ax̂ = AT b.

En este caso, si x̂p es una solución de mínimos cuadrados de Ax = b entonces todas las
soluciones de mínimos cuadrados de Ax = b son

x̂ = x̂p + z,

con z ∈ nul(A). En particular, existe una única solución de mínimos cuadrados de Ax = b si


y sólo si nul(A) = {0}.

Para hacer alguna cuenta, consideremos el siguiente ejercicio muy similar al Ejercicio 3.15.
Ejercicio 3.L. La siguiente tabla muestra, para algunos instantes t (en segundos), la posición de
un móvil p(t) (en metros).

t 10 20 30 40
p(t) 2,5 5,2 6,6 9,4

a) Suponiendo velocidad constante. Hallar la recta p(t) que mejor ajusta los datos (en el sentido
de mínimos cuadrados).

150
3.7. Mínimos cuadrados

b) Determinar en qué posición se estima que estará el móvil en t = 50 seg.


c) Calcular el error de estimación.

Dem. a) : Buscamos una recta que mejor ajuste los datos. La recta será de la forma
p(t) = p0 + vt,
con p0 y v a determinar. Además, la recta que buscamos, queremos que cumpla:
2, 5 = p(10) = p0 + v · 10.
5, 2 = p(20) = p0 + v · 20.
6, 6 = p(30) = p0 + v · 30.
9, 4 = p(40) = p0 + v · 40.
2, 5 1 10
   
 5, 2   1 20 
Si llamamos b :=   6, 6  y A :=  1 30  . Buscamos la solución del sistema Ax = b, con
  

9, 4 1 40
 
p0
x := . Como claramente ese sistema no tiene solución, vamos a buscar una solución
v
aproximada aplicando mínimos cuadrados. Por lo que vimos arriba, x̂ es una solución de mínimos
3000 100
 
cuadrados de Ax = b si y sólo si A Ax̂ = A b. Entonces, como A A =
T T T
y
100 4
703
 
AT b = , buscamos las soluciones del sistema
23, 7
3000 100 703
   
x= .
100 4 23, 7
0, 4
 
Como rg(A) = rg(A A) = 2, el sistema tiene única solución y es x̂ =
T
. Entonces, la
0, 221
recta que mejor ajusta los datos (en el sentido de mínimos cuadrados) es p(t) = 0, 4 + 0, 221 · t.
b) : Usando la recta que mejor ajusta los datos (en el sentido de mínimos cuadrados) tenemos
que p(50) = 11, 45 m.
c) : El error cometido se obtiene calculando
2, 61 2, 5
   
 4, 82   5, 2 
e = kAx̂ − bk = k   7, 03  −  6, 6  k = [(0, 11) + (−0, 38) + (0, 43) + (0, 16) ]
   2 2 2 2 1/2

9, 24 9, 4
= 0, 613.

En el siguiente ejemplo vamos a hallar soluciones de cuadrados mínimos de la ecuación T (x) = b,
con T ∈ L(R3 [x], R4 ).
Ejercicio 3.M (De Parcial). Sea la transformación lineal T : R3 [x] → R4 definida por
 
p(−1)
p(0)
T (p) = 
 
.
 p(1) 
R1
−1
p(x)dx
1
 
 5 
Consideremos en R3 el producto interno canónico y la ecuación T (p) =   3 .

−1

151
3. Espacios Euclídeos

1
 
 5 
a) Decidir si existe p ∈ R3 [x] tal que T (p) = 
 3 .

−1
b) Si la respuesta de a) es negativa, hallar todas las soluciones aproximadas (en el sentido de
mínimos cuadrados) de dicha ecuación y estimar el error cometido.

Dem. a) : Primero vamos a obtener una base de Im(T ). Recordemos que como {1, x, x2 , x3 } es un
sistema de generadores de R3 [x], tenemos que Im(T ) = gen{T (1), T (x), T (x2 ), T (x3 )}.
R1 R1 R1 R1
Observar que −1 1dx = 2, −1 xdx = 0, −1 x2 dx = 32 −1 x3 dx = 0. Entonces

1 1
       
−1 −1
 , T (x) =  0  , T (x2 ) =  0  y T (x3 ) =  0  .
 1 
T (1) = 
     
 1   1   1   1 
2 0 2
3 0

1 1
       
−1 −1
 1   0   0   0 
Entonces, Im(T ) = gen{   1  ,  1  ,  1   1 }. Una base de Im(T ) puede ser
      

2 0 2
3 0
(verificarlo)
1 1
     
−1
 1   0   0 
BIm(T ) = {   1  ,  1  ,  1 }.
    

2 0 2
3

1 1
   
 5   5 
Como   3  6∈ Im(T ) (verificarlo). No existe p tal que T (p) =  3  .
  

−1 −1
b) : Como vimos arriba, todas las soluciones aproximadas (en el sentido de mínimos  cuadrados)
1

 5 
de dicha ecuación son las soluciones del sistema (ahora compatible) T (p) = PIm(T ) (   3 ).

−1
1 1
   
 5 
Para ahorrar cuentas, en vez de calcular PIm(T ) (  ), vamos a calcular PIm(T )⊥ (  5 )
 
 3   3 
−1 −1
ya que sabemos que vale que
1 1 1
     
 5   5   5 
PIm(T ) ( 
 3 ) =  3  − PIm(T )⊥ (  3 ).
    

−1 −1 −1
   
−1 y1
−4  y2 
Observar que Im(T )⊥ = gen{   −1 }. De hecho, y =  y3  ∈ Im(T ) si y sólo si

   

3 y4

1 + * 1 +
     
* −1 + *
 1   0   0 
0 = y,   1  = y,  1  = y,  1  .
    

2 0 2
3

152
3.7. Mínimos cuadrados

Entonces, operando, nos queda que

2
0 = y1 + y2 + y3 + 2y4 = −y1 + y2 = y1 + y3 + y4 .
3

Resolviendo el sistema, se sigue que y3 = − 31 y4 , y2 = − 34 y4 , y1 = − 13 y4 . Entonces,

− 13 y4 − 13
   
 − 4 y4   −4 
 − 1 y4  = y4
y=  3   31  con y4 ∈ R.
 − 
3 3
y4 1

− 13
     
−1 −1
 −4   −4   −4 
Por lo tanto, Im⊥ = gen{  − 1 } = gen{  −1 }. Como {
3   
 −1 } es una base (ortogonal)
 
3
1 3 3
de Im(T )⊥ (tiene un sólo elemento), por lo que vimos, tenemos que

1
   
* −1 +
 5   −4 
 3  ,  −1
   
1 1
       
 −1 −1
 5  −1 3  −4  −27  −4   4
PIm(T )⊥ ( 
 3 ) =  −1  = 27  −1  =  1

        .
−1 
−1  −4  2 3 3 −3
k −1  k

Entonces,

1 1 1 1 1 0
        
  
 5   5  5   5  4   1
 3 ) =  3
PIm(T ) (   3 ) =  3
 − PIm(T )⊥ ( 
 1 =  2
  
    −    .
  
−1 −1 −1 −1 −3 2

0
 
 1 
Por lo tanto, buscamos p ∈ R3 [x] tales que T (p) =   2 .

2
0
 
 1 
Si p ∈ R3 [x] es tal que T (p) = 
 2  entonces, p(x) = a + bx + cx + dx con a, b, c, d ∈ R, tal
 2 3

2
0
 
 1 
que T (p) = aT (1) + bT (x) + cT (x2 ) + dT (x3 ) = 
 2  . Entonces,

1 1 0
         
−1 −1
 1   0   0   0 
=  1
 1 +b  1 +c  1 +d
 
a      
 1 

 2
.

2 0 2
3 0 2

Resolviendo el sistema, nos queda que a = 1, b = 1 − d, c = 0. Volviendo a la expresión de p nos


queda que p(x) = 1 + x + d(x3 − x), con d ∈ R. Por lo tanto, todas las soluciones de mínimos

153
3. Espacios Euclídeos

1
 
 5 
 3  son
cuadrados de la ecuación T (p) =  

p̂(x) = 1 + x + d(x3 − x), con d ∈ R.

Finalmente, el error cometido, se obtiene como

1 0 1
       
−1
 5   1   5   −4  √
 3 k = k  2  −
e = kT (p̂) −      k = k
 3 
  k = 19.
 −1 
1 2 1 1

Proposición 3.7.2. Sean (V, h ·, · i) un K-espacio euclídeo de dimensión n y B = {v1 , v2 , · · · , vn }


 h v,v1 i 
kv1 k2
 h v,v2 i 
 kv2 k2 
una base ortogonal de V. Para cada v ∈ V, vale que [v]B = 
 ..  .

 . 
h v,vn i
 kvn k2 
h v, v1 i
 h v, v2 i 
En particular, si B es una base ortonormal de V, [v]B =  .  .
 
 .. 
h v, vn i
 
a1
 a2 
Dem. Supongamos que [v]B =  .  ∈ Kn . Entonces v = a1 v1 + a2 v2 + · · · + an vn . Por lo tanto
 
 .. 
an
como h vi , vj i = 0 si i 6= j, tenemos que para cada 1 ≤ i ≤ n,

h v, vi i = h a1 v1 + a2 v2 + · · · + an vn , vi i = ai h vi , vi i = ai kvi k2 .

Finalmente, como para cada 1 ≤ i ≤ n, kvi k2 6= 0, se sigue que


h v, vi i
ai = .
kvi k2

Si B es una base ortonormal de V, tenemos que kvi k2 = 1 para todo 1 ≤ i ≤ n. Entonces, para
cada 1 ≤ i ≤ n,
ai = h v, vi i .


Ejercicio 3.19 (ver Ejercicio 1.26). Se considera el R-espacio euclídeo (R2 [x], h ·, · i) con el
producto interno definido por

h p, q i := p(0)q(0) + p(1)q(1) + p(2)q(2).

Comprobar que
1 1
B := { (x − 1)(x − 2), −x(x − 2), x(x − 1)}
2 2
es una base ortonormal de (R2 [x], h ·, · i) y utilizar ese resultado para hallar el vector de coordenadas
del polinomio p(x) = 1 + x + x2 en base B.

154
3.7. Mínimos cuadrados

Dem. Llamemos p1 (x) = 12 (x − 1)(x − 2), p2 (x) = −x(x − 2) y p3 (x) = 12 x(x − 1). Entonces,
p1 (0) = 1, p1 (1) = 0, p1 (2) = 0, p2 (0) = 0, p2 (1) = 1, p2 (2) = 0 y p3 (0) = 0, p3 (1) = 0, p3 (2) = 1.
Entonces
h p1 , p1 i = p1 (0)p1 (0) + p1 (1)p1 (1) + p1 (2)p1 (2) = 1 + 0 + 0 = 1.
h p2 , p2 i = p2 (0)p2 (0) + p2 (1)p2 (1) + p2 (2)p2 (2) = 0 + 1 + 0 = 1.
h p3 , p3 i = p3 (0)p3 (0) + p3 (1)p3 (1) + p3 (2)p3 (2) = 0 + 0 + 1 = 1.
h p1 , p2 i = p1 (0)p2 (0) + p1 (1)p2 (1) + p1 (2)p2 (2) = 1 · 0 + 0 · 1 + 0 · 0 = 0.
h p1 , p3 i = p1 (0)p3 (0) + p1 (1)p3 (1) + p1 (2)p3 (2) = 1 · 0 + 0 · 0 + 0 · 1 = 0.
h p2 , p3 i = p2 (0)p3 (0) + p2 (1)p3 (1) + p2 (2)p3 (2) = 0 · 0 + 1 · 0 + 0 · 1 = 0.
Por lo tanto, como h pi , pj i = δij , se sigue que B es una base ortonormal de (R2 [x], h ·, · i).
Finalmente, por la Proposición 3.7.2, tenemos que si p(x) = 1 + x + x2 entonces
 
h p, p1 i
[p]B = h p, p2 i .
h p, p3 i

Como
h p, p1 i = p(0)p1 (0) + p(1)p1 (1) + p(2)p1 (2) = 1 · 1 + 3 · 0 + 7 · 0 = 1.
h p, p2 i = p(0)p2 (0) + p(1)p2 (1) + p(2)p2 (2) = 1 · 0 + 3 · 1 + 7 · 0 = 3.
h p, p3 i = p(0)p3 (0) + p(1)p3 (1) + p(2)p3 (2) = 1 · 0 + 3 · 0 + 7 · 1 = 7.
Entonces,
1
 

[p]B = 3 .
7


Ejercicio 3.20. Sean (V, h ·, · i) un R-espacio euclídeo de dimensión n y sea B = {u1 , u2 , · · · , un }


una base ortonormal de V.

a) Comprobar que para toda pareja de vectores v1 , v2 ∈ V vale que


v
u n
uX
d(v1 , v2 ) = t (h v2 , uj i − h v1 , uj i)2 .
j=1

b) Deducir que para cada v0 ∈ V y cada r > 0, el conjunto


n
X n
X
{v ∈ V : d(v, v0 ) = r} = { xj uj : x1 , · · · , xn ∈ R, (xj − aj )2 = r2 },
j=1 j=1

donde [a1 · · · an ]T es el vector de coordenadas de v0 respecto de la base B.

Dem. Para resolver este ejercicio vamos a usar la Proposición 3.7.2.


a) : Recordar que d(v1 , v2 ) = kv1 − v2 k2 . Como B es una base ortonormal, por la Proposición
3.7.2, tenemos que    
h v1 , u1 i h v2 , u1 i
 h v1 , u2 i   h v2 , u2 i 
[v1 ]B =  .. y [v ]B
= .. .
   
2
. .
 
   
h v1 , un i h v2 , un i

155
3. Espacios Euclídeos

Por lo tanto,

v1 = h v1 , u1 i u1 +h v1 , u2 i u2 +· · ·+h v1 , un i un y v2 = h v2 , u1 i u1 +h v2 , u2 i u2 +· · ·+h v2 , un i un .

Entonces, usando propiedades de producto interno y aplicando el Teorema de Pitágoras (recordar


que el conjunto {u1 , u2 , · · · , un }es ortonormal), se sigue que

kv1 − v2 k2 = k(h v1 , u1 i − h v2 , u1 i)u1 + (h v1 , u2 i − h v2 , u2 i)u2 + · · · + (h v1 , un i − h v2 , un i)un k2


= k h v1 − v2 , u1 i u1 + h v1 − v2 , u2 i u2 + · · · + h v1 − v2 , un i un k2
2 2 2
= h v1 − v2 , u1 i ku1 k2 + h v1 − v2 , u2 i ku2 k2 + · · · + h v1 − v2 , un i kun k2
2 2 2
= h v1 − v2 , u1 i + h v1 − v2 , u2 i + · · · + h v1 − v2 , un i .

Por lo tanto,
q
2 2 2
d(v1 , v2 ) = h v1 − v2 , u1 i + h v1 − v2 , u2 i + · · · + h v1 − v2 , un i
v
u n
uX
= t (h v2 , uj i − h v1 , uj i)2
j=1

y probamos lo que queríamos.


b) : Vamos a probar la doble inclusión. Supongamos que v ∈ V es tal que d(v, v0 ) = r. Entonces,
por un lado como v ∈ V y B es una base ortonormal, por la Proposición 3.7.2, se sigue que
[v]B = [h v, u1 i h v, u2 i · · · h v, un i]T := [x1 · · · xn ]T . Entonces,
n
X
v= xj uj .
j=1

Por la Proposición 3.7.2, [v0 ]B = [h v0 , u1 i h v0 , u2 i · · · h v0 , un i]T := [a1 · · · an ]T .


Además, por a),
2 2 2
r2 = d(v, v0 )2 = h v − v0 , u1 i + h v − v0 , u2 i + · · · + h v − v0 , un i
= (h v, u1 i − h v0 , u1 i)2 + (h v, u2 i − h v0 , u2 i)2 + · · · + (h v, un i − h v0 , un i)2
= (x1 − a1 )2 + (x2 − a2 )2 + · · · + (xn − an )2
Pn Pn
y entonces v ∈ { j=1 xj uj : x1 , · · · , xn ∈ R, (x − aj )2 = r2 }.
Pn j=1 j Pn
Recíprocamente, supongamos que v = j=1 xj uj con x1 , · · · , xn ∈ R, y j=1 (xj − aj )2 = r2 .
Donde [a1 · · · an ]T = [v0 ]B = [h v0 , u1 i h v0 , u2 i · · · h v0 , un i]T , es el vector de coordenadas de v0
respecto de la base B. Entonces, [v]B = [x1 · · · xn ]T = [h v, u1 i h v, u2 i · · · h v, un i]T y, por a),
tenemos que
2 2 2
d(v, v0 )2 = h v − v0 , u1 i + h v − v0 , u2 i + · · · + h v − v0 , un i
= (h v, u1 i − h v0 , u1 i)2 + (h v, u2 i − h v0 , u2 i)2 + · · · + (h v, un i − h v0 , un i)2
= (x1 − a1 )2 + (x2 − a2 )2 + · · · + (xn − an )2 = r2 .

Entonces v ∈ {v ∈ V P : d(v, v0 ) = r}. Como probamos la doble inclusión, se sigue que


n Pn
{v ∈ V : d(v, v0 ) = r} = { j=1 xj uj : x1 , · · · , xn ∈ R, j=1 (xj − aj )2 = r2 }. 

Ejercicio 3.21. Se considera R2 con el producto interno h ·, · i definido por

2 1
 
h x, y i = y T x.
1 2

156
3.7. Mínimos cuadrados

a) Describir el significado geométrico del conjunto


Σ = {x ∈ R2 : 2x21 + 2x1 x2 + 2x22 = 4}.

b) Hallar dos vectores v1 , v2 ∈ R2 tales que


Σ = {y1 v1 + y2 v2 : y1 , y2 ∈ R, y12 + y22 = 4} = {2 cos(θ)v1 + 2 sin(θ)v2 : θ ∈ [0, 2π)}.
 
x1
Dem. a) : Notar que, para cada x = ∈ R2 , vale que
x2

2 1 2 1
     
x1
kxk = h x, x i = x
2 T
x = [x1 x2 ] T
= 2x21 + 2x1 x2 + 2x22 .
1 2 1 2 x2

Por lo tanto, Σ = {x ∈ R2 : kxk2 = 4} = {x ∈ R2 : kxk = 2}. Entonces Σ es el conjunto de todos


los vectores de R2 con norma 2. Observar que la norma considerada NO es la inducidad por el
producto interno canónico de R2 sino la inducida por el producto interno dado al principio del
ejercicio.
b) : Vamos a completar cuadrados en la expresión 2x21 + 2x1 x2 + 2x22 = 4. Notar que
√ √
√ 2 3
( 2x1 + x2 ) + ( √ x2 )2 = 2x21 + 2x1 x2 + 2x22 = 4.
2
2 2
A continuación, proponemos el siguiente cambio de variables
√ √ √
√ 2 3 6
y1 := 2x1 + x2 , y2 := √ x2 = x2 .
2 2 2
Entonces y12 + y22 = 4 y además,
 √ √  
1 2 2 √2
 
y1 x1
y= = .
y2 2 0 6 x2
 √ √ 
2 2 √2
Notar que la matriz 21 es inversible (su determinante no es nulo). Por lo tanto,
0 6
 √ √   √ √  
1 2 2 √2 −1 1 3 2 −√ 6
    
x1 y1 y1
=( ) = .
x2 2 0 6 y2 6 0 2 6 y2
 √   √ 
3 2 −√ 6
Sean v1 := 16 y v2 := 16 . Entonces, si x ∈ Σ, tenemos que x = y1 v1 + y2 v2 y
0 2 6
además, y12 + y22 = 4. Por lo tanto Σ ⊆ {y1v1 + y2 v2 : y1 , y2 ∈ R, y12 + y22= 4}.
√   √ 
x1 1 3 2 1 −√ 6
Recíprocamente, supongamos que x = = y1 v1 + y2 v2 = y1 + y2
x2 6 0 6 2 6
√ √ √
con y1 + y2 = 4. Entonces x1 = 6 (3 2y1 − 6y2 ) y x2 = 6 6y2 . Entonces
2 2 1 2

2 √ 4 √ 48
2x21 + 2x1 x2 + 2x22 = (18y12 − 6 12y1 y2 + 6y22 ) + (y1 y2 3 12 − 6y22 ) + y22
36 36 36
= y12 + y22 = 4.
Por lo tanto x ∈ Σ y tenemos que {y1 v1 + y2 v2 : y1 , y2 ∈ R, y12 + y22 = 4} ⊆ Σ. Como probamos la
doble inclusión, se sigue que Σ = {y1 v1 + y2 v2 : y1 , y2 ∈ R, y12 + y22 = 4}.
Por último, es claro que si y1 := 2 cos(θ), y2 := 2 sin(θ) con θ ∈ [0, 2π), se sigue que y12 + y22 = 4.
Recíprocamente, si y12 + y22 = 4, entonces el conjunto {y ∈ R2 : y12 + y22 = 4} es la circunferencia
de radio 2 cuya parametrización es justamente, y1 = 2 cos(θ), y2 = 2 sin(θ) con θ ∈ [0, 2π) y
por lo tanto tenemos la otra igualdad de conjuntos, {y1 v1 + y2 v2 : y1 , y2 ∈ R, y12 + y22 = 4} =
{2 cos(θ)v1 + 2 sin(θ)v2 : θ ∈ [0, 2π)}. 

157
3. Espacios Euclídeos

3.8. Distancia mínima


El siguiente ejercicio nos permite demostrar que si (V, h ·, · i) es un espacio euclídeo (no
necesariamente de dimensión finita), para cada punto v ∈ V, siempre existe un único vector
de un subespacio (de dimensión finita) que es “más cercano” (en el sentido que minimiza la
distancia) a v.
Lo que probemos en el siguiente ejercicio también se puede usar para definir la proyección
ortogonal de un punto a un subespacio (de dimensión finita). Antes de resolver el ejercicio, repasemos
el concepto de sucesiones en espacios normados.

Sucesiones en espacios normados


Sea (V, k · k) un espacio normado y sea (vn )n∈N una sucesión de elementos de V. Diremos que
la sucesión (vn )n∈N es convergente si existe v0 ∈ V tal que

lı́m kvn − v0 k = 0,
n→∞

ó, equivalentemente, si para cada ε > 0 existe N0 ∈ N tal que

kvn − v0 k < ε,

para todo n ≥ N0 . En este caso, escribimos

lı́m vn = v0 .
n→∞

Ejercicio 3.23. Sea {ui : i ∈ N} un sistema ortonormal de vectores en un R-espacio euclídeo


(V, h ·, · i). Dados v ∈ V y n ∈ N, se considera el problema de hallar el vector v̂n ∈ gen{ui : i ∈
{1, 2, · · · , n}} =: Un más cercano a v.
a) Mostrar que para todo [a1 a2 · · · an ]T ∈ Rn vale que
n
X n
X n
X
2
kv − ai vi k2 = kvk2 − h v, ui i + (ai − h v, vi i)2 ,
i=1 i=1 i=1

y deducir de allí que mı́n kv − wk se realiza en


w∈Un

n
X
v̂n = h v, ui i ui ,
i=1

y que su valor es
v
u n
X 2
mı́n kv − wk = kv − v̂n k = tkvk2 −
u
h v, ui i .
w∈Un
i=1

P∞ 2
b) Notar que lı́m vˆn = v, si y sólo si, i=1 h v, ui i = kvk2 .
n→∞

c) Observar que para todo v ∈ V y todo n ∈ N, el vector v − v̂n ∈ Un⊥ y deducir de allí que
V = Un ⊕ Un⊥ para todo n ∈ N.
Antes de resolver el ejercicio, entendamos qué es lo queremos probar. En primer lugar, con
elemento de Un “más cercano” a v, nos referimos a aquel elemento de Un (si existe) que minimiza la
distancia a v. En este caso, como estamos en un K-espacio euclídeo vamos a tomar como distancia
la inducida por el producto interno. Recordar que si x, y ∈ V, la distancia de x a y está definida por
1/2
d(x, y) := h x − y, x − y i = kx − yk.

158
3.8. Distancia mínima

Por otra parte, sea v ∈ V y fijemos un valor de n ∈ N. Entonces Un = gen{u1 , · · · , un }.


Consideremos el siguiente conjunto de números reales

A := {kv − wk : w ∈ Un } ⊆ R.

Claramente el conjunto A es no vacío y además como kv − wk ≥ 0 para todo w ∈ Un , el conjunto


A está acotado inferiormente por 0. Entonces, existe el ínfimo de dicho conjunto, y además vale
que ı́nf {kv − wk : w ∈ Un } ≥ 0. Lo que nos está pidiendo el ejercicio es probar que ese ínfimo (que
siempre existe) se realiza y entonces tenemos un mínimo.
Recordemos que m ∈ R es el mínimo del conjunto de números reales de A si pasan dos cosas:

kv − wk ≥ m, para todo w ∈ Un . Es decir m es una cota inferior de A.

Existe ŵ ∈ Un tal que kv − ŵk = m, es decir hay un elemento del conjunto A que realiza el
mínimo.

En conclusión, el ejercicio nos pide probar que si (V, h ·, · i) es un K-espacio euclídeo, existe un
(único) vector de Un que minimiza A. De hecho, el ejercicioPno sólo nos pide probar que tal mínimo
n
existe y que es único sino que ese mínimo es ŵ := v̂n = i=1 h v, ui i ui ∈ Un . Es decir, vamos a
probar que
kv − wk ≥ kv − v̂n k
para todo w ∈ Un y que el vector que realiza el mínimo es único. Entendido esto, resolvamos el
ejercicio.
Dem. a) : Vimos que si v, w ∈ V con V un R-espacio euclídeo, entonces

kv − wk2 = kvk2 − 2 h v, w i + kwk2 .


Pn
Entonces, para el vector w = i=1 ai ui ∈ Un tenemos que
n
X n
X n
X
kv − ai ui k2 = kvk2 − 2 ai h v, ui i + k ai ui k2
i=1 i=1 i=1

Por otra parte, como {u1 , u2 , · · · , un } es un conjunto ortonormal, tenemos que


n
* n n
+ n Xn n
X X X X X
k ai ui k2 = ai ui , aj uj = ai aj h ui , uj i = a2i ,
i=1 i=1 i=j i=1 j=1 i=1

donde usamos que h ui , uj i = 0 si i 6= j y h ui , ui i = 1.


Pn 2
Entonces, asociando, sumando y restando el término i=1 h v, ui i se sigue que
n
X n
X n
X n
X
kv − ai ui k2 = kvk2 − 2ai h v, ui i + a2i = kvk2 + (a2i − 2ai h v, ui i)
i=1 i=1 i=1 i=1
n
X n
X n
X
2 2
= kvk2 + (a2i − 2ai h v, ui i) + h v, ui i − h v, ui i
i=1 i=1 i=1
n
X n
X
2 2
= kvk2 + (a2i − 2ai h v, ui i + h v, ui i ) − h v, ui i
i=1 i=1
n
X n
X 2
= kvk2 + (ai − h v, ui i)2 − h v, ui i .
i=1 i=1

y probamos lo que queríamos.

159
3. Espacios Euclídeos

Pn
Por otra parte, observar que v̂n := i=1 h v, ui i ui ∈ Un (porque es una CL de elementos de
Un ), además, operando de manera similar que arriba y usando que {u1 , · · · , un } es un conjunto
ortonormal, tenemos que

kv − v̂n k2 = kvk2 − 2 h v, v̂n i + kv̂n k2


X n n
X
= kvk2 − 2 h v, h v, ui i ui i + k h v, ui i ui k2
i=1 i=1
n
X n
X
2 2
= kvk2 − 2 h v, ui i + h v, ui i
i=1 i=1
n
X 2
= kvk2 − h v, ui i .
i=1
Pn
Entonces, usando que i=1 (ai − h v, ui i)2 > 0, tenemos que para todo [a1 a2 · · · an ]T ∈ Rn ,
n
X n
X n
X n
X
2 2
kv − ai ui k2 = kvk2 + (ai − h v, ui i)2 − h v, ui i ≥ kvk2 − h v, ui i = kv − v̂n k2 .
i=1 i=1 i=1 i=1

Tomando raíz cuadrada (que es una función creciente) se sigue que, para todo
[a1 a2 · · · an ]T ∈ Rn ,
Xn
kv − ai ui k ≥ kv − v̂n k.
i=1
Pn
Como cualquier elemento w ∈ Un se escribe como w = i=1 ai ui para ciertos
[a1 a2 · · · an ]T ∈ Rn , la ecuación anterior nos asegura que v̂n realiza el mínimo que buscamos, es
decir
n
X
mı́n{kv − wk2 : w ∈ Un } = mı́n{kv − ai ui k : [a1 a2 · · · an ]T ∈ Rn } = kv − v̂n k.
i=1
q Pn 2
Finalmente, como kv − v̂n k = kvk2 − i=1 h v, ui i , concluimos que
v
u n
X 2
mı́n{kv − wk : w ∈ Un } = kv − v̂n k = tkvk2 −
u
h v, ui i .
i=1

Por último, veamos que el vector de Un que es “más cercano” a v (en el sentido que minimiza
la distancia a v) es único. De hecho, supongamos que existe otro elemento ŵ ∈ Un que es “más
cercano” a v. Entonces, claramente

kv − ŵk = kv − v̂n k,

esto es así porque como v̂n realiza el mínimo y ŵ ∈ Un entonces kv − v̂n k ≤ kv − ŵk. De la misma
manera, como estamos suponiendo que ŵ realiza el mínimo y v̂n ∈ Un entonces kv − ŵk ≤ kv − v̂n k
y tenemos la igualdad.
Por otra parte, recordar que en (3.7), vimos que para todo x, y ∈ V,

kx − yk2 + kx + yk2 = 2kxk2 + 2kyk2 .

Observar que (obviamente) ŵ − v̂n = ŵ − v − (v̂n − v). Entonces, aplicando la igualdad anterior
a x = (ŵ − v) e y = (v̂n − v), nos queda

kŵ − v̂n k2 = k(ŵ − v) − (v̂n − v)k2 = 2kŵ − vk2 + 2kv̂n − vk2 − k(ŵ − v) + (v̂n − v)k2

160
3.8. Distancia mínima

ŵ + v̂n
= 2kŵ − vk2 + 2kv̂n − vk2 − kŵ + v̂n − 2vk2 = 4kŵ − vk2 − 4k − vk2
2
ŵ + v̂n
= 4(kŵ − vk2 − k − vk2 ) ≤ 0,
2

donde usamos que como ŵ realiza el mínimo, vale que kŵ − vk2 ≤ k ŵ+v̂ 2
n
− vk2 , pues como
v̂n , ŵ ∈ Un y Un es un subespacio entonces 2 ∈ Un .
ŵ+v̂n

Entonces, nos quedó que 0 ≤ kŵ − v̂n k2 ≤ 0, por lo tanto kŵ − v̂n k = 0, entonces ŵ − v̂n = 0V
y se sigue que ŵ = v̂n . Conclusión : el vector que minimiza la distancia es único y es v̂n .

b) : Por definición de límite de sucesiones en espacios normados sabemos que lı́m v̂n = v si y
n→∞
sólo si lı́m kv − v̂n k = 0. Por el ítem a), sabemos que
n→∞

n
X 2
kv − v̂n k2 = kvk2 − h v, ui i .
i=1

Pn 2
Entonces, existe lı́m kv − v̂n k si y sólo si existe lı́m (kvk2 − i=1 h v, ui i ). Más aún, en este caso,
n→∞ n→∞

n
X n
X
2 2
0 = lı́m kv − v̂n k2 = lı́m (kvk2 − h v, ui i ) = kvk2 − lı́m h v, ui i ,
n→∞ n→∞ n→∞
i=1 i=1

donde usamos que kvk2 es una constante que no depende de n. Finalmente, recordemos que
P∞ 2 Pn 2
i=1 h v, ui i := lı́m
n→∞ i=1 h v, ui i . Por lo tanto, lı́m kv − v̂n k = 0 si y sólo si
n→∞


X n
X
2 2
h v, ui i = lı́m h v, ui i = kvk2 .
n→∞
i=1 i=1

c) : Ya vimos que para todo v ∈ V y todo n ∈ N el vector v̂n ∈ Un (es el único que) realiza el
mínimo del conjunto {kv − wk2 : w ∈ Un }. Por otra parte, para cada j ∈ {1, 2, · · · , n}, tenemos que
* n
+
X
h v − v̂n , uj i = v − h v, ui i ui , uj =
i=1

n
X
= h v, uj i − h v, ui i h ui , uj i = h v, uj i − h v, uj i = 0,
i=1

donde usamos que h ui , uj i = 0 si i 6= j y h ui , ui i = 1. Por lo tanto v − v̂n ⊥ uj para cada


j = {1, 2, · · · , n}. Por lo tanto, si u ∈ Un , tenemos que u = a1 u1 + · · · + an un , para ciertos
a1 , · · · , an ∈ R. Entonces, usando que v − v̂n ⊥ uj para cada j = {1, 2, · · · , n}, tenemos que

h v − v̂n , u i = h v − v̂n , a1 u1 + · · · + an un i = a1 h v − v̂n , u1 i + · · · + an h v − v̂n , un i = 0,

entonces v − v̂n ∈ Un⊥ .


Finalmente, es claro que Un ∩ Un⊥ = {0} y que Un ⊕ Un⊥ ⊆ V. Entonces, sea v ∈ V, acabamos de
probar que existe v̂n ∈ Un tal que v − v̂n ∈ Un⊥ y como

v = v̂n + (v − v̂n )

se sigue que v ∈ Un ⊕ Un⊥ con lo que concluimos que Un ⊕ Un⊥ = V. 

161
3. Espacios Euclídeos

Ejercicio 3.N (De Parcial). En R2 [x] se considera el producto interno definido por

h p, q i = p(−1)q(−1) + p(0)q(0) + p(1)q(1).

Sea U := {p ∈ R2 [x] : p0 (0) = 0} y sea q(x) := −x2 + x. Hallar todos los p ∈ U tales que p ⊥ q y
kpk = 20.

Dem. Si p ∈ U, entonces p ∈ R2 [x], es decir p(x) = ax2 + bx + c con a, b, c ∈ R y p0 (0) = 0. Entoces,


como p0 (x) = 2ax + b, tenemos que p0 (0) = b = 0 y, volviendo a la expresión de p, nos queda que
p(x) = ax2 + c, con a, c ∈ R.
Por otra parte, p ⊥ q, entonces 0 = h p, q i = ax2 + c, −x2 + x . Entonces, como p(−1) =

a + c, p(0) = c, p(1) = a + c, q(−1) = −2, q(0) = 0, q(1) = 0. Tenemos que

0 = ax2 + b, −x2 + x = (a + c)(−2) + c · 0 + (a + c) · 0 = −2(a + c).



Entonces a = −c y, volviendo a la expresión de p nos queda que p(x) = ax2 − a = a(x2 − 1), con
a ∈ R. Finalmente
20 = kpk = ka(x2 − 1)k = |a|kx2 − 1k.
Como kx2 − 1k2 = 0 · 0 + −1 · −1 + 0 · 0 = 1. Entonces kx2 − 1k = 1 y

20 = |a|kx2 − 1k = |a|,

por lo tanto a = 20 ó a = −20.


Conclusión, los polinomios p ∈ U tales que p ⊥ q y kpk = 20, son p(x) = 20(x2 − 1) y
p(x) = −20(x2 − 1).


El siguiente ejercicio es un ejercicio similar al Ejercicio 3.24, ambos ejercicios se resuelven


aplicando las conclusiones obtenidas del Ejercicio 3.23.
Ejercicio 3.Ñ (De Parcial). Sea C([0, 1], R) = {f : [0, 1] → R : f es continua } con el producto
interno Z 1
h f, g i = f (t)g(t)dt.
0

Dada h(t) = t + 1 ∈ C([0, 1], R), hallar la función cuadrática de expresión g(t) = a + bt2 , que
4

minimiza la distancia a h.

Dem. Si llamamos U2 = gen{1, t2 } ⊆ C([0, 1], R), el ejercicio nos pide el elemento de U2 más
cercano a h. Es decir, si g ∈ U2 , entonces g(t) = a + bt2 con a, b ∈ R y buscamos los valores de
a, b ∈ R tales que la g que resulte minimiza la distancia a h. Pero eso es justamente lo que hicimos
en el Ejercicio 3.23. Si BU2 = {u1 , u2 } es una base ortonormal de U2 , entonces (como vimos en el
ejercicio anterior) la función g que buscamos es

g := ĥ2 = h h, u1 i u1 + h h, u2 i u2 .

Entonces, primero obtengamos una base ortonormal de U2 . Buscamos u1 , u2 ∈ U2 ortonormales


tales que gen{u1 , u2 } = U2 . Podemos tomar u1 (t) := 1, y busquemos α ∈ R tal que u2 (t) := t2 + α1
sea ortogonal a u1 . Entonces

0 = h u2 , u1 i = t2 + α1, 1 = t2 , 1 + α h 1, 1 i .


Entonces
− t2 , 1


α= .
h 1, 1 i

162
3.9. Algoritmo de Gram-Schmidt

Haciendo, cuentas tenemos que


Z 1
h 1, 1 i = 1dt = t|10 = 1,
0
1
t3 1 1
Z
t2 , 1 = t2 dt = | = .


0 3 0 3
Entonces α = − 13 y u2 (t) = t2 − 13 . Sólo nos falta normalizar los vectores, para eso calculemos las
normas de u1 y u2 entonces
ku1 k2 = h 1, 1 i = 1,
1 1 1 2 1 4
 Z 1
t5

ku2 k2 = t2 − , t2 − = (t2 − )2 dt = − t3 + t|10 = .
3 3 0 3 5 9 9 45
2 1 √
t −
Entonces, u1 (t) = 1 (ya normalizado) y u2 (t) = √ 43 = 2 (t
3 5 2
− 31 ). Por lo tanto
45
√  √
3 5 2 1 3 5 2 1

g(t) = h h, u1 i u1 + h h, u2 i u2 = t + 1, 1 1 + 4
t + 1,
4
(t − ) (t − )


2 3 2 3
1 45 2 1
 
= t + 1, 1 1 + t + 1, t − (t − ).

4 4 2
3 4 3
Haciendo, cuentas tenemos que
1
t5 6
Z
t + 1, 1 =
4
(t4 + 1)dt = + t|10 = ,


0 5 5
1 1
1 t7 t5 t3 8
  Z
t
t4 + 1, t2 − = (t4 + 1)(t2 − )dt = − + − |10 = .
3 −1 3 7 15 3 3 105
Por lo tanto,
6 8 45 2 1 6 6 1 32 6
g(t) = ·1+ (t − ) = · 1 + (t2 − ) = · 1 + t2 .
5 105 4 3 5 7 3 35 7


3.9. Algoritmo de Gram-Schmidt


Sea (V, h ·, · i) un K-espacio euclídeo y sea B = {v1 , v2 , · · · , vn } una base de V, el algoritmo de
Gram-Schmidt nos permite obtener una base ortonormal B 0 = {w1 , w2 , · · · , wn } de V a partir de la
base B con la siguiente propiedad:
gen{v1 } = gen{w1 },
gen{v1 , v2 } = gen{w1 , w2 },
gen{v1 , v2 , v3 } = gen{w1 , w2 , w3 },
..
.
gen{v1 , v2 , v3 , · · · , vn } = gen{w1 , w2 , w3 , · · · , wn }.
Veamos un ejemplo de aplicación del algoritmo de Gram-Schmidt.

Ejercicio 3.27. Se considera el R-espacio euclídeo (C([−1, 1], R), h ·, · i) con el producto interno
definido por Z 1
h f, g i = f (x)g(x)dx
−1
y el subespacio R2 [x].

163
3. Espacios Euclídeos

a) Utilizar Gram-Schmidt para producir una base ortonormal {p0 , p1 , p2 } de R2 [x] a partir de la
base {q0 , q1 , q2 } donde q0 (x) = 1, q1 (x) = x, q2 (x) = x2 .
b) Hallar las siguientes proyecciones ortogonales PR2 [x] (sin(x)), PR2 [x] (cos(x)).
c) Calcular las distancias d(sin(x), R2 [x]) y d(cos(x), R2 [x])

Dem. Vamos a aplicar el algoritmo de Gram-Schmidt. Primero vamos a obtener una base ortogonal
y al finalizar normalizaremos todos los vectores obtenidos para producir una base ortonormal.
a) : Paso 1:
r0 = q0 .
Paso 2:
h q1 , r0 i
r1 = q1 − r0 .
kr0 k2
Haciendo cuentas
1 1
x2 1
Z Z
h q1 , r0 i = q1 (x)r0 (x)dx = x · 1dx = | = 0.
−1 −1 2 −1

Entonces r1 (x) = q1 (x) = x.


Paso 3:
h q2 , r1 i h q2 , r0 i
r2 = q2 − 2
r1 − r0 .
kr1 k kr0 k2
Haciendo cuentas
1 1
x3 1 2
Z Z
h q2 , r0 i = q2 (x)r0 (x)dx = x2 · 1dx = | = ,
−1 −1 3 −1 3
1 1
x4 1
Z Z
h q2 , r1 i = q2 (x)r1 (x)dx = x2 x dx = | = 0.
−1 −1 4 −1
R1 R1
Por otra parte, kr0 k2 = r (x)2 dx
−1 0
= −1
1dx = 2.
Por lo tanto,
2 1 1
· = x2 − .
r2 (x) = x2 −
3 2 3
La base ortogonal del subespacio R2 [x] nos quedó
1
{r0 , r1 , r2 } = {1, x, x2 − }.
3
Ahora calculemos la norma de cada vector de la base ortogonal que obtuvimos.
Z 1 Z 1
kr0 k =
2
r0 (x) dx =
2
1dx = x|1−1 = 2,
−1 −1
1 1
x3 1 2
Z Z
kr1 k2 = r1 (x)2 dx = x2 dx = |−1 = ,
−1 −1 3 3
1 1
1 8
Z Z
kr2 k2 = r2 (x)2 dx = (x2 − )2 dx = .
−1 −1 3 45

Normalizando, nos que


r0 1
p0 (x) = =√ ,
kr0 k 2
r1 (x) 3
r
p1 (x) = = x,
kr1 k 2

164
3.9. Algoritmo de Gram-Schmidt

r2 (x) 45 2 1
r
p2 (x) = = (x − ).
kr2 k 8 3

Entonces, la base ortonormal nos queda

1 3 45 2 1
r r
{p0 , p1 , p2 } = { √ , x, (x − )}.
2 2 8 3

Recuerden que siempre podemos verificar si hicimos bien las cuentas viendo que efectivamente
h p0 , p1 i = h p0 , p2 i = h p1 , p2 i = 0 y kp0 k = kp1 k = kp2 k = 1.

b) : Como en el paso a) calculamos una base ortonormal del subespacio R2 [x] podemos aplicar la
fórmula de la proyección ortogonal. Recuerden que esa fórmula sólo se puede usar cuando tenemos
una base ortogonal del subespacio en cuestión, en este caso tenemos una base ortonormal (en
particual es ortogonal). Entonces, usando la base ortonormal {p0 , p1 , p2 } del item a), nos queda

PR2 [x] (sin(x)) = h sin(x), p0 i p0 + h sin(x), p1 i p1 + h sin(x), p2 i p2 .


Haciendo cuentas, tenemos que
1
1 1
Z Z
h sin(x), p0 i = sin(x) √ dx = 0.
sin(x)p0 (x) dx =
−1 −1 2
3 3
Z 1 Z 1 r r
h sin(x), p1 i = sin(x)p1 (x) dx = sin(x) x dx = (2 sin(1) − 2 cos(1)).
−1 −1 2 2
45 2 1
Z 1 Z 1 r
h sin(x), p2 i = sin(x)p2 (x) dx = sin(x) (x − ) dx = 0.
−1 −1 8 3
Entonces,

3 3
r r
PR2 [x] (sin(x)) = (2 sin(1) − 2 cos(1))( x)
2 2
= 3(sin(1) − cos(1)) x.

De manera similar,

PR2 [x] (cos(x)) = h cos(x), p0 i p0 + h cos(x), p1 i p1 + h cos(x), p2 i p2 .

Haciendo cuentas, tenemos que


1
11
1
Z Z
h cos(x), p0 i = cos(x)p0 (x) dx =cos(x) √ dx = √ 2 sin(1).
−1 −1 2 2
3
Z 1 Z 1 r
h cos(x), p1 i = cos(x)p1 (x) dx = cos(x) x dx = 0.
−1 −1 2
45 2 1 45 8 sin(1)
Z 1 Z 1 r r
h cos(x), p2 i = cos(x)p2 (x) dx = cos(x) (x − ) dx = (4 cos(1) − ).
−1 −1 8 3 8 3
Entonces

1 1 45 8 sin(1) 45 2 1
r r
PR2 [x] (cos(x)) = √ 2 sin(1)( √ 1) + (4 cos(1) − )( (x − ))
2 2 8 3 8 3
15 1
= sin(1) 1 + (3 cos(1) − 2 sin(1)) (x2 − ).
2 3
c) : Recordando la fórmula de la distancia de un punto a un subespacio, tenemos que

165
3. Espacios Euclídeos

d(sin(x), R2 [x]) = k sin(x) − PR2 [x] (sin(x)k = k sin(x) − 3(sin(1) − cos(1)) xk.
Haciendo la cuenta, tenemos que
1
11 sin(2)
Z
k sin(x) − 3(sin(1) − cos(1)) xk2 = (sin(x) − 3(sin(1) − cos(1)) x)2 dx = − 5.
−1 2

Entonces r
11 sin(2)
d(sin(x), R2 [x]) = − 5 ≈ 0, 0337.
2

15 1
d(cos(x), R2 [x]) = k cos(x)−PR2 [x] (cos(x)k = k cos(x)−sin(1) 1− (3 cos(1)−2 sin(1)) (x2 − )k.
2 3
Haciendo la cuenta, tenemos que
15 1
k cos(x) − sin(1) 1 − (3 cos(1) − 2 sin(1)) (x2 − )k2
2 3
15 1
Z 1
= (cos(x) − sin(1) 1 − (3 cos(1) − 2 sin(1)) (x2 − ))2 dx
−1 2 3
121 sin(2)
= − 65 − 24 cos(2).
2
Entonces r
121 sin(2)
d(cos(x), R2 [x]) = − 65 − 24 cos(2) ≈ 0, 0043.
2

Como se ve la aproximación de las funciones sin(x) y cos(x) por los 3 primeros polinomios de
Legendre normalizados es bastante buena.

Ejercicio 3.O (De Parcial). Se considera R2 [x] con el producto interno definido por
Z 1
h p, q i = p(x)q(x)dx.
0

Sea C = {1; x − 12 ; x2 − x + 16 } una base (ordenada) ortogonal de R2 [x] que se obtuvo aplicando el
algoritmo de Gram-Schmidt a la base ordenada B = {p1 ; p2 ; p3 } de R2 [x]. Calcular

d(q, gen{p1 , p2 }),

donde q(x) = 1 + x2 .

Dem. Recordar que como gen{p1 , p2 } es un subespacio de dimensión finita, tenemos que

d(q, gen{p1 , p2 }) = kq − Pgen{p1 ,p2 } (q)k.

No sabemos quiénes son los vectores p1 y p2 . Sin embargo, sabemos que la base (ordenada)
ortogonal C se obtuvo aplicando el algoritmo de Gram-Schmidt a la base ordenada B. Vimos al
principio de esta Sección que el algoritmo de Gram-Schmidt, asegura que:

gen{p1 } = gen{1},
1
gen{p1 , p2 } = gen{1, x − },
2
1 1
gen{p1 , p2 , p3 } = gen{1, x − , x2 − x + }.
2 6

166
3.10. Descomposición QR

Por lo tanto, gen{p1 , p2 } = gen{1, x− 21 } y además {1, x− 12 } es una base ortogonal de gen{p1 , p2 }.
Entonces, podemos aplicar la fórmula de la proyección ortogonal y tenemos que

1 + x2 , 1 1 + x2 , x − 12 1



Pgen{p1 ,p2 } (q) = Pgen{p1 ,p2 } (1 + x ) =
2
1+ (x − )
k1k2 1
kx − 2 k 2 2
4
1 1
= 3
1+
(x − )
12
1 2 1
12
4 1 5
= + (x − ) = x + .
3 2 6
Entonces
5
d(1 + x2 , gen{p1 , p2 }) = k1 + x2 − Pgen{p1 ,p2 } (1 + x2 )k = k1 + x2 − (x + )k
6
1 1
r
= kx2 − x + k = .
6 180


3.10. Descomposición QR

Sea A ∈ Km×n de rango n. Una descomposición QR de A es una factorización

A = QR con Q ∈ Km×n y R ∈ Kn×n ,

tales que las columnas de Q son una base ortonormal de col(A) considerando el producto
interno canónico de Rm y R es triangular superior con números positivos en la diagonal
principal.

Ejercicio 3.28. Sea A ∈ Rm×n de rago n.

a) Comprobar que existe una descomposición QR de A.

b) Demostrar que la descomposición QR de A es única.

Dem. a) : Lo vamos a demostrar usando el algoritmo de Gram-Schmidt.


Supongamos que a1 , a2 , · · · an ∈ Rm son las columnas de A, es decir A = [a1 a2 a3 · · · an ].
Como dim(col(A)) = rg(A) = n, tenemos que el conjunto {a1 , a2 , · · · , an } es LI, entonces podemos
aplicar el algoritmo de Gram-Schimdt a dicho conjunto usando el producto interno canónico de
Rm . Si hacemos eso, vamos a obtener una base ortogonal {w1 , w2 , · · · , wn } de col(A), donde:

w1 = a1
w2 = a2 − α12 w1 ,
w3 = a3 − α13 w1 − α23 w2 ,
..
.
wn = an − α1n w1 − α2n w2 − · · · − α(n−1)n wn−1 .

Con
h aj , wi i wT aj
αij = 2
= i 2 para 1 ≤ i < j.
kwi k kwi k

167
3. Espacios Euclídeos

Despejando cada ai de la ecuación anterior, obtenemos:

a1 = w1 ,
a2 = α12 w1 + w2 ,
a3 = α13 w1 + α23 w2 + w3 ,
..
.
an = α1n w1 + α2n w2 + · · · + α(n−1)n wn−1 + wn .

Entonces, si escribimos lo anterior de manera matricial, nos queda


1 α12 α13 · · · α1n
 
 0 1 α23 · · · α2n 
A = [a1 a2 a3 · · · an ] = [w1 w2 w3 · · · wn ]  0 0 1 · · · α3n 
 
.

 .. .. .. .. 
 . . . . 
0 0 0 ··· 1

1 α12 α13 · · · α1n


 
 0 1 α23 · · · α2n 
Llamemos Q0 = [w1 w2 · · · wn ] ∈ Rm×n y R0 =  0 0 1 · · · α3n 
 
 ∈ Rn×n .

 .. .. .. .. 
 . . . . 
0 0 0 ··· 1
Entonces A = Q0 R0 y ya casi estamos. Notar que las columnas de Q0 forman una base ortogonal
de Rm (con el producto interno canónico de Rm ). Queremos que las columnas formen una base
ortonormal, eso lo arreglamos definiendo
wi
Q := [q1 q2 q3 · · · qn ] con qi = .
kwi k
Para que el producto nos siga dando A necesitamos modificar R0 de la siguiente manera:
 
kw1 k α12 kw1 k α13 kw1 k · · · α1n kw1 k
 0 kw2 k α23 kw2 k · · · α2n kw2 k 
 0 0
 
R :=  kw3 k ··· α3n kw3 k .
 .. .. .. ..
 . . . .


0 0 0 ··· kwn k
Entonces
A = QR,
donde R es triangular superior con elementos positivos (no nulos) en su diagonal principal y Q es una
matriz cuyas columnas forman una base ortonormal de Rm . Sólo nos resta ver que col(Q) = col(A).
De hecho, como A = QR, entonces es claro que col(A) = col(QR) ⊆ col(Q). Por otra parte, como
R ∈ Rn×n es una matriz triangular superior con elementos positivos (no nulos) en su diagonal
principal, R es una matriz inversible. Por lo tanto, det(R) > 0, entonces

AR−1 = (QR)R−1 = QI = Q.

Entonces, col(Q) = col(AR−1 ) ⊆ col(A). Como probamos la doble inclusión, concluimos que
col(Q) = col(A).
Entonces A = QR es una descomposición QR de A.

b) : Veamos que la factorización A = QR del item a) es única. Pero antes de hacer la prueba,
vamos a remarcar los siguientes hechos que se pueden verificar fácilmente:

168
3.10. Descomposición QR

Si R ∈ Rn×n es una matriz triangular superior entonces RT es una matriz triangular


inferior.
Si R ∈ Rn×n es una matriz triangular superior inversible entonces R−1 también es una
matriz triangular superior inversible.
Si R, R0 ∈ Rn×n son dos matrices triangulares superiores inversibles entonces RR0−1 y
R0 R−1 también son matrices triangulares superiores inversibles.
Si Q ∈ Rm×n es una matriz cuyas columnas forman una base ortonormal (tomando el producto
interno canónico de Rm ). Entonces

QT Q = IRn .

De hecho, si Q = [q1 q2 · · · qn ], donde q1 , q2 , · · · , qn ∈ Rm son las columnas de Q. Entonces

1 0 ··· 0
 T
q1 q1 q1T q2 · · · q1T qn
 T    
q1
T   q2T q1 q2T q2 · · · q2T qn   0 1 · · · 0 
q2 
QT Q =  · · ·  [q1 q2 · · · qn ] =  ..  =  .. .. ..  = IRn .

. ..
   
 .. . .   . . . 
qnT qnT q1 qnT q2 · · · qnT qn 0 0 ··· 1

Donde usamos que las columnas de Q forman una base ortonormal (con el producto interno canónico
de Rm ). Entonces 0 = h qi , qj i = qjT qi para todo i 6= j y 1 = kqi k2 = qiT qi , para todo i = 1, 2, · · · , n.

Ahora sí, probemos el item b). Supongamos que A = Q0 R0 es otra descomposición QR de A.


Entonces, R0 ∈ Rn×n es triangular superior con elementos positivos (no nulos) en su diagonal
principal y Q0 ∈ Rm×n es una matriz cuyas columnas forman una base ortonormal de col(A). Como
A = QR tenemos que

QR = Q0 R0 . (3.12)

Multipliquemos la ecuación (3.12) a izquierda por Q0T y a derecha por R−1 , entonces usando
las propiedades que acabamos de ver, tenemos por un lado

Q0T (QR)R−1 = Q0T (Q0 R0 )R−1 = (Q0T Q0 )R0 R−1 = R0 R−1

y por el otro
Q0T (QR)R−1 = Q0T Q(RR−1 ) = Q0T Q.
Entonces, probamos que

Q0T Q = Q0T (QR)R−1 = R0 R−1 . (3.13)

De (3.13) tenemos que como R0 R−1 es una matriz triangular superior, entonces Q0T Q es una matriz
triangular superior.
Ahora, multipliquemos la ecuación (3.12) a izquierda por QT y a derecha por R0−1 , entonces
usando las propiedades que acabamos de ver, tenemos por un lado

QT (QR)R0−1 = QT (Q0 R0 )R0−1 = QT Q0 (R0 R0−1 ) = QT Q0

y por el otro lado


QT (QR)R0−1 = (QT Q)RR0−1 = RR0−1 .
Entonces, probamos que

RR0−1 = QT (QR)R0−1 = QT Q0 . (3.14)

169
3. Espacios Euclídeos

De (3.14) tenemos que como RR0−1 es una matriz triangular superior, entonces QT Q0 es una matriz
triangular superior. Entonces, como QT Q0 es una matriz triangular superior, al transponer, se sigue
que (QT Q0 )T es triangular inferior. Por el otro lado, como (QT Q0 )T = Q0T Q, por (3.13), tenemos
que (QT Q0 )T es triangular superior. Entonces (QT Q0 )T = Q0T Q, es a la vez triangular superior y
triangular inferior. Entonces Q0T Q es una matriz diagonal. A esa matriz diagonal, la llamamos D y
entonces tenemos que

d1 0 · · · 0
 
 0 d2 · · · 0 
Q0T Q = R0 R−1 = D :=  . .. ..  ,
 
 .. . . 
0 0 ··· dn

con d1 , d2 , · · · , dn ∈ R. Multiplicando (3.12) a izquierda por Q0T , tenemos por un lado que

Q0T (QR) = (Q0T Q)R = DR

y por el otro lado


Q0T (Q0 R0 ) = (Q0T Q0 )R0 = R0 .
Entonces, nos queda que
R0 = DR.
Observar que como R y R0 son dos matrices triangulares superiores con elementos positivos
(no nulos) en su diagonal principal, no queda otra (hacer la cuenta) que d1 , d2 , · · · , dn sean todos
números positivos (no nulos).
Ahora, multiplicando (3.12) a derecha por R0−1 , tenemos por un lado que

(QR)R0−1 = Q(RR0−1 ) = QD

y por el otro lado


(Q0 R0 )R0−1 = Q0 (R0 R0−1 ) = Q0 .
Entonces, tenemos que Q0 = QD y

I = Q0T Q0 = (QD)T (QD) = DT (QT Q)D = DT ID = DT D = D2 ,

recordar que como D es diagonal DT = D. Entonces

0 ··· 0 1 0 0
 2   
d1 ···
 0 d22 · · · 0   0 1 ··· 0 
 .. .. ..  =  .. .. .. .
   
 . . .   . . . 
0 0 ··· d2n 0 0 ··· 1

Por lo tanto |d1 | = |d2 | = · · · = |dn | = 1. Como probamos que d1 , d2 , · · · , dn son todos positivos
(no nulos), se sigue que d1 = d2 = · · · = dn = 1, entonces D = I. Por lo tanto R0 R−1 = D = I y
multiplicando esa ecuación a derecha por R, nos queda que

R0 = R.

De la misma manera, teníamos que Q0 = QD = QI = Q, entonces

Q0 = Q.

Con esto probamos que la descomposición QR de A es única. 

Antes de hacer ejemplos de cálculo de descomposición QR, vamos a notar dos propiedades
importantes.

170
3.10. Descomposición QR

Primero observar que si A = QR es la descomposición QR de A. Entonces, usando que QT Q = I,


se sigue que

QT A = QT QR = R, (3.15)

y tenemos una forma fácil de hallar R una vez encontrada Q.

Por otra parte,

considerando el producto interno canónico, notar que

QQT = [Pcol(A) ]E
E, (3.16)

donde E es la base canónica de Rm .

De hecho, observar que (QQT )(QQT ) = Q(QT Q)QT = QIRn QT = QQT . Entonces

(QQT )2 = QQT . (3.17)

Además,
(QQT )T = (QT )T QT = QQT . (3.18)
Sea T : Cm → Cm , la transformación lineal definida por

T (x) := QQT (x).

Entonces, claramente T es un proyector de Cm . De hecho, por (3.17), se sigue que T 2 (x) =


(QQT )2 (x) = QQT (x) = T (x). Entonces T 2 = T.
Por otra parte, considerando el producto interno canónico de Cm , por (3.18), para cada
x, y ∈ Cm , tenemos que

h T (x), y i = (T (x))T y = (QQT (x))T y = xT (QQT )T y = xT QQT (y) = xT T (y) = h x, T (y) i .

Entonces, tenemos que T es un proyector y

h T (x), y i = h x, T (y) i ,

para todo x, y ∈ Cm . Por lo tanto, por el Teorema 3.6.1, T es un proyector ortogonal.


Además, por un lado es claro que Im(T ) = col(QQT ) y por el otro lado, recordemos que
probamos que col(QQT ) = nul((QQT )T )⊥ = nul(QQT )⊥ = nul(QT )⊥ = col(Q). Entonces

Im(T ) = col(QQT ) = col(Q) = col(A).

Por lo tanto, probamos que


T = Pcol(A) .
Finalmente, si E es la base canónica de Rm , es inmediato ver que [T ]E
E = QQ . Por lo tanto
T

[Pcol(A) ]E
E = [T ]E = QQ
E T

y probamos lo que queríamos.


Ejercicio 3.29. Hallar la descomposición QR de

1 2
 

A1 =  2 1 .
1 3

171
3. Espacios Euclídeos

1 2
   

Sea S = gen{  2  ,  1 }. Considerando el producto interno canónico de R3 calcular


1 3
[PS ]E , donde E es la base canónica de R3 .
E

Dem. Como A1 ∈ R3×2 y rg(A1 ) = 2 podemos usar lo que probamos en el Ejercicio 3.28. Sólo
basta encontrar una base ortonormal (con el producto interno canónico de R3 ) del subespacio
1 2
   

col(A1 ) = gen{  2  ,  1 }.


1 3
Usando Gram-Schmidt (hacer la cuenta), se sigue que
1 5
   
1 1
{√  2 , √  −8 }
6 1 210 11
es una base ortonormal de col(A1 ). Entonces, tomamos
 1 5

√ √
6 210
Q := 
 √2 √−8 .

6 210
√1 √11
6 210

Entonces, por (3.15), tenemos que


 " √
1 2
" # #
√1 √2 √1 6 √7
R = Q A1 =
T 6 6 6  2 1 = 6 .
√5 √−8 √11 0 √35
210 210 210 1 3 210

Las matrices Q y R que definimos cumplen que A1 = QR, donde Q ∈ R3×2 es una matriz cuyas
columnas forman una base ortonormal de col(A1 ) y R ∈ R2×2 es una matriz triangular superior
con elementos positivos (no nulos) en ladiagonal.
  Esaes la descomposición QR de A1 .
1 2
Finalmente, observar que S = gen{  2  ,  1 } = col(A1 ). Entonces, usando la ecuación
1 3
(3.16), que vale porque estamos considerando el producto interno canónico de R3 y la base
canónica de R3 tenemos
 1
√5

√ #  2 1 3
" 
6 210 √1 √2 √1 7 7 7
2 −8
[PS ]E
E = QQ = 
T √ √ 6 6 6 =  71 34
− 353 
.
 
6 210  √5 8
− √210 √11 3
35
3 26
√1 √ 11 210 210 −
6 210 7 35 35

3.11. Teorema de representación de Riesz


Finalizamos la Unidad con una teorema muy importante y varias aplicaciones del mismo.

Teorema de representación de Riesz: sea (V, h ·, · i) un K-espacio euclídeo de dimensión finita


y φ : V → K una funcional lineal, entonces existe un único vector u ∈ V tal que

φ(v) = h v, u i ,

para todo v ∈ V.

El siguiente ejercicio es una demostración del Teorema de representación de Riesz.

172
3.11. Teorema de representación de Riesz

Ejercicio 3.30. Sea (V, h ·, · i) un K-espacio euclídeo finito dimensional.


a) Sea φ ∈ L(V, K) tal que φ 6= 0. Demostrar que
D E
φ(v) = v, φ(w)w ,

para cualquier w ∈ Nu(φ)⊥ tal que kwk = 1.


b) Notar que φ(w)w no depende de la elección de w.
Observar que si lo que afirma el ejercicio es correcto, podemos tomar u := φ(w)w, entonces u es
el único vector de V tal que
φ(v) = h v, u i ,
para todo v ∈ V. Por lo tanto, si resolvemos el Ejercicio 3.30, estamos demostrando el Teorema
de representación de Riesz.
Dem. a) : Como φ 6= 0, existe v 6= 0V tal que φ(v) 6= 0 (¿por qué?) y entonces Im(φ) = K y, como
V es de dimensión finita, por el teorema de la dimensión, se sigue que

dim(Nu(φ)) = dim(V) − dim(Im(φ)) = dim(V) − dim(K) = dim(V) − 1.

De la misma manera, como Nu(φ) es un subespacio y V es de dimensión finita, tenemos que

dim(Nu(φ)⊥ ) = dim(V) − dim(Nu(φ)) = dim(V) − (dim(V) − 1) = 1.

Entonces, tomemos cualquier w ∈ Nu(φ)⊥ tal que kwk = 1. Como dim(Nu(φ)⊥ ) = 1, tenemos
que
Nu(φ)⊥ = gen{w}.
Sea v ∈ V, como Nu(φ) es un subespacio y V es de dimensión finita, vale que V = Nu(φ) ⊕ Nu(φ)⊥ ,
entonces existen (únicos) v1 ∈ Nu(φ) y v2 ∈ Nu(φ)⊥ tales que v = v1 + v2 . Como v2 ∈ Nu(φ)⊥ =
gen{w}, tenemos que existe α ∈ K tal que v2 = αw. Es más, podemos ver quién es α. De hecho

h v, w i = h v1 + v2 , w i = h v1 , w i + h v2 , w i = h v1 , w i + h αw, w i = 0 + α h w, w i
= αkwk2 = α · 1 = α.

Entonces α = h v, w i . Por lo tanto,

φ(v) = φ(v1 + v2 ) = φ(v1 ) + φ(v2 ) = 0 + φ(v2 ) = φ(v2 ) = φ(αw) = αφ(w)


D E
= h v, w i φ(w) = φ(w) h v, w i = v, φ(w)w ,

donde para la última igualdad usamos que φ(w) ∈ K (es decir es un escalar) y que el producto
interno cumple que c h u, v i = h u, cv i .
Entonces, probamos que para todo v ∈ V vale que
D E
φ(v) = v, φ(w)w ,

para cualquier w ∈ Nu(φ)⊥ tal que kwk = 1.


b) : Tomemos otro vector w0 ∈ Nu(φ)⊥ tal que kw0 k = 1. Veamos que φ(w0 )w0 = φ(w)w.
Observar que como w, w0 ∈ Nu(φ)⊥ (y no son nulos) entonces Nu(φ)⊥ = gen{w} = gen{w0 }.
Entonces, como φ(w0 )w0 ∈ Nu(φ)⊥ = gen{w}, existe α ∈ K tal que

φ(w0 )w0 = αw. (3.19)

Veamos a qué es igual α. Por un lado

h αw, w i = α h w, w i = αkwk2 = α.

173
3. Espacios Euclídeos

Por el otro lado, por lo que acabamos de probar en el item a), como w0 es cualquier vector en
Nu(φ)⊥ tal que kw0 k = 1, vale que
D E
φ(w) = w, φ(w0 )w0 .

Entonces, usando (3.19) y la observación que acabamos de hacer se sigue que


D E D E
α = h αw, w i = φ(w0 )w0 , w = w, φ(w0 )w0 = φ(w).

Entonces α = φ(w) y volviendo a (3.19), se sigue que φ(w0 )w0 = φ(w)w y probamos que φ(w)w no
depende de la elección de w. 
Con la resolución del Ejercicio 3.30 probamos el Teorema de representación de Riesz. Veamos
ahora un ejemplo de aplicación de lo que vimos en dicho ejercicio.
Ejercicio 3.33. En Rn [x] con el producto interno
Z 1
h p, q i = p(x)q(x)dx.
−1

Se considera δ : Rn [x] → R la funcional lineal definida por

δ(p) = p(0).

Para cada n ∈ {1, 2, 3, 4, 5, 6} hallar el polinomio pn ∈ Rn [x] tal que

δ(·) = h ·, pn i .

Por si no se entiende la notación, lo que nos pide el ejercicio es hallar hallar el polinomio
pn ∈ Rn [x] tal que
δ(p) = h p, pn i ,
para todo p ∈ Rn [x]. Vamos a demostrarlo para el caso n = 3, los demás casos son similares.
Dem. Consideremos n = 3. Por el Ejercicio 3.30, para todo p ∈ Rn [x], se sigue que para cualquier
q ∈ Nu(δ)⊥ tal que kqk = 1, vale que
D E
δ(p) = p, δ(q)q .

Si tomamos p3 (x) := δ(q)q(x) entonces encontramos el polinomio p3 que queríamos. Busquemos


entonces algún polinomio q que cumpla lo que buscamos.
Recordar que Nu(δ) = {p ∈ R3 [x] : δ(p) = 0}, entonces p ∈ Nu(δ) si p(x) = ax3 + bx2 + cx + d
con a, b, c, d ∈ R y
0 = δ(p) = p(0) = a(0)3 + b(0)2 + c(0) + d = d.
Entonces d = 0 y volviendo a la expresión de p tenemos que p(x) = ax3 + bx2 + cx, con a, b, c ∈ R.
Entonces
N u(δ) = gen{x, x2 , x3 }.
A continuación, vamos a hallar

Nu(δ)⊥ = {r ∈ R3 [x] : h r, p i = 0 para todo p ∈ Nu(δ)}.

Recordemos que r ∈ Nu(δ)⊥ si r es ortogonal a cada generador de Nu(δ). Entonces, r ∈ Nu(δ)⊥ si


r(x) = ex3 + f x2 + gx + h con e, f, g, h ∈ R y

0 = h r, x i = r, x2 = r, x3 .


174
3.12. Aplicaciones del Teorema de representación de Riesz

Haciendo cuentas, tenemos que


2 2
Z 1
x5 x4 x3 x2
0 = h r, x i = (ex3 + f x2 + gx + h)xdx = e + f +g + h |1−1 = e + g .
−1 5 4 3 2 5 3
2 2
Z 1 6 5 4 3
x x x x
0 = r, x2 = (ex3 + f x2 + gx + h)x2 dx = e + f +g + h |1−1 = f + h .


−1 6 5 4 3 5 3
2 2
Z 1
x7 x6 x5 x4
0 = r, x3 = (ex3 + f x2 + gx + h)x3 dx = e + f +g + h |1−1 = e + g .


−1 7 6 5 4 7 5
Nos quedaron las ecuaciones
2 2 2 2 2 2
e + g = f + h = e + g = 0.
5 3 5 3 7 5
Resolviendo el sistema, obtenemos que
5
e = g = 0 y f = − h.
3
Entonces, volviendo a la expresión de r, tenemos que r(x) = ex3 + f x2 + gx + h = h(1 − 53 x2 ) con
h ∈ R. Entonces
5
Nu(δ)⊥ = gen{1 − x2 }.
3
Notar que
5 5 5x5 10x3 8
Z 1
k1 − x2 k2 = (1 − x2 )2 dx = − + x|1−1 = .
3 −1 3 9 9 9
5 2
q √
(1− x )
Tomando q(x) := √38 = 98 (1 − 35 x2 ) = 3 4 2 (1 − 53 x2 ), tenemos que
9 √
q ∈ Nu(δ)⊥ y kqk = 1. Observar que δ(q) = q(0) = 3 4 2 .
Entonces,
√ √
3 2 3 2 5 9 5 9 15
p3 (x) := δ(q)q(x) = q(0)q(x) = (1 − x2 ) = (1 − x2 ) = − x2 .
4 4 3 8 3 8 8
El polinomio p3 (x) = 9
8 − 15 2
8 x que encontramos cumple que, para todo p ∈ R3 [x],

9 15
 
δ(p) = p, − x2 .
8 8
Además p3 es el único polinomio que cumple la igualdad anterior por el item b) del Ejercicio 3.30.


3.12. Aplicaciones del Teorema de representación de Riesz


En este sección, estudiaremos varias aplicaciones del Teorema de representación de Riesz. Antes
de resolver el Ejercicio 3.34 repasemos algunas propiedades del determinante.

Sea A := [A1 A2 · · · An ] ∈ Kn×n donde Ai son las n columnas de A. Entonces el


determinante es una función multilineal alternada por columnas, es decir:

det([A1 · · · λAi + A0i · · · An ]) = λ det([A1 · · · Ai · · · An ]) + det([A1 · · · A0i · · · An ])


para todo i = 1, · · · , n y λ ∈ K. Es decir, para cada columna i, una vez fijados los
valores de las columnas restantes, det es una función lineal en la columna i.
det([A1 · · · Ai · · · Ai · · · An ]) = 0 para cada i 6= j, j = 1, · · · , n. El determinante se
anula si la matriz tiene dos columnas iguales.

175
3. Espacios Euclídeos

En la siguiente proposición damos algunas de las propiedades básicas que verifica el determinante
y que se deducen fácilmente del hecho que el determinante es una función multilineal alternada por
columnas.
Proposición 3.12.1. Sea A := [A1 A2 · · · An ] ∈ Kn×n donde Ai son las n columnas de A.
Entonces

det(A) = det(AT ).

det([A1 · · · 0 · · · An ]) = 0. Es decir, si alguna columna (o fila) es nula el determinante da 0.

det([A1 · · · Ai · · · Aj · · · An ]) = − det([A1 · · · Aj · · · Ai · · · An ]). Es decir, si


intercambiamos columnas (o filas), el determinante cambia de signo.

det([A1 · · · Ai + λAj · · · Aj · · · An ]) = det([A1 · · · Ai · · · Aj · · · An ]). Es decir, si a una


columna (o fila) le sumamos un múltiplo de otra, el determinante no cambia.
Pn
Si Ai = j=1, j6=i αj Aj para ciertos aj ∈ K entonces det([A1 · · · Ai · · · An ]) = 0. Es decir,
si una columna (o fila) es combinación lineal de las demás columas (o filas) el determinante
da 0.

A continuación veamos una aplicación interesante del Teorema de representación de Riesz.


Ejercicio 3.34. Sea (V, h ·, · i) un R-espacio euclídeo de dimensión 3. Sea E = {e1 , e2 , e3 } una base
ortonormal fija. Para v1 , v2 , v3 ∈ V se define

det(v1 , v2 , v3 ) := det([ [v1 ]E [v2 ]E [v3 ]E ]).

a) Sean v1 , v2 ∈ V. Comprobar que existe un único vector v1 ∧ v2 ∈ V tal que

det(v1 , v2 , v) = h v, v1 ∧ v2 i para cada v ∈ V.

b) Probar que v1 ∧ v2 es ortogonal a v1 y v2 .

c) Comprobar que v1 , v2 son linealmente dependientes si y sólo si v1 ∧ v2 = 0.

d) Sea A ∈ R3×2 la matriz definida por A := [ [v1 ]E [v2 ]E ]. Utilizando la descomposición

v1 ∧ v2 = h e1 , v1 ∧ v2 i e1 + h e2 , v1 ∧ v2 i e2 + h e3 , v1 ∧ v2 i e3

probar que
3
X
v1 ∧ v2 = (−1)3−i ∆i ei
i=1

donde ∆i es el determinante de la matriz de 2 × 2 que se obtiene de A eliminando su i-ésima


fila.

e) Utilizando el resultado anterior, observar que


     
x1 y1 x2 y3 − x3 y2
 x2  ∧  y2  =  x3 y1 − x1 y3  .
x3 y3 x1 y2 − x2 y2

f) Probar que si {u1 , u2 , u3 } es una base ortonormal de V, entonces vale que det(u1 , u2 , u3 ) ∈
{−1, 1}. Si det(u1 , u2 , u3 ) = 1, se dice que {u1 , u2 , u3 } es orientada positivamente con respecto
a E.

g) Probar que si v1 , v2 es un sistema ortonormal, entonces v1 , v2 , v1 ∧ v2 es una base ortonormal


orientada positivamente con respecto a E.

176
3.12. Aplicaciones del Teorema de representación de Riesz

Dem. a) : Llamemos φ(v) := det(v1 , v2 , v) = det([ [v1 ]E [v2 ]E [v]E ]). Veamos que φ es una
funcional lineal. De hecho, sean v, w ∈ V y λ ∈ K, como tomar coordenadas es lineal, entonces
[λv + w]E = λ[v]E + [w]E . Entonces, det([ [v1 ]E [v2 ]E [λv + w]E ]) = det([ [v1 ]E [v2 ]E λ[v]E + [w]E ]).
Además, vimos arriba que det es lineal para cada columna fijando el resto de las columnas (como
en este caso), entonces se sigue que

φ(λv + w) = det([ [v1 ]E [v2 ]E λ[v]E + [w]E ])


= λ det([ [v1 ]E [v2 ]E [v]E ]) + det([ [v1 ]E [v2 ]E [w]E ]) = λφ(v) + φ(w).

Por lo tanto, como φ es una funcional lineal de V, por el Ejercicio 3.30, existe un único vector
u ∈ V tal que
φ(v) = h v, u i .
Sea v1 ∧ v2 := u, entonces,
det(v1 , v2 , v) = φ(v) = h v, v1 ∧ v2 i
y probamos lo que queríamos.
Notar que esto además prueba que la definición de det(v1 , v2 , v) NO depende de la
base ortonormal E elegida, ¿por qué?.
b) : Veamos que v1 ∧ v2 es ortogonal a v1 y v2 . De hecho, por el item a) tenemos que,

h v1 , v1 ∧ v2 i = φ(v1 ) = det(v1 , v2 , v1 ) = det([ [v1 ]E [v2 ]E [v1 ]E ]) = 0,

pues estamos calculando el determinante de una matriz cuya primera y tercera columna es la misma.
De la misma manera,

h v2 , v1 ∧ v2 i = φ(v2 ) = det(v1 , v2 , v2 ) = det([ [v1 ]E [v2 ]E [v2 ]E ]) = 0.

c) ⇒: Supongamos que v1 y v2 son linealmente dependientes. Entonces existe λ ∈ K tal que


v1 = λv2 (un vector es múltiplo del otro). Entonces, por el item a), tenemos que para cada v ∈ V,

h v, v1 ∧ v2 i = det([ [v1 ]E [v2 ]E [v]E ]) = det([ [v1 ]E [λv1 ]E [v]E ]) = λ det([ [v1 ]E [v1 ]E [v]E ]) = 0,

donde usamos que [v2 ]E = [λv1 ]E = λ[v1 ]E , que el determinante es lineal para cada columna fijando
el resto de las columnas y que el determinante de una matriz cuya primera y segunda columna es
la misma da 0. Conclusión, tenemos que para todo v ∈ V, vale que

h v, v1 ∧ v2 i = 0.

En particular, si tomamos v = v1 ∧ v2 , tenemos que


1/2
kv1 ∧ v2 k = h v1 ∧ v2 , v1 ∧ v2 i = 0.

Por lo tanto, v1 ∧ v2 = 0.
La recíproca del item c) la probamos al final.
d) : Como  E = {e1 , e2 , e3 } es una bon de V ya vimos en la Proposición 3.7.2, que
h e1 , v1 ∧ v2 i
[v1 ∧ v2 ]E =  h e2 , v1 ∧ v2 i  . Entonces,
h e3 , v1 ∧ v2 i

v1 ∧ v2 = h e1 , v1 ∧ v2 i e1 + h e2 , v1 ∧ v2 i e2 + h e3 , v1 ∧ v2 i e3 .

Por el item a),

1
 

h e1 , v1 ∧ v2 i = det([ [v1 ]E [v2 ]E [e1 ]E ]) = det([ [v1 ]E [v2 ]E  0 ]) = ∆1 ,


0

177
3. Espacios Euclídeos

donde ∆1 es el determinante de la matriz de 2 × 2 que se obtiene de A eliminando su primera fila.


0

De manera similar, h e2 , v1 ∧ v2 i = det([ [v1 ]E [v2 ]E [e2 ]E ]) = det([ [v1 ]E [v2 ]E  1 ]) = −∆2 .
0
0
 

h e3 , v1 ∧ v2 i = det([ [v1 ]E [v2 ]E [e3 ]E ]) = det([ [v1 ]E [v2 ]E  0 ]) = ∆3 .


1
Entonces,

v1 ∧ v2 = h e1 , v1 ∧ v2 i e1 + h e2 , v1 ∧ v2 i e2 + h e3 , v1 ∧ v2 i e3
= ∆1 e1 − ∆2 e2 + ∆3 e3

y probamos lo que queríamos.


e) : Notar que hay  un error
 en la guía.
 Apliquemos
 lo que probamos en el item f ).
x1 y1
Supongamos que [v1 ]E =  x2  y [v2 ]E =  y2  , entonces por el item f ).
x3 y3

v1 ∧ v2 = ∆1 e1 − ∆2 e2 + ∆3 e3 .

Donde

1 1
       
x1 y1
∆1 = det([ [v1 ]E [v2 ]E  0 ]) = det[  x2   y2   0 ]) = x2 y3 − x3 y2 .
0 x3 y3 0
0 0
       
x1 y1
∆2 = det([ [v1 ]E [v2 ]E  1 ]) = det[  x2   y2   1 ]) = x3 y1 − x1 y3 .
0 x3 y3 0
0 0
       
x1 y1
∆3 = det([ [v1 ]E [v2 ]E  0 ]) = det[  x2   y2   0 ]) = x1 y2 − x2 y1 .
1 x3 y3 1

Por lo tanto,

v1 ∧ v2 = ∆1 e1 − ∆2 e2 + ∆3 e3 = (x2 y3 − x3 y2 )e1 + (x3 y1 − x1 y3 )e2 + (x1 y2 − x2 y1 )e3


 
x2 y3 − x3 y2
=  x3 y1 − x1 y3  .
x1 y2 − x2 y2

g) : En el item a) vimos que el cálculo de det(u1 , u2 , u3 ) no depende de la base ortonormal


elegida. Entonces, como por hipótesis {u 1 , u2, u3 } es una base
 ortonormal
 de V, vamos a tomar
1 0 0
E = {u1 , u2 , u3 }. Por lo tanto, [u1 ]E =  0  , [u2 ]E =  1  , [u3 ]E =  0  .
0 0 1
En el item f ), probamos que

u1 ∧ u2 = ∆1 u1 − ∆2 u2 + ∆3 u3 = (x2 y3 − x3 y2 )u1 + (x3 y1 − x1 y3 )u2 + (x1 y2 − x2 y1 )u3 ,

1 0
       
x1 y1
donde [u1 ]E =  0  =  x2  y [u2 ]E =  1  =  y2  .
0 x3 0 y3
Por lo tanto,

u1 ∧ u2 = (x2 y3 − x3 y2 )u1 + (x3 y1 − x1 y3 )u2 + (x1 y2 − x2 y1 )u3 = 0u1 + 0u2 + 1u3 = u3 .

178
3.12. Aplicaciones del Teorema de representación de Riesz

Entonces, por el item a), se sigue que

det(u1 , u2 , u3 ) = h u3 , u1 ∧ v2 i = h u3 , u3 i = 1,

pues u3 es un vector de norma 1.


Notar que si la base la ordenamos de otra manera, por ejemplo {u2 , u1 , u3 }, tendríamos que

det(u2 , u1 , u3 ) = h u3 , u2 ∧ v1 i = − h u3 , u3 i = −1,

en ese caso la base NO estaría orientada positivamente.


g) : Supongamos que {v1 , v2 } es un sistema ortonormal. Veamos que {v1 , v2 , v1 ∧ v2 } es una bon
de V. En el item b), ya vimos que
 v1 ∧ v2 es ortogonal
 av1 y v2 . Veamos que v1 ∧ v2 tiene norma 1.
x1 y1
Supongamos que [v1 ]E =  x2  y [v2 ]E =  y2  . Como E es una bon de V, se sigue que
x3 y3

h v1 , v2 i = h x1 e1 + x2 e2 + x3 e3 , y1 e1 + y2 e2 + y3 e3 i = x1 y1 + x2 y2 + x3 y3 .

De la misma manera, kv1 k2 = x21 + x22 + x23 y kv2 k2 = y12 + y22 + y32 . Por otra parte, por el item d),
tenemos que
v1 ∧ v2 = (x2 y3 − x3 y2 )e1 + (x3 y1 − x1 y3 )e2 + (x1 y2 − x2 y1 )e3 .
Entonces, usando el item a),

kv1 ∧ v2 k2 = h v1 ∧ v2 , v1 ∧ v2 i = det([ [v1 ]E [v2 ]E [v1 ∧ v2 ]E ])


 
x1 y1 x2 y3 − x3 y2
= det(  x2 y2 x3 y1 − x1 y3 )
x3 y3 x1 y2 − x2 y1
= x1 [y2 (x1 y2 − x2 y1 ) − y3 (x3 y1 − x1 y3 )] − x2 [y1 (x1 y2 − x2 y1 ) − y3 (x2 y3 − x3 y2 )]
+ x3 [y1 (x3 y1 − x1 y3 ) − y2 (x2 y3 − x3 y2 )] = x21 y22 + x21 y32 − x1 y1 x2 y2 − x1 y1 x3 y3
+ x22 y12 + x22 y32 − x1 y1 x2 y2 − x2 y2 x3 y3 + x23 y12 + x23 y22 − x1 y1 x3 y3 − x2 y2 x3 y3
= (x21 + x22 + x23 )(y12 + y22 + y32 ) − x21 y12 − x22 y22 − x23 y32
− x1 y1 x2 y2 − x1 y1 x3 y3 − x2 y2 x1 y1 − x2 y2 x3 y3 − x3 y3 x1 y1 − x3 y3 x2 y2
= (x21 + x22 + x23 )(y12 + y22 + y32 ) − (x1 y1 + x2 y2 + x3 y3 )2
2
= kv1 k2 kv2 k2 − h v1 , v2 i

Acabamos de probar que:

si v1 , v2 ∈ V (no es necesario que formen un sistema ortonormal) entonces


2
kv1 ∧ v2 k2 = kv1 k2 kv2 k2 − h v1 , v2 i . (3.20)

Ahora sí, usando que {v1 , v2 } es un sistema ortonormal (por hipótesis), se sigue que
2
kv1 ∧ v2 k2 = kv1 k2 kv2 k2 − h v1 , v2 i = 1 − 0 = 1.

Entonces {v1 , v2 , v1 ∧ v2 } es una sistema ortonormal. Finalmente, como dim(V) = 3 concluimos


que {v1 , v2 , v1 ∧ v2 } es una bon de V.
c) ⇐: Ahora sí, veamos la vuelta del item c). Supongamos que v1 ∧ v2 = 0. Entonces, por (3.20),
2
se sigue que kv1 k2 kv2 k2 = h v1 , v2 i . Entonces el Gramiano, nos queda
kv1 k2
 
h v1 , v2 i 2
det(G{v1 ,v2 } ) = det = kv1 k2 kv2 k2 − h v1 , v2 i = 0.
h v2 , v1 i kv2 k2

Por lo tanto, por la Proposición 3.3.1, el conjunto {v1 , v2 } es LD. 

179
3. Espacios Euclídeos

Ejercicio 3.35. Sea V un R-espacio euclídeo de dimensión 3. Sean v1 , v2 ∈ V dos vectores linealmente
independientes y sea S = gen{v1 , v2 }.
h v,v1 ∧v2 i |h v,v1 ∧v2 i|
a) Probar que para todo v ∈ V vale que PS (v) = v − kv1 ∧v2 k2 (v1 ∧ v2 ) y d(v, S) = kv1 ∧v2 k .

b) Comprobar que S ⊥ = gen{v1 ∧ v2 }.

Dem. En el Ejercicio 3.34 vimos que dados dos vectores v1 , v2 ∈ V tenemos que v1 ∧v2 es ortogonal
a v1 y v2 . Entonces, v1 ∧ v2 ∈ S ⊥ . Por otra parte, como v1 y v2 son linealmente independientes y
S = gen{v1 , v2 }, se sigue que dim(S) = 2. Por lo tanto, dim(S ⊥ ) = dim(V) − dim(S) = 3 − 2 = 1.
Entonces, S ⊥ = gen{v1 ∧ v2 }.
Claramente {v1 ∧ v2 } es una base ortogonal de S ⊥ (tiene sólo 1 elemento no nulo). Usando la
fórmula de la proyección ortogonal, vale que para cada v ∈ V,
h v, v1 ∧ v2 i
PS ⊥ (v) = (v1 ∧ v2 ).
kv1 ∧ v2 k2
h v,v1 ∧v2 i
Como v = PS (v) + PS ⊥ (v), tenemos que PS (v) = v − kv1 ∧v2 k2 (v1 ∧ v2 ).
Finalmente,
h v, v1 ∧ v2 i | h v, v1 ∧ v2 i | | h v, v1 ∧ v2 i |
d(v, S) = kPS ⊥ (v)k = k (v1 ∧ v2 )k = kv1 ∧ v2 k = .
kv1 ∧ v2 k2 kv1 ∧ v2 k2 kv1 ∧ v2 k


Ejercicio 3.36. Sea V un R-espacio euclídeo de dimensión 3.


a) Probar que para todo v1 , v2 ∈ V vale que
2
h v1 , v2 i + kv1 ∧ v2 k2 = kv1 k2 kv2 k2 .

b) Probar que si θ es el ángulo entre v1 y v2 , entonces


kv1 ∧ v2 k = kv1 kkv2 k sin(θ).

2
Dem. a) : En el item f ) del Ejercicio 3.34, probamos que kv1 ∧ v2 k2 = kv1 k2 kv2 k2 − h v1 , v2 i .
Por lo tanto, la igualdad que queremos probar se sigue pasando de término.
b) : Si θ es el ángulo entre v1 y v2 , recordemos que
h v1 , v2 i = kv1 kkv2 k cos(θ).
Entonces, por el item a), se sigue que
2
kv1 ∧ v2 k2 = h v1 , v2 i − kv1 k2 kv2 k2 = kv1 k2 kv2 k2 cos(θ)2 − kv1 k2 kv2 k2
= kv1 k2 kv2 k2 (1 − cos(θ)2 ) = kv1 k2 kv2 k2 sin(θ)2 .
Tomando raíz, kv1 ∧ v2 k = kv1 kkv2 k sin(θ) y probamos lo que queríamos. 

Otras aplicaciones del Teorema de Riesz


Veamos otra aplicación muy importante del Teorema de representación de Riesz.
Ejercicio 3.P. Sean (V, h ·, · iV ) y (W, h ·, · iW ) dos K-espacios euclídeos finito dimensionales y
T : V → W una transformación lineal. Demostrar que existe una única transformación lineal
S : W → V tal que
h T (v), w iW = h v, S(w) iV ,
para todo v ∈ V y w ∈ W.
Ayuda: usar el Teorema de representación de Riesz para cada w ∈ W fijo con la funcional
lineal φw (v) := h T (v), w iW .

180
3.12. Aplicaciones del Teorema de representación de Riesz

Dem. Tomemos w ∈ W arbitrario pero fijo y consideremos la funcional lineal de la ayuda,


φw : V → K definida por
φw (v) := h T (v), w iW .
Ver Ejercicio 3.1.
Efectivamente φw es una funcional lineal. De hecho, si v, v 0 ∈ V y α, β ∈ K entonces, usando
que T es una transformación lineal y los axiomas de producto interno tenemos que

φw (αv + βv 0 ) = h T (αv + βv 0 ), w iW = h αT (v) + βT (v 0 ), w iW = α h T (v), w iW + β h T (v 0 ), w iW


= αφw (v) + βφw (v 0 ).

Como φw ∈ L(V, K), por el Teorema de representación de Riesz que probamos en el Ejercicio
3.30, existe un único vector u ∈ V tal que

φw (v) = h v, u iV .

Tenemos todos los ingredientes para definir la transformación lineal S : W → V que pide el ejercicio.
De hecho, vamos a definir S como
S(w) := u.
Notar que S está bien definida, porque para cada w ∈ W que fijamos, por el Teorema de
representación de Riesz obtuvimos un único u ∈ V tal que φw (v) = h v, u iV . Además,

φw (v) = h T (v), w iW = h v, u iV = h v, S(w) iV . (3.21)

Por otra parte, S es una transformación lineal, pues, si w, w0 ∈ W, por el Teorema de representación
de Riesz, existen únicos u, u0 ∈ V tales que

φw (v) = h T (v), w iW = h v, u iV y φw0 (v) = h T (v), w0 iW = h v, u0 iV .

Sean α, β ∈ K entonces, por los axiomas del producto interno tenemos que

φαw+βw0 (v) = h T (v), αw + βw0 iW = α h T (v), w iW + β h T (v), w0 iW


= αφw (v) + βφw0 (v) = α h v, u iV + β h v, u0 iV = h v, αu + βu0 iV .

Entonces, por la unicidad del Teorema de representación de Riesz, se sigue que αu + βu0 es el único
vector de V tal que
φαw+βw0 (v) = h v, αu + βu0 iV .
Entonces, por definición de S, tenemos que

S(αw + βw0 ) = αu + βu0 = αS(w) + βS(w0 )

y concluimos que S es una transformación lineal.


Finalmente, volviendo a (3.21) tenemos que, para cada v ∈ V y w ∈ W

h T (v), w iW = φw (v) = h v, u iV = h v, S(w) iV .


Por lo tanto la transformación lineal S cumple lo que queríamos.
Veamos que S es la única transformación que lo cumple. Supongamos que existe S 0 ∈ L(W, V)
tal que para todo v ∈ V y w ∈ W

h T (v), w iW = h v, S(w) iV = h v, S 0 (w) iV .

Entonces, h v, S(w) iV = h v, S 0 (w) iV , para todo v ∈ V y w ∈ W. Entonces, usando la linealidad


del producto interno, se sigue que para todo v ∈ V y w ∈ W

h v, S(w) − S 0 (w) iV = h v, S(w) iV − h v, S 0 (w) iV = 0.

181
3. Espacios Euclídeos

Es decir h v, S(w) − S 0 (w) iV = 0, para todo v ∈ V y w ∈ W. En particular podemos tomar


v := S(w) − S 0 (w), entonces,

0 = h v, S(w) − S 0 (w) iV = h S(w) − S 0 (w), S(w) − S 0 (w) iV = kS(w) − S 0 (w)k2V ,

para todo w ∈ W. Entonces,


S(w) − S(w0 ) = 0V ,
para todo w ∈ W. Por lo tanto
S(w) = S(w0 ),
para todo w ∈ W. Entonces S = S 0 y probamos lo que queríamos. 

A la única transformación lineal S : W → V que cumple

h T (v), w iW = h v, S(w) iV ,

para todo v ∈ V y w ∈ W, se la llama la transformacioń lineal adjunta de T y se la suele notar


T ∗ := S. No confundir con la notación que usamos para matrices, recordar que si A ∈ Cm×n es
una matriz, definimos A∗ = AT . De todas maneras, el próximo ejemplo muestra que la notación
para la transformación lineal adjunta, no es casual.
Ejemplo 3.a. Tomemos V = Cn y W = Cm con el producto interno canónico y definamos
T : Cn → Cm como
T (x) = Ax,
donde A ∈ Cm×n es una matriz. Recordemos que A∗ = AT y el producto interno canónico se define
como h u, v i = v ∗ u. Entonces, observar que para todo x ∈ Cn e y ∈ Cm , tenemos que

h T (x), y iCm = y ∗ (T (x)) = y ∗ (A(x)) = (y ∗ A)x = (A∗ y)∗ x = h x, A∗ y iCn .

Por lo tanto, por definición de transformación lineal adjunta, tenemos que T ∗ : Cm → Cn es la


transformación lineal definida como
T ∗ (y) = A∗ y.
Ejemplo 3.b. Supongamos que (V, h ·, · i) es un K-espacio euclídeo y S ⊆ V es un subespacio de
dimensión finita. Sea
T := PS
(el proyector ortogonal de V sobre S). Por un lado, T es un proyector, por lo tanto

T 2 = T.

Además, en el Teorema 3.6.1, probamos que como T es un proyector ortogonal, para todo x, y ∈ V
se cumple que
h T (x), y i = h x, T (y) i .
Entonces, por definición de transformación lineal adjunta, se sigue que en este caso T ∗ = T. Es
más, a partir del Teorema 3.6.1, podemos decir que T es un proyector ortogonal si y sólo si T 2 = T
y T ∗ = T.
Juntando el Ejemplo 3.a y el Ejemplo 3.b, podemos ver que: si consideramos Cn , con
producto interno canónico y E es la base canónica de Cn , entonces, para cualquier subespacio
S ⊆ V se sigue que
[PS ]E
E = ([PS ]E ) = ([PS ]E ) .
E 2 E ∗

De hecho, como PS es una proyector, ya habíamos visto que [PS ]E E = ([PS ]E ) . Por otra parte,
E 2

notar que para cada x ∈ C , tenemos que PS (x) = [PS ]E (x). Entonces, como PS es un proyector
n E

182
3.12. Aplicaciones del Teorema de representación de Riesz

ortogonal, por el Ejemplo 3.b, PS∗ = PS , y por el Ejemplo 3.a, PS∗ (x) = ([PS ]E
E ) (x). Entonces,

para todo x ∈ C , nos queda que


m

([PS ]E
E ) (x) = ([PS ]E )(x).
∗ E

Eso implica que


[PS ]E
E = ([PS ]E ) .
E ∗

De manera similar, si consideramos Rn , con producto interno canónico y E es la base


canónica de Rn , entonces:
[PS ]E
E = ([PS ]E ) = ([PS ]E ) .
E 2 E T

183
CAPÍTULO 4

Diagonalización

En este capítulo, comenzaremos a estudiar la estructura de los endomorfismos de un espacio


vectorial de dimensión finita.

4.1. Autovalores y autovectores


Definición. Sea A ∈ Kn×n , el escalar λ ∈ K (notar que λ es un elemento del cuerpo considerado)
es un autovalor de A si existe un vector no nulo v ∈ Kn \ {0} tal que

Av = λv.

Al vector v lo llamamos autovector asociado a λ.


El conjunto de todos los autovalores de A se denomina espectro de A y se denota por σ(A).
Definimos el autoespacio asociado a λ como

Sλ := {v ∈ Kn : Av = λv} = nul(A − λI).

La siguiente propiedad la vamos a usar para obtener los autovalores de una matriz A ∈ Kn×n :

Proposición 4.1.1. Sea A ∈ Kn×n . Entonces, son equivalentes:

i) λ ∈ K es autovalor de A,
ii) nul(A − λI) 6= {0},
iii) rg(A − λI) < n,
iv) det(A − λI) = 0.

Dem. i) ⇒ ii) : Si λ ∈ K es un autovalor de A entonces existe un vector no nulo v ∈ Kn \ {0} tal


que Av = λv. Entonces,
(A − λI)v = Av − λv = 0.
Por lo tanto v ∈ nul(A − λI) y como v 6= 0, tenemos que nul(A − λI) 6= {0}.
ii) ⇒ iii) : Si nul(A − λI) 6= {0}, entonces dim(nul(A − λI)) > 0. Entonces, por el Teorema de
la Dimensión, tenemos que

rg(A − λI) = dim(col(A − λI)) = n − dim(nul(A − λI)) < n.

iii) ⇒ iv) : Como A − λI ∈ Kn×n , si rg(A − λI) < n, entonces A − λI no es inversible y por lo
tanto det(A − λI) = 0.
iv) ⇒ i) : Si det(A − λI) = 0, entonces la matriz A − λI ∈ Kn×n no es inversible. Por lo tanto
nul(A − λI) 6= {0} y existe v 6= 0 tal que (A − λI)v = 0. Entonces Av = λv y λ ∈ K es autovalor
de A. 

185
4. Diagonalización

Sea A ∈ Kn×n . Llamamos polinomio característico de A a

χA (x) := det(A − xI) ∈ Kn [x].

A partir de la Proposición 4.1.1 podemos ver que λ ∈ K es un autovalor de A si y sólo si


λ ∈ K es una raíz de χA , es decir

σ(A) = {λ ∈ K : χA (λ) = 0}.

Sea λ ∈ K un autovalor de A entonces:

La multiplicidad algebraica de λ es la multiplicidad de λ como raíz del polinomio característico


y se denota m(λ).

La multiplicidad geométrica de λ es la dimensión del autoespacio asociado de λ y se denota


µ(λ). Es decir, µ(λ) := dim(nul(A − λI)).

Recordar que siempre tenemos que

1 ≤ m(λ) ≤ µ(λ) ≤ n, para todo λ ∈ K autovalor de A. (4.1)

De hecho, sea λ un autovalor de A tal que r ∈ N es la multiplicidad algebraica de λ (multiplicidad


de λ como raíz de χA ). Supongamos que dim(Sλ ) = dim(nul(A − λI)) = s ≥ 1. Consideremos
{v1 , v2 , · · · , vs } una base de Sλ y sea B = {v1 , v2 , · · · , vs , · · · , vn } una base de Kn , es decir
completamos la base de Sλ a una base de Kn .
Consideremos la transformación lineal T : Kn → Kn definida por T (v) = Av. Entonces, si
E es la base canónica de Kn , tenemos que [T ]E E = A y, por otra parte, como T (vi ) = λvi para
i = 1, · · · , s, se sigue que
 
λIs×s N
[T ]B = [[T (v )]B
[T (v )]B
· · · [T (v )]B
· · · [T (v )]B
] = ,
B 1 2 s n
0n−s×s M

donde M y N son ciertas matrices. Entonces, como A = [T ]E


E = P [T ]B P
B −1
, donde P = [M ]E
B es la
matriz de cambio de base de B a E, tenemos que
 
λIs×s − xIs×s N
χA (x) = det(A−xI) = det([T ]B −xI) = det(
B
) = (λ−x)s det(M −xI).
0 M − xI

Por otra parte, como λ es un autovalor de A con multiplicidad algebraica r ∈ N, tenemos que
χA (x) = (x − λ)r R(x) con R un polinomio tal que R(λ) 6= 0. Entonces

(λ − x)s det(M − xI) = χA (x) = (x − λ)r R(x),

con R(λ) 6= 0. Entonces s ≤ r, porque si s > r entonces R(x) = (λ − x)s−r det(M − xI) y R(λ) = 0,
lo cual es absurdo. Por lo tanto

µ(λ) = dim(nul(A − λI)) = s ≤ r = m(λ).

Propiedades de autovalores y autovectores


Las siguientes son algunas propiedades de autovalores y autovectores a tener en cuenta. Sea
A ∈ Kn×n , entonces:

186
4.1. Autovalores y autovectores

λ = 0 es autovalor de A si y sólo si A es no inversible (o singular).


De hecho, λ = 0 es autovalor de A si y sólo si λ = 0 es una raíz de χA (x) = det(A − xI). Es
decir,
det(A) = det(A − 0I) = χA (0) = 0

si y sólo si A es no inversible (o singular).

Si rg(A) = k < n entonces λ = 0 es autovalor de A con multiplicidad geométrica n − k.


De hecho, por la Proposición 4.1.1, como rg(A) = rg(A − 0I) = k < n entonces λ = 0 es
autovalor de A. Entonces, por el Teorema de la Dimensión,

µ(λ = 0) = dim(nul(A − 0I)) = dim(nul(A)) = n − rg(A) = n − k.

Si λ ∈ K es autovalor de A entonces:

• rλ es autovalor de rA para todo r ∈ K.


• λk es autovalor de Ak para todo k ∈ N.
• si existe A−1 entonces λ−1 es autovalor de A−1 .

De hecho, si λ ∈ K es autovalor de A entonces existe v 6= 0 tal que

Av = λv. (4.2)

Entonces, multiplicando la ecuación (4.2) a ambos lados por r ∈ K. Tenemos que

(rA)v = (rλ)v.

Entonces rλ ∈ K es autovalor de rA con el mismo autovector asociado.


Por otra parte, multiplicando la ecuación (4.2) a ambos lados por A. Tenemos que

A2 v = AAv = Aλv = λAv = λλv = λ2 v.

Entonces λ2 es autovalor de A2 con el mismo autovector asociado.


Vamos a probar la propiedad para todo k ∈ N por inducción: supongamos que para k = n ∈ N
vale que An v = λn v (HI). Entonces, multiplicamos esa ecuación a ambos lados por A y
tenemos que
An+1 v = AAn v = Aλn v = λn Av = λn λv = λn+1 v.

Entonces, a partir de la hipótesis inductiva deducimos la validez de la propiedad para k = n+1.


Por lo tanto, por inducción, λk es autovalor de Ak para todo k ∈ N con el mismo autovector
asociado.
Finalmente, si existe A−1 entonces A es inversible y por lo que vimos arriba λ 6= 0. Entonces,
multiplicando la ecuación (4.2) a ambos lados por A−1 ,

v = A−1 Av = A−1 λv = λA−1 v.

Multiplicando la ecuación anterior por λ−1 tenemos que

λ−1 v = λ−1 λA−1 v = A−1 v.

Por lo tanto λ−1 es autovalor de A−1 con el mismo autovector asociado.

187
4. Diagonalización

La siguiente es una propiedad útil para matrices A ∈ K2×2 . Sea A ∈ K2×2 entonces

χA (x) = det(A − xI) = x2 − tr(A)x + det(A). (4.3)


En consecuencia las raíces de χA son
1
λ± =
tr(A) ± tr(A)2 − 4 det(A) . (4.4)
p 
2
 
a b
De hecho, supongamos que A = , con a, b, c, d ∈ K. Entonces
c d
 
a−x b
χA (x) = det(A − xI) = det = (a − x)(d − x) − bc
c d−x
= x2 − (a + d)x + (ad − bc) = x2 − tr(A)x + det(A).

Por lo tanto, las raíces de χA son las que aparecen en (4.4).

Sea A ∈ Kn×n y sean λ1 , · · · , λn ∈ K los autovalores de A (no necesariamente distintos).


Entonces
det(A) = λ1 λ2 · · · λn , (4.5)
es decir el producto de los autovalores de A es igual al determinante de A.

tr(A) = λ1 + λ2 + · · · + λn , (4.6)

es decir la suma de los autovalores de A es igual a la traza A.

De hecho, supongamos que λ1 , · · · , λn ∈ K son los autovalores de A (no necesariamente distintos).


Entonces λ1 , · · · , λn son las n raíces de χA y podemos factorizar χA de la siguiente manera:

det(A − xI) = χA (x) = (−1)n det(xI − A) = (−1)n (x − λ1 )(x − λ2 ) · · · (x − λn ).

Evaluando el polinomio anterior en x = 0 nos queda que

det(A) = det(A − 0I) = χA (0) = (−1)n (0 − λ1 )(0 − λ2 ) · · · (0 − λn ) = (−1)n (−1)n λ1 λ2 · · · λn


= λ1 λ2 · · · λn .

La demostración de que la suma de los autovalores de A es igual a tr(A) la veremos al final de


la Sección de Formas de Jordan 4.5.

A continuación veremos un ejemplo de cálculo de autovectores y autovalores. Antes recordemos


el siguiente resultado que puede resultar útil para encontrar raíces racionales de polinomios con
coeficientes enteros:

Teorema de Gauss: Sea

an xn + an−1 xn−1 + · · · + a1 x + a0 ∈ Zn [x]

es decir un polinomio con coeficientes enteros con a0 y an no nulos. Entonces, si λ := pq es


una raíz racional de dicho polinomio (donde pq es una fracción irreducible o que no se puede
simplificar) es porque p es un divisor de a0 y q es un divisor de an .

Por ejemplo, consideremos el polinomio

r(x) = 4x4 − x2 − 6x + 3 ∈ Z4 [x].

188
4.1. Autovalores y autovectores

Por el Teorema de Gauss, si r tiene alguna raíz racional de la forma λ = pq , entonces los posibles p
serían: 1, −1, 3, −3 (es decir todos los divisores de a0 = 3) y los posibles q serían, 1, −1, 2, −2, 4, −4
(es decir todos los divisores de a4 = 4). Por lo tanto, si r tiene alguna raíz racional λ, no queda
otra que:
p 1 1 1 1 3 3 3 3
λ = ∈ {1, −1, , − , , − , 3, −3, , − , , − }.
q 2 2 4 4 2 2 4 4
Haciendo la cuenta (es decir evaluando r en los valores de arriba y viendo si se anula), tenemos que
1 y 21 son raíces de r (no son las únicas, pero sí son todas las raíces racionales de r).
Por ejemplo, si ahora consideramos el polinomio

r(x) = x3 + 2 ∈ Z3 [x].

Por el Teorema de Gauss, si r tiene alguna raíz racional de la forma λ = pq , entonces los posibles p
serían: 1, −1, 2, −2 (es decir todos los divisores de a0 = 2) y los posibles q serían, 1, −1 (es decir
todos los divisores de a3 = 1). Es decir, si r tiene alguna raíz racional λ, no queda otra que:
p
λ= ∈ {1, −1, 2, −2}.
q
Si evaluamos el polinomio r en los valores de arriba vemos que nunca se anula, por lo tanto, podemos
concluir que r no tiene ninguna raíz racional.
Supongamos ahora que tenemos una matriz A ∈ Zn×n (con coeficientes enteros), entonces el
polinomio característico de A es mónico (es decir an = 1, meditar por qué) y tiene la forma

χA (x) = det(A − xI) = xn + an−1 xn−1 + · · · + a1 x + a0 ∈ Zn [x].

Por el Teorema de Gauss, si λ = pq es una raíz racional de χA entonces los valores posibles de q
son 1 y −1 (pues an = 1) y los posibles valores de p son los divisores de a0 . Observar además que

a0 = χA (0) = det(A − 0I) = det(A).

Por lo tanto, si χA ∈ Zn [x] tiene alguna raíz racional, entonces sólo puede ser algún divisor entero
del det(A).

Ejercicio 4.A. Encontrar los autovalores de la siguiente matriz, sus multiplicidades algebraicas y
geométricas y tantos autovectores linealmente independientes como sea posible.

−3 1 −3
 

A =  20 3 10  .
2 −2 4

Dem. Primero, notar que (hacer la cuenta) det(A) = −18.


Ahora, calculemos el polinomio característico de A:

1
 
−3 − x −3
χA (x) = det(A − xI) = det  20 3−x 10  = −x3 + 4x2 + 3x − 18.
2 −2 4−x

Por el Teorema de Gauss, si χA tiena alguna raíz racional λ, entonces sólo puede ser algún
divisor entero del det(A) = −18. En ese caso, las posibles raíces racionales podrían ser

{1, −1, 2, −2, 3, −3, 6, −6, 9, −9, 18, −18}.

Haciendo la cuenta (es decir evaluando χA en los valores de arriba) se puede ver que tuvimos
suerte y que λ1 = −2 y λ2 = 3 son raíces de χA . Además, como −18 = det(A) = λ1 ·λ2 ·λ3 = −6·λ3 ,
tenemos que λ3 = 3, donde usamos la propiedad (4.1).

189
4. Diagonalización

Por lo tanto, los autovalores de A son λ1 = −2 con multiplicidad algebraica m(λ = −2) = 1 y
λ2,3 = 3 con multiplicidad algebraica m(λ = 3) = 2.
Para obtener los autoespacios asociados, calculamos:

−1 1 −3 −1 1
     
−3 −1
Sλ=2 = nul(A − (−2)I) = nul(  20 5 10 ) = nul(  0 25 −50 ) = gen{  2 }.
2 −2 6 0 0 0 1

1 1
     
−6 −3 −6 −3 −1
Sλ=3 = nul(A − 3I) = nul(  20 0 10 ) = nul(  0 10 0 ) = gen{  0 }.
2 −2 1 0 −5 0 2
Por lo tanto, la multiplicidad geométrica de λ1 = −2 es µ(λ = −2) = 1 (lo cual es obvio porque
λ = −2 es un autovalor simple)  y lamultiplicidad
  geométrica de λ2,3 = 3 es µ(λ = 3) = 1.
−1 0
Finalmente, si v1 ∈ gen{  2 } \ {  0 } entonces v1 es un autovector asociado a λ1 = −2
1 0
0
   
−1
y si v2 ∈ gen{  0 } \ {  0 } entonces v2 es un autovector asociado a λ2,3 = 3. Por lo tanto,
2 0
siempre podemos encontrar a lo sumo 2 autovectores de A que sean linealmente independientes.


4.2. Diagonalización
Sea A ∈ Kn×n diremos que A es diagonalizable si existen P ∈ Kn×n inversible y Λ ∈ Kn×n
diagonal tales que
A = P ΛP −1 .
Antes de enunciar el teorema central de la sección, veamos una propiedad que será muy
importante:

Proposición 4.2.1. Sea A ∈ Kn×n y sean λ1 , · · · , λr ∈ K autovalores distintos de A.


Entonces los autoespacios asociados Sλ1 , · · · , Sλr están en suma directa.

Dem. Lo vamos a probar por inducción en r.


Para r = 1, la propiedad es obvia.
Para r = 2, sean λ1 6= λ2 dos autovalores de A. Si v ∈ Sλ1 ∩ Sλ2 entonces, Av = λ1 v y Av = λ2 v.
Por lo tanto (λ1 − λ2 )v = Av − Av = 0 y como λ1 − λ2 = 6 0, se sigue que v = 0 y Sλ1 , Sλ2 están en
suma directa.
Ahora, supongamos que el resultado vale para r autovalores distintos (HI) y vamos a
probarlo para r + 1 autovalores distintos: sean λ1 , · · · , λr , λr+1 autovalores distintos de A.
Veamos que los autoespacios Sλ1 , · · · , Sλr , Sr+1 están en suma directa. Primero, veamos que
Sλr+1 ∩ (S1 ⊕ · · · ⊕ Sr ) = {0}. De hecho, si v ∈ Sλr+1 ∩ (S1 ⊕ · · · ⊕ Sr ), entonces v ∈ Sλr+1 y, como
v ∈ (S1 ⊕ · · · ⊕ Sr ), existen únicos vi ∈ Sλi con i = 1, 2, · · · , r, tales que

v = v1 + v2 + · · · + vr ∈ Sλr+1 .

Multiplicando la igualdad anterior por A, como v ∈ Sλr+1 , tenemos que

λr+1 v = Av = Av1 + · · · + Avr = λ1 v1 + · · · + λr vr . (4.7)

Por otra parte,


λr+1 v = λr+1 v1 + · · · λr+1 vr . (4.8)

190
4.2. Diagonalización

Restando las ecuaciones (4.7) y (4.8), tenemos que

0 = (λr+1 − λ1 )v1 + · · · + (λr+1 − λr )vr .

Por (HI), los autoespacios S1 , · · · , Sr están en suma directa, entonces el vector 0 se escribe
únicamente como suma de ceros. Entonces, (λr+1 − λ1 )v1 = · · · = (λr+1 − λr )vr = 0. Como
λr+1 − λi 6= 0, para cada i = 1, 2, · · · , r, se sigue que v1 = v2 = · · · = vr = 0. Entonces
v = v1 + v2 + · · · + vr = 0 y Sλr+1 ∩ (S1 ⊕ · · · ⊕ Sr ) = {0}. Veamos que esto implica que
Sλ1 , · · · , Sλr , Sr+1 están en suma directa. Sea w ∈ Sλ1 + · · · + Sλr + Sr+1 y supongamos que

w = w1 + w2 + · · · + wr+1 = w10 + w20 + · · · + wr+1


0
,

para ciertos wi , wi0 ∈ Sλi con i = 1, 2, · · · , r + 1. Entonces


0
wr+1 − wr+1 = (w10 − w1 ) + · · · + (wr0 − wr ) ∈ Sλr+1 ∩ (S1 ⊕ · · · ⊕ Sr ) = {0},

donde usamos lo que acabamos de ver. Por lo tanto, wr+1 − wr+1 0


= 0. Por otra parte,
0 = (w1 − w1 ) + · · · + (wr − wr ) con wi , wi ∈ Sλi con i = 1, 2, · · · , r. Nuevamente, por (HI),
0 0 0

los autoespacios S1 , · · · , Sr están en suma directa, entonces el vector 0 se escribe únicamente como
suma de ceros. Entonces

0 = w10 − w1 = · · · = wr0 − wr = wr+1 − wr+1


0

y el vector w se escribe de manera única. Por lo tanto los autoespacios Sλ1 , · · · , Sλr , Sr+1 están en
suma directa. 
El siguiente teorema nos brinda herramientas que nos permiten determinar si una matriz es
diagonalizable:

Teorema 4.2.2. Sea A ∈ Kn×n . Entonces son equivalentes:


i) A es diagonalizable,
ii) existe una base de Kn compuesta por autovectores de A,
iii) Kn = Sλ1 ⊕ · · · ⊕ Sλr , donde σ(A) = {λ1 , · · · , λr } son los r autovalores distintos de
A,
iv) las multiplicidades algebraicas y geométricas de cada autovalor distinto de A coinciden.
En este caso, M
nul(A − λI) = col(A − λi I).
λ∈σ(A), λ6=λi

Dem. i) ⇔ ii) : Supongamos que A es diagonalizable, entonces existen P ∈ Kn×n inversible


y Λ ∈ Kn×n diagonal tales que A = P ΛP −1 . Sea P = [v1 v2 · · · vn ] donde {v1 , v2 , · · · , vn }
(el conjunto de las columnas de P ) es una base de Kn , pues P es inversible. Supongamos que
Λ = diag(λ1 , λ2 , · · · , λn ) donde λ1 , λ2 , · · · , λn ∈ K (no necesariamente todos distintos). Entonces,
como A = P ΛP −1 , multiplicando a izquierda por P, se sigue que

AP = P Λ.

Por lo tanto, como


AP = A[v1 v2 · · · vn ] = [Av1 Av2 · · · Avn ] y
P Λ = [v1 v2 · · · vn ] diag(λ1 , λ2 , · · · , λn ) = [λ1 v1 λ2 v2 · · · λn vn ].

191
4. Diagonalización

Tenemos que
Avi = λi vi ,
para i = 1, 2, · · · , n. Como vi 6= 0, para todo i = 1, 2, · · · , n, vi es un autovector de A para todo
i = 1, 2, · · · , n. Por lo tanto, {v1 , v2 , · · · , vn } es una base de Kn formada por autovectores de A.
Recíprocamente, si {v1 , v2 , · · · , vn } es una base de Kn formada por autovectores de A. Entonces,
existen λi ∈ K (no necesariamente distintos entre sí) tales que
Avi = λi vi
para todo i = 1, 2, · · · , n. Sea P := [v1 v2 · · · vn ] y Λ := diag(λ1 , λ2 , · · · , λn ) entonces P es
inversible pues sus columnas forman un base de Kn y además
AP = [Av1 Av2 · · · Avn ] = [λ1 v1 λ2 v2 · · · λn vn ] = P Λ.
Entonces
A = P ΛP −1
y por lo tanto A resulta diagonalizable.
ii) ⇒ iii) : Supongamos que λ1 , · · · , λr ∈ K son los r autovalores distintos de A y que existe una
base B = {v1 , · · · , vn } de Kn formada por autovectores de A. Entonces, para cada vj ∈ B existe
i ∈ {1, · · · , r} tal que vj es un autovector de A asociado al autovalor λi . Entonces vj ∈ Sλ1 ⊕· · ·⊕Sλr .
En consecuencia, Kn = Sλ1 ⊕ · · · ⊕ Sλr , donde usamos la Proposición 4.2.1, para afirmar que los
autoespacios Sλ1 , · · · , Sλr , están en suma directa.
iii) ⇒ iv) : Supongamos que Kn = Sλ1 ⊕ · · · ⊕ Sλr , donde λ1 , · · · , λr ∈ K son los r autovalores
distintos de A. Entonces
n = dim(Kn ) = dim(Sλ1 ⊕ · · · ⊕ Sλr )
= dim(Sλ1 ) + · · · + dim(Sλr ) = µ(λ1 ) + · · · µ(λr )
≤ m(λ1 ) + · · · + m(λr ) = n,
donde usamos (4.1). Entonces, en la cadena anterior, son todas igualdades. Es decir,
µ(λ1 ) + · · · + µ(λr ) = m(λ1 ) + · · · + m(λr ) = n.
Entonces, (m(λ1 ) − µ(λ1 )) + · · · + (m(λr ) − µ(λr )) = 0. Pero, por (4.1), tenemos que µ(λi ) ≤ m(λi )
para cada i = 1, · · · , r. Por lo tanto,
m(λi ) = µ(λi ),
para cada i = 1, · · · , r y probamos que las multiplicidades algebraicas y geométricas de cada
autovalor distinto de A coinciden.
iv) ⇒ ii) : Supongamos que las multiplicidades algebraicas y geométricas de cada autovalor
distinto de A coinciden. Sea Bi una base de Sλi para cada i = 1, · · · , r. Por la Proposición 4.2.1,
los autoespacios Sλ1 , · · · , Sλr están en suma directa. Entonces B := B1 ∪ · · · ∪ Br es una base de
Sλ1 ⊕ · · · ⊕ Sλr ⊆ Kn . Dado un conjunto X, #X denota el cardinal (número de elementos) de X.
Entonces
#B = #B1 + · · · + #B1 = dim(Sλ1 ) + · · · + dim(Sλr )
= µ(λ1 ) + · · · + µ(λr ) = m(λ1 ) + · · · + m(λr ) = n.
Por lo tanto, dim(Sλ1 ⊕ · · · ⊕ Sλr ) = #B = n y entonces Sλ1 ⊕ · · · ⊕ Sλr = Kn . Entonces B es
una base de Kn formada por autovectores de A.
Como probamos i) ⇔ ii), ii) ⇒ iii), iii) ⇒ iv) y iv) ⇒ ii), se sigue que i), ii), iii) y iv) son
equivalentes.
En este caso, veamos que Sλ2 ⊕ · · · ⊕ Sλr = col(A − λ1 I). De hecho, si y ∈ col(A − λ1 I) existe
x ∈ Kn tal que y = Ax − λ1 x. Como x ∈ Kn existen únicos vi ∈ Sλi , i = 1, · · · , r tales que
x = v1 + v2 + · · · + vr . Entonces
y = Ax − λ1 x = Av1 + Av2 + · · · + Avr − λ1 v1 − λ1 v2 − · · · − λ1 vr

192
4.2. Diagonalización

= λ1 v1 + λ2 v2 + · · · + λr vr − λ1 v1 − λ1 v2 − · · · − λ1 vr
= (λ2 − λ1 )v2 + · · · + (λr − λ1 )vr ∈ Sλ2 ⊕ · · · ⊕ Sλr

donde usamos que (λ2 − λ1 ) 6= 0, · · · , (λr − λ1 ) 6= 0. Por lo tanto, col(A − λ1 I) ⊆ Sλ2 ⊕ · · · ⊕ Sλr .
Pero, como

dim(col(A − λ1 I)) = n − dim(nul(A − λ1 I)) = n − dim(Sλ1 ) = dim(Sλ2 ⊕ · · · ⊕ Sλr ),

se sigue que Sλ2 ⊕ · · · ⊕ Sλr = nul(A − λI) = col(A − λ1 I).


L
λ∈σ(A), λ6=λ1
De manera similar, se prueba que nul(A − λI) = col(A − λi I).
L

λ∈σ(A), λ6=λi

Notar que, por el Teorema 4.2.2, tenemos que

Si A ∈ Kn×n tiene n autovalores distintos, entonces A es diagonalizable.

El siguiente ejercicio (muy similar al Ejercicio 4.1) es un ejemplo de cálculo de autovectores y


autovalores y de diagonalización de una matriz de 3 × 3.
Ejercicio 4.B. Sea A ∈ R3×3 la matriz

1 2
 
−2
A=  0 1 0 .
1 3 4

a) Hallar los autovalores y autoespacios de A.


b) Verificar que los autovectores de A forman una base B de R3 .
c) Hallar la matriz de cambio de coordenadas de la base B en la base canónica E de R3 , P = MBE ,
y comprobar, que
A = P ΛP −1 ,
donde Λ es una matriz diagonal.

Dem. a) : Calculamos el polinomio característico de A :

1−x 2
 
−2
χA (λ) = det(A − xI) = det  0 1−x 0  = (1 − x)[(1 − x)(4 − x) − (−2)]
1 3 4−x
= (1 − x)[(1 − x)(4 − x) − (−2)] = (1 − x)(x2 − 5x + 6).

Los autovalores de A son las raíces de χA y son λ1 = 1, λ2 = 2, λ3 = 3.


Para obtener los autoespacios asociados, calculamos:

0 2 −2
   
−6
Sλ=1 = nul(A − I) = nul(  0 0 0 ) = gen{  1 }.
1 3 3 1

−1 2 −2 −1 2 −2 2
     

Sλ=2 = nul(A − 2I) = nul(  0 −1 0 ) = nul(  0 −1 0 ) = gen{  0 }.


1 3 2 0 5 0 −1
−2 2 −2 −2 2 −2 1
     

Sλ=3 = nul(A − 3I) = nul(  0 −2 0 ) = nul(  0 −2 0 ) = gen{  0 }.


1 3 1 0 8 0 −1

193
4. Diagonalización

2 1
     
−6
b) : Si tomamos B = {  1  ,  0  ,  0 }. Entonces, B es una base de R3 (ver
1 −1 −1
Teorema 4.2.2) compuesta por autovectores de A. Como obtuvimos una base de autovectores de A,
tenemos que A es diagonalizable.
c) : Si E es la base canónica de R3 entonces

−6 2 1
 

MBE =  1 0 0  := P.
1 −1 −1

0 1 0
 

Por lo tanto P −1 = (MBE )−1 = MEB =  1 5 1 .


−1 −4 −2
1 0 0
 

Si Λ =  0 2 0  , se puede comprobar haciendo la cuenta que A = P ΛP −1 .


0 0 3
Si no queremos hacer la cuenta, podemos pensar lo siguiente: llamemos TA : R3 → R3 a la
transformación lineal TA (x) = Ax. Entonces, claramente [TA ]EE = A. Por otra parte, como

2 2 1 1
           
−6 −6
A(  1 ) =  1  , A(  0 ) = 2(  0 ) y A(  0 ) = 3(  0 ).
1 1 −1 −1 −1 −1

Tenemos que

2 1
     
−6
[TA ]B
B = [ [TA (
 1 )]B [TA (  0 )]B [TA (  0 )]B ]
1 −1 −1
2 1
     
−6
= [ [A(  1 )]B [A(  0 )]B [A(  0 )]B ]
1 −1 −1
2 1
     
−6
= [ [  1 ]B [2(  0 )]B [3(  0 )]B ]
1 −1 −1
1 0 0
 

=  0 2 0  = Λ.
0 0 3

Entonces,
A = [TA ]EE = MBE [TA ]B
B ME = P ΛP
B −1
.


Ejercicio 4.2. Sea A ∈ R3×3 que tiene autovalores λ1 = 0, λ2 = 2, λ3 = 5 con autovectores

v1 = [1 1 − 1]T , v2 = [2 2 − 1]T , v3 = [1 2 − 1]T ,

respectivamente.

a) Hallar una base de de nul(A) y una base de col(A).

b) Hallar una solución particular de Ax = v2 + v3 .

c) Hallar todas las soluciones de Ax = v2 + v3 .

194
4.2. Diagonalización

d) Explicar por qué la ecuación Ax = v1 no tiene solución.

Dem. a) : Recordemos que v ∈ nul(A) si y sólo si Av = 0. Por lo tanto, nul(A) es el autoespacio


asociado a λ1 = 0. Entonces

nul(A) = Sλ1 =0 = gen{v1 } = gen{[1 1 − 1]T }

y una base de nul(A) puede ser Bnul(A) = {[1 1 − 1]T }.


Notar que {v1 , v2 , v3 } es una base de R3 (esto se puede probar por definición o viendo que v1 , v2
y v3 son autovectores asociados a autovalores distintos y entonces, por la Proposición 4.2.1, son
linealmente independientes) y recordemos que y ∈ col(A) si y sólo si existe x ∈ R3 tal que y = Ax.
Entonces, veamos que que
col(A) = gen{v2 , v3 }.
De hecho, si y ∈ col(A), entonces y = Ax para cierto x ∈ R3 . Como x ∈ R3 y {v1 , v2 , v3 } es una
base de R3 , existen a, b, c ∈ R tales que x = av1 + bv2 + cv3 . Por lo tanto

y = Ax = A(av1 + bv2 + cv3 ) = aAv1 + bAv2 + cAv3 = 0 + 2bv2 + 5cv3 = 2bv2 + 5cv3 ,

con b, c ∈ R. Por lo tanto y ∈ gen{v2 , v3 } y tenemos que col(A) ⊆ gen{v2 , v3 }. Finalmente, por el
Teorema de la Dimensión, vale que

dim(col(A)) = 3 − dim(nul(A)) = 3 − 1 = 2 = dim(gen{v2 , v3 }).

Entonces, col(A) = gen{v2 , v3 } y una base de col(A) puede ser Bcol(A) = {[2 2 − 1]T , [1 2 − 1]T }.
b) Sabemos que Av2 = 2v2 y Av3 = 5v3 . Entonces, si tomamos xp := 12 v2 + 15 v3 , vale que
1 1 1 1 1 1
Axp = A( v2 + v3 ) = Av2 + Av3 = 2v2 + 5v3 = v2 + v3 .
2 5 2 5 2 5
c) : Todas las soluciones xs de la ecuación Ax = v2 + v3 se construyen de la forma xs = xp + xh ,
donde xp es una solución particular y xh ∈ nul(A). Entonces, por los ítems a) y b), tenemos que
todas las soluciones de la ecuación Ax = v2 + v3 son
1 1
xs = v2 + v3 + αv1 ,
2 5
con α ∈ R.
d) En el item a) vimos que gen{v2 , v3 } = col(A). Entonces, como el conjunto {v1 , v2 , v3 } es
linealmente independiente, es claro que v1 6∈ gen{v2 , v3 } = col(A). Por lo tanto, no existe solución
al sistema Ax = v1 . 

Ejercicio 4.C. Explicar por qué las siguientes matrices no son diagonalizables en R2×2 :

λ 1 cos(θ) − sin(θ)
   
, λ ∈ R; ρ , ρ > 0, θ ∈ R \ {kπ : k ∈ Z}.
0 λ sin(θ) cos(θ)

1
 
λ
Dem. Calculamos el polinomio característico de la matriz con λ ∈ R :
0 λ
λ 1 1
   
λ−x
χ(x) = det( − xI) = det = (λ − x)2 .
0 λ 0 λ−µ
λ 1
 
Los autovalores de la matriz con λ ∈ R, son las raíces del polinomio característico. En
0 λ
este caso, las raíces son λ1 = λ2 = λ. Veamos la dimensión del autoespacio asociado al autovalor
λ1,2 = λ. Para eso, calculamos

λ 1 1 0 1 1
       
λ−λ
nul( − λI) = nul( ) = nul( ) = gen{ }.
0 λ 0 λ−λ 0 0 0

195
4. Diagonalización

Entonces, la multiplicidad geométrica asociada al autovalor λ es 1, mientras que la multiplicidad


algebraica asociadaal autovalor λ era 2, es decir µ(λ) < m(λ). Por lo tanto, por el Teorema 4.2.2,
λ 1
la matriz con λ ∈ R nunca es diagonalizable.
0 λ

cos θ − sin θ
 
Ahora, calculamos el polinomio característico de la matriz ρ con ρ > 0 y
sin θ cos θ
θ ∈ R \ {kπ : k ∈ Z} :

cos θ − sin θ ρ cos θ − x −ρ sin θ


   
χ(x) = det(ρ − xI) = det
sin θ cos θ ρ sin θ ρ cos θ − x
= (ρ cos θ − x)(ρ cos θ − x) + ρ2 sin θ2 = ρ2 cos θ2 − 2ρx cos θ + x2 + ρ2 sin θ2
= x2 − 2xρ cos θ + ρ2 (cos θ2 + sin θ2 ) = x2 − 2xρ cos θ + ρ2 .

cos θ − sin θ
 
Los autovalores de la matriz ρ con ρ > 0 y θ ∈ R \ {kπ : k ∈ Z} son las raíces
sin θ cos θ
en R (estamos considerando cuerpo real) del polinomio característico. Es decir, buscamos λ ∈ R tal
que χ(λ) = λ2 − λ2ρ cos θ + ρ2 = 0. Entonces, despejando y recordando que ρ > 0, nos queda que

2ρ cos θ ± 4ρ2 cos θ2 − 4ρ2 2ρ cos θ ± 2ρ cos θ2 − 1
p
λ1,2 = = .
2 2
Observar
√ que como θ ∈ R \ {kπ : k ∈ Z} entonces cos θ < 1. Por lo tanto, cos θ − 1 < 0 y
2 2

entonces cos θ − 1 ∈ C \ R. Por lo tanto, como ρ > 0, tenemos que


2

λ1,2 = ρ(cos θ ± i | cos θ2 − 1|) ∈ C \ R,


p

cos θ − sin θ
 
entonces la matriz ρ con ρ > 0 y θ ∈ R \ {kπ : k ∈ Z} no tiene autovalores (en
sin θ cos θ
R) y concluimos que dicha matriz no es diagonalizable. 

Ejercicio 4.4. Sea A ∈ R3×3 la matriz dependiente de los parámetros reales a, b, c definida por:
0 1 0
 

A =  0 0 1 .
c b a

a) Hallar los valores a, b, c ∈ R tales que χA (x) = det(A − xI) = 9x − x3 .¿A es diagonalizable?
Si la respuesta es afirmativa hallar P ∈ R3×3 inversible y Λ ∈ R3×3 diagonal tales que
A = P ΛP −1 .
b) Para c = 0, hallar el conjunto de las parejas a, b ∈ R tales que A es diagonalizable.

Dem. El polinomio característico de A es


1 0
 
−x
χA (x) = det(A − xI) = det  0 −x 1  = −x[−x(a − x) − b] + c[1 − 0]
c b a−x
= −x3 + ax2 + bx − c = −x3 + 9x.

Por lo tanto a = 0, b = 9 y c = 0. En ese caso, como χA (x) = −x3 + 9x = x(9 − x2 ). Los autovalores
de A (que son las raíces de χA ) son λ1 = 0, λ2 = 3 λ3 = −3. Como A tiene 3 autovalores distintos,
por el Teorema 4.2.2, A es diagonalizable. Calculemos los autoespacios asociados:
0 1 0 1
   

Sλ=0 = nul(A) = nul(  0 0 1 ) = gen{  0 },


0 9 0 0

196
4.2. Diagonalización

−3 1 0 1
   

Sλ=3 = nul(A − 3I) = nul(  0 −3 1 ) = gen{  3 },


0 9 −3 9
3 1 0
   
−1
Sλ=−3 = nul(A + 3I) = nul(  0 3 1 ) = gen{  3 }.
0 9 3 −9
1 1 −1 0 0 0
   

Si tomamos P :=  0 3 3  y Λ :=  0 3 0  , entonces P es inversible (sus columnas


0 9 −9 0 0 −3
son una base de R3 ), Λ es diagonal y A = P ΛP −1
.
0 1 0
 

b) Sea c = 0, entonces A =  0 0 1  y el polinomio característico de A es


0 b a

−x 1 0
 

χA (x) = det(A − xI) = det  0 −x 1  = −x[−x(a − x) − b]


0 b a−x
= −x[x2 − ax − b].

Entonces, los autovalores de A (que son las raíces de χA ) son λ1 = 0 y



a ± a2 + 4b
λ2,3 = .
2
Veamos 4 casos posibles:
2
Caso 1: a2 + 4b = 0 y a = 0. Entonces b = − a4 = 0 y λ2,3 = a2 = 0. Por lo tanto λ = 0 es un
autovalor triple de A, es decir m(λ = 0) = 3. Por otra parte,

0 1 0 1
   

nul(A) = nul(  0 0 1 ) = gen{  0 }.


0 0 0 0

Entonces 1 = µ(λ = 0) < 3 = m(λ = 0) y entonces A no es diagonalizable.


2
Caso 2: a2 + 4b = 0 y a 6= 0. Entonces b = − a4 6= 0. Por lo tanto λ = a
2 6= 0 es un autovalor
doble de A, es decir m(λ = a2 ) = 2. Por otra parte,

− a2 1 0
   2 
a a
nul(A − I) = nul(  0 − a2 1 ) = gen{  1 }.
2 2 a
0 − a4 a
2 2

Entonces 1 = µ(λ = a2 ) < 2 = m(λ = a2 ) y entonces A no es diagonalizable.


√ √
Caso 3: a2 + 4b > 0. Entonces λ1 = 0, λ2 = a+ a2 +4b y λ3 = a− a2 +4b son 3 autovalores
2 2

distintos de A y por lo tanto, por el Teorema 4.2.2, A es diagonalizable.



a±i |a2 +4b|
Caso 4: a2 + 4b < 0. Entonces λ2,3 = 2 ∈ C. Como estamos considerando como
cuerpo R, concluimos que A no es diagonalizable.

Conclusión, A es diagonalizable si y sólo si a2 + 4b > 0. 

Las mismas nociones de autovalores, autovectores y diagonalización que vimos para matrices se
pueden definir para transformaciones lineales.

197
4. Diagonalización

Sea V un K-espacio vectorial y sea T : V → V una transformación lineal. El escalar λ ∈ K


es un autovalor de T si existe un vector no nulo v ∈ V \ {0V } tal que

T (v) = λv.

Al vector v lo llamamos autovector asociado a λ y definimos el autoespacio asociado a λ


como
Sλ := {v ∈ V : T (v) = λv} = Nu(T − λI).
Finalmente, diremos que T ∈ L(V) es diagonalizable si existe una base de V formada por
autovectores de T.

Sea V un K-espacio vectorial de dimensión finita y T ∈ L(V), se define el polinomio característico


de T como
χT (x) := det([T ]B
B − xI),

donde B es cualquier base de V.


Observar que si B 0 es otra base de V, entonces
0
[T ]B
B0 = (MB0 )
B −1
[T ]B B
B MB 0 .

Entonces
0
det([T ]B
B0 − xI) = det((MB0 )
B −1
[T ]B
B MB0 − x(MB0 )
B B −1
MBB0 ) = det((MBB0 )−1 ([T ]B
B − xI)MB0 )
B

= det((MBB0 )−1 ) det([T ]B


B − xI) det(MB0 )
B

= det(MBB0 )−1 det(MBB0 ) det([T ]B


B − xI)

= det([T ]B
B − xI).

Por lo tanto el polinomio característico de T está bien definido (no depende de la base B elegida).
Entonces, de la misma manera que vimos para matrices tenemos que:

Sea V un K-espacio vectorial de dimensión finita y T ∈ L(V), entonces λ ∈ K es un autovalor


de T si y sólo si λ ∈ K es una raíz de χT .

Veamos un ejemplo para aplicar todos estos conceptos a transformaciones lineales:


Ejercicio 4.D (De Parcial). Dada T ∈ L(V) definida por T (v1 ) = 7v1 + 2v2 y T (v2 ) = −4v1 + v2 ,
con B = {v1 ; v2 } una base de V. Entonces
a) Hallar, si existe, una base C de V tal que [T ]CC sea diagonal.
b) Calcular [T k ]B
B para todo k ∈ N.

Dem. a) : Veamos si T es diagonalizable. Para eso elijamos una base conveniente  y calculemos el
7

−4
polinomio característico de T. Si tomamos la base B, entonces [T ]B
B = . Por lo tanto
2 1

7−x
 
−4
χT (x) = det([T ]B − xI) = det(
B
) = (7 − x)(1 − x) + 8 = x2 − 8x + 15.
2 1−x

Cuyas raíces son λ1 = 3 y λ2 = 5.


Calculemos los autoespacios asociados:

4 1
   
−4
nul([T ]B
B − 3I) = nul( ) = gen{ }.
2 −2 1

198
4.2. Diagonalización

Por lo tanto, Sλ=3 = Nu(T − 3IV ) = gen{v1 + v2 }.

2 −4 2
   
nul([T ]B − 5I) = nul(
B
) = gen{ }.
2 −4 1
Por lo tanto, Sλ=5 = Nu(T − 5IV ) = gen{2v1 + v2 }.
Sea C := {v1 + v2 ; 2v1 + v2 } entonces C es una base de V formada por autovectores de T.
Entonces, como T (v1 + v2 ) = 3(v1 + v2 ) y T (2v1 + v2 ) = 5(2v1 + v2 ), tenemos que

3 0
 
[T ]CC =
0 5
y T resulta diagonalizable.
b): En la Proposición 2.4.3, vimos que para todo k ∈ N, vale
[T k ]B
B = ([T ]B ) .
B k

Por otra parte, observar que si B y C son bases de V entonces


[T ]B
B = MC [T ]C MB .
B C C

1 2 −1 2
   
Llamemos P := MCB = , entonces P −1 := MBC = (MCB )−1 = . Por lo tanto,
1 1 1 −1
3 0
 
[T ]B
B =P P −1 . Observar que
0 5

3 0 3 0 3 0 2 −1
     
([T ]B ) = P
B 2 −1
P P P =P (
−1
) P
0 5 0 5 0 5
3 0
 2 
=P P −1 .
0 52
A partir de la observación anterior, vamos a probar por inducción que
3 0
 k 
([T ]B ) k
= P P −1 , (4.9)
B
0 5k
para todo k ∈ N.
Si k = 1, claramente (4.9) vale.
3n 0
 
Supongamos que para k = n ∈ N vale que ([T ]B
B)
n
=P P −1 (HI).
0 5n
Entonces, usando la HI,
3 0
 n 
([T ]B )n+1
= [T ]B
([T ] )
B n
= [T ]B
(P P −1 )
B B B B 0 5n
3 0 3 0 3 0
   n   n+1 
=P P −1 P P −1
= P P −1 .
0 5 0 5n 0 5n+1
Como a partir de la validez de la ecuación (4.9) para k = n deducimos la validez de dicha
ecuación para k = n + 1, por inducción, se sigue que,
3 0 1 2 3 0 −1 2
 k     k   
([T ]B ) = P
B k
P =
−1
,
0 5k 1 1 0 5k 1 −1
para todo k ∈ N. 
Entonces, para todo k ∈ N,
−3k + 2 · 5k 2 · (3k − 5k )
 
([T ]B
B) =
k
.
−3k + 5k 2 · 3k − 5k

199
4. Diagonalización

Ejercicio 4.E (De Parcial). Sea

2 2a − 4 2a2 − 8
 

A=  0 4 0 .
0 2a − 4 2a − 2

a) Obtener todos los valores de a ∈ R para los cuales A es diagonalizable.

b) Diagonalizar A para a = 1.

Dem. a) : Calculamos el polinomio característico de A :

2 − x 2a − 4 2a2 − 8
 

χA (x) = det(A − xI) = det(  0 4−x 0 )


0 2a − 4 2a − 2 − x
= (4 − λ)[(2 − x)(2a − 2 − x) − (2a2 − 8) · 0]
= (4 − x)(x2 − 2ax + 4(a − 1)).

Los autovalores de A son las raíces de su polinomio característico. Es decir, buscamos λ ∈ R


tales que χA (x) = (4 − x)(x2 − 2ax + 4(a − 1)) = 0. En este caso, las raíces son λ1 = 4 y

2a ± 4a2 − 16(a − 1) 2a ± (2a − 4)2 2a ± (2a − 4)


p p
λ2,3 = = = = a ± (a − 2).
2 2 2
Entonces, λ2 = 2a − 2 y λ3 = 2.
Observar que si 2a − 2 6= 2 y 2a − 2 6= 4 entonces, A tiene 3 autovalores distintos y por ende es
diagonalizable. Es decir si a 6= 2 y a 6= 3 entonces A es diagonalizable. Veamos qué pasa si a = 2 ó
a = 3.
2 0 0
 

Si a = 2, entonces los autovalores de A son λ1 = 4 y λ2,3 = 2. En este caso, A =  0 4 0  .


0 0 2
Entonces A es una matriz diagonal y en ese caso (trivialmente) A es diagonalizable.
2 2 10
 

Si a = 3, entonces los autovalores de A son λ1,2 = 4 y λ3 = 2. En este caso, A =  0 4 0  .


0 2 4
Veamos la multiplicidad geométrica del autovalor λ2,3 = 4 :

−2 2 10 5
   

nul(A − 4I) = nul(  0 0 0 ) = gen{  0 }.


0 2 0 1

Como la multiplicidad geométrica de λ = 4 es 1, pero la multiplicidad algebraica de dicho autovalor es


2, entonces µ(λ = 4) < m(λ = 4). Por lo tanto, concluimos que en este caso A NO es diagonalizable.
En conclusión, A es diagonalizable para todo a ∈ R \ {3}.
2 −2 −6

b) : Si a = 1, entonces A =  0 4 0  . En este caso, los autovalores de A son λ1 = 4,


0 −2 0
λ2 = 0 y λ3 = 2. Calculemos los autoespacios asociados:

1
   
−2 −2 −6
Sλ=4 = nul(A − 4I) = nul(  0 0 0 ) = gen{  2 }.
0 −2 −4 −1
2 −2 −6 3
   

Sλ=0 = nul(A) = nul(  0 4 0 ) = gen{  0 }.


0 −2 0 1

200
4.3. Polinomios matriciales

0 −2 −6 0 −2 −6 1
     

Sλ=2 = nul(A − 2I) = nul(  0 2 0 ) = nul(  0 0 −6 ) = gen{  0 }.


0 −2 −2 0 0 4 0
1 3 1 4 0 0
   

Si tomamos P :=  2 0 0  y Λ :=  0 0 0  , entonces P es inversible, Λ es diagonal


−1 1 0 0 0 2
y
A = P ΛP −1 .


4.3. Polinomios matriciales


Sean q(x) = ak xk + ak−1 xk−1 + · · · + a1 x + a0 ∈ Kk [x] y A ∈ Kn×n . Definimos
q(A) := ak Ak + ak−1 Ak−1 + · · · + a1 A + a0 I.
1 1
 
Por ejemplo, sean q(x) = 2x + 1 y A =
2
. Entonces,
0 1
2
1 1 1 0 3 4
    
q(A) = 2A2 + I = 2 + = .
0 1 0 1 0 3
A continuación veremos algunas propiedades muy importantes de los polinomios matriciales.
Proposición 4.3.1. Sean q(x) = ak xk + ak−1 xk−1 + · · · + a1 x + a0 ∈ Kk [x] y A ∈ Kn×n . Si λ ∈ K
es un autovalor de A con autovector asociado v entonces q(λ) es un autovalor de q(A) con mismo
autovector asociado.

Dem. Sea λ ∈ K un autovalor de A, entonces existe v 6= 0 tal que Av = λv. Entonces (lo vimos en
la Sección 4.1): λk es autovalor de Ak para todo k ∈ N con el mismo autovector asociado v. Por lo
tanto,
q(A)v = (ak Ak + ak−1 Ak−1 + · · · + a1 A + a0 I)v = ak Ak v + ak−1 Ak−1 v + · · · + a1 Av + a0 v
= ak λk v + ak−1 λk−1 v + · · · + a1 λv + a0 v = (ak λk + ak−1 λk−1 + · · · + a1 λ + a0 )v
= q(λ)v.
Entonces, q(λ) es un autovalor de q(A) con mismo autovector asociado. 

Proposición 4.3.2. Sean q(x) = ak xk + ak−1 xk−1 + · · · + a1 x + a0 ∈ Kk [x] con ak 6= 0 y A ∈ Kn×n .


Si λ ∈ K es un autovalor de q(A) entonces existe ν ∈ K autovalor de A tal que λ = q(ν).

Dem. Sea λ ∈ K un autovalor de q(A), entonces existe v 6= 0 tal que q(A)v = λv. Sea
p(x) := q(x) − λ, entonces como ak 6= 0 tenemos que p es de grado k. Entonces, por el Teorema
fundamental del álgebra, existen ν1 , ν2 , · · · , νk ∈ K tales que
p(x) = q(x) − λ = ak (x − ν1 )(x − ν2 ) · · · (x − νk ).
Entonces
p(A) = q(A) − λI = ak (A − ν1 I)(A − ν2 I) · · · (A − νk I).
Como p(A)v = q(A)v − λv = 0 y v 6= 0, se sigue que
0 = det(p(A)) = akk det[(A − ν1 I)(A − ν2 I) · · · (A − νk I)]
= akk det(A − ν1 I) det(A − ν2 I) · · · det(A − νk I).
Entonces, como ak 6= 0, existe ν ∈ {ν1 , ν2 , · · · , νk } tal que det(A − νI) = 0. Entonces ν es autovalor
de A y además, 0 = p(ν) = q(ν) − λ. Por lo tanto q(ν) = λ. 

201
4. Diagonalización

Proposición 4.3.3. Sea A ∈ Kn×n diagonalizable y sea A = P ΛP −1 con P ∈ Kn×n inversible y


Λ = diag(λ1 , λ2 , · · · , λn ) ∈ Kn×n donde λ1 , λ2 , · · · , λn ∈ K son los autovalores de A. Entonces,
para cada n ∈ N,
An = P Λn P −1 = P diag(λn1 , λn2 , · · · , λnn )P −1 .
Más aún, si q(x) = ak xk + ak−1 xk−1 + · · · + a1 x + a0 ∈ Kk [x]. Entonces

q(A) = P q(Λ)P −1 = P diag(q(λ1 ), q(λ2 ), · · · , q(λn ))P −1 .

Dem. Vamos a probar la propiedad para todo n ∈ N por inducción: Para n = 1 es claro que la
propiedad vale.
Supongamos que para n = k ∈ N vale que Ak = P Λk P −1 (HI). Entonces, multiplicamos esa
ecuación a ambos lados por A y tenemos que

Ak+1 = AAk = P ΛP −1 P Λk P −1 = P ΛΛk P −1 = P Λk+1 P −1 .

Entonces, a partir de la hipótesis inductiva deducimos la validez de la propiedad para n = k + 1.


Por lo tanto, por inducción, concluimos que para cada n ∈ N,

An = P Λn P −1 = P diag(λn1 , λn2 , · · · , λnn )P −1 .

Más aún,

q(A) = ak Ak + ak−1 Ak−1 + · · · + a1 A + a0 I


= ak P Λk P −1 + ak−1 P Λk−1 P −1 + · · · + a1 P ΛP −1 + a0 P P −1
= P (ak Λk + ak−1 Λk−1 + · · · + a1 Λ + a0 I)P −1
= P q(Λ)P −1
= P diag(q(λ1 ), q(λ2 ), · · · , q(λn ))P −1 .

Corolario 4.3.4. Supongamos que A ∈ Kn×n es diagonalizable y sea χA es el polinomio


característico de A, entonces
χA (A) = 0n×n ,
donde 0n×n es la matriz nula de n × n.
La propiedad anterior es el conocido Teorema de Cayley-Hamilton y dicho teorema sigue
valiendo aún cuando A no es diagonalizable.

Dem. Recordemos que si λ1 , λ2 , · · · , λn ∈ K son los autovalores de A entonces

χA (λ1 ) = χA (λ2 ) = · · · = χA (λn ) = 0

porque los autovalores de A son las raíces del polinomio característico de A. Sea A = P ΛP −1
con P ∈ Kn×n inversible y Λ = diag(λ1 , λ2 , · · · , λn ) ∈ Kn×n . Entonces, por la Proposición 4.3.3,
tenemos que

χA (A) = P χA (Λ)P −1 = P diag(χA (λ1 ), χA (λ2 ), · · · , χA (λn ))P −1 = P 0n×n P −1 = 0n×n .


El siguiente ejercicio es una aplicación de todos los conceptos que vimos arriba:
Ejercicio 4.6. Hallar una matriz A ∈ R2×2 que posea las siguientes propiedades:
3 3
 
a) A2 − 3A + 2I = .
3 3

202
4.3. Polinomios matriciales

3 3
 
a) A − 3A + 2I =
2
y det(A) = −1.
3 3

3 3
 
a) A2 − 3A + 2I = y tr(A) = 6.
3 3

3 3
 
Sea B := . Entonces B = q(A) con q(x) = x2 − 3x + 2.
3 3
El polinomio característico de B es χB (x) = det(B − xI) = (3 − x)2 − 9. Entonces, λ1 = 6 y
λ2 = 0 sonlos autovalores de B con los respectivos autoespacios asociados: Sλ=6 = nul(B − 6I) =
1 1

gen{ } y Sλ=0 = nul(B) = gen{ }.
1 −1
1 1
 
Entonces B es diagonalizable y, si P := , entonces P es inversible y
1 −1

6 0
 
B=P P −1 .
0 0

Por la Proposición 4.3.2, existe ν1 ∈ R autovalor de A tal que q(ν1 ) = ν12 − 3ν1 + 2 = 6 y existe
ν2 ∈ R autovalor de A tal que q(ν2 ) = ν12 − 3ν1 + 2 = 0. Resolviendo las ecuaciones cuadráticas nos
queda que ν1 = 4 ó ν1 = −1 y ν2 = 2 ó ν2 = 1.
4 0
a) Si definimos A := P P −1 . Entonces, por la Proposición 4.3.3,
0 1

0 6 0
   
q(4)
A2 − 3A + 2I = q(A) = P P −1 = P P −1 = B.
0 q(1) 0 0

−1 0
 
b) Si definimos A := P P −1 . Entonces, det(A) = −1 y, por la Proposición 4.3.3,
0 1

0 6 0
   
q(−1)
A2 − 3A + 2I = q(A) = P P −1 = P P −1 = B.
0 q(1) 0 0

4 0
 
c) Si definimos A := P P −1 . Entonces, tr(A) = 6 y, por la Proposición 4.3.3,
0 2

0 6 0
   
q(4)
A − 3A + 2I = q(A) = P
2
P =P
−1
P −1 = B.
0 q(2) 0 0

Veamos otra aplicación de los resultados que probamos:


0 12 12
 

Ejercicio 4.F. Sea A =  12 0 21  . Calcular Ak para k ∈ N. Sea q(x) = x5 + 3x2 + 1, calcular


1
2
1
2 0
q(A).

Dem. Calculamos el polinomio característico de A :

−x 21 1
 
) = −x3 + 3 x + 1 .
2
χA (x) = det(A − xI) = det(  12 −x 1
1 1
2 4 4
2 2 −x

Por lo tanto, los autovalores de A son λ1 = 1, λ2,3 = − 21 . Calculemos los autoespacios asociados:

−1 12 1
1
   
2
Sλ1 = nul(A − I) = nul(  12 −1 12 ) = gen{  1 }.
1
2
1
2 −1 1

203
4. Diagonalización

1 1 1
     
−1 −1
1 2 2 2
) = gen{  0  ,  1 }.
Sλ2,3 = nul(A + I) = nul(  1 1 1
2 2 2 2
1
2
1
2
1
2
1 0
Por lo tanto, como las multiplicidades geométricas y algebraicas de los autovalores coinciden
1 −1 −1 1 0 0
   

A es diagonalizable. Sea P :=  1 0 1  y Λ :=  0 − 12 0  . Entonces P −1 =


1 1 0 0 0 − 1
2
1 1 1
 
1 
3
−1 −1 2 y
−1 2 −1
A = P ΛP −1 .
Entonces, por la Proposición 4.3.3,

1 0 0 1 0 0
   k 

Ak = P Λk P −1 = P (  0 − 12 0 )k P −1 = P  0 (− 12 )k 0  P −1
0 0 −2 1
0 0 (− 2 )
1 k

1 −1 −1 1 0 0 1 1 1
     
1 
= 1 0 1   0 (− 12 )k 0   −1 −1 2 
3
1 1 0 0 0 (− 2 )
1 k
−1 2 −1
1 + 2(− 2 )
1 k
1 − (− 2 )
1 k
1 − (− 2 )
1 k
 
1 
= 1 − (− 12 )k 1 + 2(− 21 )k 1 − (− 12 )k 
3
1 − (− 12 )k 1 − (− 12 )k 1 + 2 − 21 )k
1 1 1 2 −1 −1
   
1  1 1
= 1 1 1  + (− )k  −1 2 −1  .
3 3 2
1 1 1 −1 −1 2

Finalmente, por la Proposición 4.3.3, como q(1) = 5 y q(− 21 ) = 55


32 , tenemos que

0 0
 
q(1)
q(A) = A5 + 3A2 + I = P q(Λ)P −1 = P  0 q(− 12 ) 0  P −1
0 0 q(− 2 )
1

5 0 0
 

= P  0 55 32 0  P −1 .
0 0 32 55

4.4. Teorema espectral


Sea A ∈ Kn×n entonces A es diagonalizable si y sólo si A admite descomposición espectral:
Teorema 4.4.1. Sea A ∈ Kn×n una matriz con espectro σ(A) = {λ1 , λ2 , · · · , λr } (los r autovalores
distintos de A). Entonces A es diagonalizable si y sólo si existen matrices no nulas G1 , G2 , · · · , Gr ∈
Kn×n tales que
A = λ1 G1 + λ2 G2 + · · · + λr Gr ,
donde
1. Gi = [Πi ]E
E , es decir Gi es la matriz en base canónica (denotada E) de Πi que es el proyector
de Kn sobre Sλi = nul(A − λi I) en la dirección col(A − λi I).
2. Gi Gj = 0 para i 6= j.
3. G1 + G2 + · · · + Gr = In×n .

204
4.4. Teorema espectral

La descomposición A = λ1 G1 + λ2 G2 + · · · + λr Gr se llama la descomposición espectral de A.


Dem. Como A es diagonalizable, entonces, por el Teorema 4.2.2,
Kn = Sλ1 ⊕ Sλ2 ⊕ · · · ⊕ Sλr = nul(A − λ1 I) ⊕ nul(A − λ2 I) ⊕ · · · ⊕ nul(A − λr I)
con σ(A) = {λ1 , λ2 , · · · , λr } los r distintos autovalores de A. Para cada i ∈ {1, · · · , r}, definimos
la transformación lineal Πi : Kn → Kn por
Πi (v) = vi
si v = v1 + v2 + · · · + vr , con vi ∈ Sλi , i = 1, · · · , r. Entonces, para cada v ∈ Kn , tenemos que
Π2i (v) = Πi (Πi (v)) = Πi (vi ) = vi = Πi (v). Por lo tanto Π2i = Π i y Πi es un proyector de K sobre
n

Im(Πi ) = Sλi = nul(A − λi I) en la dirección Nu(Πi ) = nul(A − λI) = col(A − λi I),


L
λ∈σ(A), λ6=λi
donde usamos el Teorema 4.2.1. Si i 6= j, entonces
Πi ◦ Πj (v) = Πi (Πj (v)) = Πi (vj ) = 0,
entonces Πi ◦ Πj = 0 si i = 6 j. Además, si v ∈ Kn , existen únicos vi ∈ Sλi , i = 1, · · · , r tales que
v = v1 + v2 + · · · + vr , entonces
v = idKn (v) = Π1 (v) + Π2 (v) + · · · Πr (v) = (Π1 + Π2 + · · · + Πr )(v).
Por lo tanto, idKn = Π1 + Π2 + · · · + Πr . Sea Gi := [Πi ]E
E , es decir Gi es la matriz (no nula) en la
base canónica de Kn (denotada E) de Πi . Entonces, es claro que
Πi (v) = Gi v = vi , para todo v ∈ Kn
y además, se cumplen 1., 2. y 3.
Finalmente, si v ∈ Kn entonces v = v1 + v2 + · · · + vr , con vi ∈ Sλi , i = 1, · · · , r. Por lo tanto
v = Π1 (v) + Π2 (v) + · · · + Πr (v) = G1 v + G2 v + · · · + Gr v.
Entonces, usando que Avi = λi vi = λi Gi v para i = 1, · · · , r, se sigue que
Av = A(G1 v + G2 v + · · · + Gr v) = λ1 G1 v + λ2 G2 v + · · · + λr Gr v = (λ1 G1 + λ2 G2 + · · · + λr Gr )v.
Por lo tanto,
A = λ1 G1 + λ2 G2 + · · · + λr Gr .
Recíprocamente, supongamos que existen λ1 , λ2 , · · · , λr ∈ K distintos y matrices no nulas
G1 , · · · , Gr , que verifican 1., 2. y 3 tales que A = λ1 G1 + λ2 G2 + · · · + λr Gr . Veamos que A es
diagonalizable. Sea Vi := col(Gi ), por 1., 2. y 3., tenemos que
Kn = V1 ⊕ V2 ⊕ · · · ⊕ Vr .
Además, si v = v1 + v2 + · · · + vr , con vi ∈ Vi entonces, como Gi es la matriz en base canónica de
Πi que es el proyector de Kn sobre Sλi = nul(A − λi I) en la dirección col(A − λi I), se sigue que
Gi v = vi para todo i = 1, · · · , r.
Como Gi 6= 0, tenemos que Vi =
6 {0} para todo i = 1, · · · , r. Entonces, sea v ∈ Vi , tenemos que
Gi v = v y entonces
Av = (λ1 G1 + λ2 G2 + · · · + λr Gr )v = (λ1 G1 + λ2 G2 + · · · + λr Gr )(Gi v)
= λ1 G1 Gi v + λ2 G2 Gi v + · · · + λr Gr Gi v = λi G2i v = λi Gi v = λi v,
donde usamos que Gi Gj = 0 para i 6= j y que G2i = Gi , para todo i ∈ {1, 2, · · · , r}. Como Vi 6= {0},
lo anterior implica que λi es un autovalor de A y además, vale que Vi ⊆ Sλi . Además, tenemos que
Kn = V1 ⊕ V2 ⊕ · · · ⊕ Vr ⊆ Sλ1 ⊕ Sλ2 ⊕ · · · ⊕ Sλr ⊆ Kn .
Por lo tanto, Sλ1 ⊕ Sλ2 ⊕ · · · ⊕ Sλr = Kn y como λ1 , λ2 , · · · , λr ∈ K son los distintos autovalores
de A por el Teorema 4.2.2, A es diagonalizable. 

205
4. Diagonalización

Corolario 4.4.2. Sea A ∈ Kn×n una matriz diagonalizable con descomposición espectral A =
λ1 G1 + λ2 G2 + · · · + λr Gr . Entonces, para cada n ∈ N,

An = λn1 G1 + λn2 G2 + · · · + λnr Gr .

Más aún, si q(x) = ak xk + · · · + a1 x + a0 ∈ Kk [x] entonces

q(A) = q(λ1 )G1 + q(λ2 )G2 + · · · + q(λr )Gr .

Dem. Vamos a probar la propiedad para todo n ∈ N por inducción: Para n = 1 es claro que la
propiedad vale.
Supongamos que para n = k ∈ N vale que Ak = λk1 G1 + λk2 G2 + · · · + λkr Gr (HI). Entonces,
multiplicamos esa ecuación a ambos lados por A y tenemos que

Ak+1 = Ak A = [λk1 G1 + λk2 G2 + · · · + λkr Gr ](λ1 G1 + λ2 G2 + · · · + λr Gr ) =


= λk+1
1 G21 + λk1 λ2 G1 G2 + · · · + λk1 λr G1 Gr + · · · + λkr λ1 Gr G1 + λkr λ2 Gr G2 + · · · + λk+1
r G2r
= λk+1
1 G1 + λk+1
2 G2 + · · · + λk+1
r Gr ,

donde usamos que las matrices G1 , G2 , · · · , Gr son idempotentes y que cumplen 1., 2. y 3. del
Teorema 4.4.1.
Entonces, a partir de la hipótesis inductiva deducimos la validez de la propiedad para n = k + 1.
Por lo tanto, por inducción, concluimos que para cada n ∈ N,

An = λn1 G1 + λn2 G2 + · · · + λnr Gr .

Más aún, si q(x) = ak xk + · · · + a1 x + a0 , entonces como para k ∈ N vale que Ak =


λk1 G1 + λk2 G2 + · · · + λkr Gr se sigue que

q(A) = ak Ak + ak−1 Ak−1 + · · · + a1 A + a0 I = ak (λk1 G1 + λk2 G2 + · · · + λkr Gr )+


+ · · · + a1 (λ1 G1 + λ2 G2 + · · · + λr Gr ) + a0 (G1 + G2 + · · · + Gr )
= q(λ1 )G1 + q(λ2 )G2 + · · · + q(λr )Gr .

Veamos un ejemplo de aplicación del Teorema espectral:


4 0 1
 

Ejercicio 4.G. Sea A =  2 3 2  , hallar (si existe) la descomposición espectral de A.


1 0 4

Dem. Calculamos el polinomio característico de A :

4−x 0 1
 

χA (x) = det(A − xI) = det  2 3−x 2  = (3 − x)[(4 − x)2 − 1].


1 0 4−x

Por lo tanto, los autovalores de A son λ1,2 = 3, λ3 = 5. Calculemos los autoespacios asociados:

3 0 1 0
     
−1
Sλ1,2 = nul(A − 3I) = nul(  2 0 2 ) = gen{  0  ,  1 }.
1 0 1 1 0

0 1 1
   
−1
Sλ3 = nul(A − 5I) = nul(  2 −2 2 ) = gen{  2 }.
1 0 −1 1

206
4.4. Teorema espectral

Por lo tanto, como las multiplicidades


 geométricas y algebraicas de los autovalores coinciden,
0 1
   
−1
A es diagonalizable. Además, B := {  0  ,  1  ,  2 } es una base R3 compuesta por
1 0 1
autovectores de A.
Para construir la descomposición espectral de A recordemos que G1 es la matriz en base
canónica del proyector Π1 de R3 sobre Sλ1,2 en la dirección S3 . Asimísmo, G2 es la matriz en base
1 0 0
 

canónica del proyector Π2 de R3 sobre Sλ3 en la dirección S1,2 . Es claro que [Π1 ]B
B =
 0 1 0 
0 0 0
0 0 0
 

y [Π2 ]B
B =
 0 0 0  . Por lo tanto, usando que la matriz de cambio de base de B a E es
0 0 1
−1 0 1

[M ]E
B =
 0 1 2  , tenemos que
1 0 1

G1 = [Π1 ]E
E = [M ]B [Π1 ]B [M ]E
E B B
= [M ]E
B [Π1 ]B ([M ]B )
B E −1

−1 0 1 1 0 0 −1 0 1 1 0 −1
       
1 1
=  0 1 2   0 1 0   −2 2 −2  =  −2 2 −2  .
2 2
1 0 1 0 0 0 1 0 1 −1 0 1

De manera similar, tenemos que

G2 = [Π2 ]E
E = [M ]B [Π2 ]B [M ]E
E B B
= [M ]E
B [Π1 ]B ([M ]B )
B E −1

−1 0 1 0 0 0 −1 0 1 1 0 1
       
1 1
=  0 1 2   0 0 0   −2 2 −2  =  2 0 2 .
2 2
1 0 1 0 0 1 1 0 1 1 0 1

0 0 0
 

Notar que G1 G2 =  0 0 0  , G21 = G1 , G22 = G2 , G1 + G2 = I3×3 y


0 0 0

A = 3G1 + 5G2 .

Recordemos que si (V, k · k) un K-espacio normado y (vn )n∈N es una sucesión de elementos de
V. La sucesión (vn )n∈N es convergente si existe v0 ∈ V tal que

lı́m kvn − v0 k = 0.
n→∞

En este caso, escribimos


lı́m vn = v0 .
n→∞

Recordemos que si en Kn×n definimos la función h ·, · i : Kn×n × Kn×n → K, por

h A, B i := tr(B ∗ A)

entonces (Kn×n , h ·, · i) resulta un K-espacio euclídeo. La norma inducida por dicho producto interno
1/2
kAkF := h A, A i = tr(A∗ A)1/2 ,

se denomina norma de Frobenius. Recordemos que como kAkF es una norma, entonces vale:

207
4. Diagonalización

kAkF ≥ 0 para toda A ∈ Kn×n y kAkF = 0 si y sólo si A = 0n×n (la matriz nula de n × n).

kα AkF = |α|kAkF , para toda A ∈ Kn×n y α ∈ K.

kA + BkF ≤ kAkF + kBkF , para toda A, B ∈ Kn×n . De esta propiedad se deduce que
|kAkF − kBkF | ≤ kA − BkF , para toda A, B ∈ Kn×n .

Sea (An )n∈N una sucesión de matrices, diremos que la sucesión (An )n∈N es convergente si existe
A0 ∈ Kn×n tal que
lı́m kAn − A0 kF = 0. (4.10)
n→∞

En ese caso, escribimos lı́m An = A0 .


n→∞

Si lı́m An = A0 entonces lı́m kAn kF = kA0 kF . (4.11)


n→∞ n→∞

De hecho, notar que para todo n ∈ N, vale que

0 ≤ |kAn kF − kA0 kF | ≤ kAn − A0 kF

(propiedad de la norma). Entonces, si lı́m An = A0 vale que lı́m kAn − A0 kF = 0. Por lo tanto,
n→∞ n→∞
lı́m |kAn kF − kA0 kF | = 0 y entonces lı́m kAn kF = kA0 kF .
n→∞ n→∞

0,7 0,2 0,1


 

Ejercicio 4.8. Sea A =  0,3 0,5 0,2  .


0,2 0,4 0,4

a) Hallar el espectro de A y comprobar que es diagonalizable.

b) Usando la descomposición espectral de A comprobar que existe M > 0 tal que



3+ 2 n
kA − G1 kF ≤ M (
n
) ,
10
donde G1 es la matriz de la proyección sobre nul(A − I) en la dirección col(A − I).

Dem. a) : Calculamos el polinomio característico de A :

0,7 − x 0,2 0,1


 

χA (x) = det(A − xI) = det  0,3 0,5 − x 0,2  = −x3 + 1,6x2 − 0,67x + 0,07.
0,2 0,4 0,4 − x
√ √
Por lo tanto, los autovalores de A son λ1 = 1, λ2 = 3+10 2 y λ3 = 3−10 2 . Entonces
√ √
σ(A) = {1, 3+10 2 , 3−10 2 }. Como A tiene 3 autovalores distintos, por el Teorema 4.2.2, A resulta
diagonalizable.
b) : Por el Teorema 4.4.1, existen matrices G1 , G2 , G3 que cumplen 1., 2. y 3. de dicho teorema,
tales que √ √
3+ 2 3− 2
A = λ1 G1 + λ2 G2 + λ3 G3 = G1 + G2 + G3 .
10 10
Entonces, por el Corolario 4.4.2,
√ √
3+ 2 n 3− 2 n
A = G1 + (
n
) G2 + ( ) G3 .
10 10

208
4.4. Teorema espectral

√ √
Por lo tanto, usando que ( 3−10 2 )n < ( 3+10 2 )n y las propiedades de la norma, se sigue que, para
todo n ∈ N,
√ √ √ √
3+ 2 n 3− 2 n 3+ 2 n 3− 2 n
0 ≤ kA − G1 kF = k(
n
) G2 + ( ) G3 kF ≤ ( ) kG2 kF + ( ) kG3 kF
10
√ 10 √ 10 10 √
3+ 2 n 3+ 2 n 3+ 2 n
≤( ) kG2 kF + ( ) kG3 kF = (kG2 kF + kG3 kF )( )
10 √ 10 10
3+ 2 n
= M( ) ,
10

Donde M := (kG2 kF + kG3 kF ) > 0. Entonces, como 3+ 2
10 < 1, se sigue que
√ √
3+ 2 n 3+ 2 n
lı́m M ( ) = M lı́m ( ) = 0.
n→∞ 10 n→∞ 10
Entonces, como para todo n ∈ N, vale que

3+ 2 n
0 ≤ kA − G1 kF ≤ M (
n
)
10

y lı́m M ( 3+10 2 )n = 0, se sigue que lı́m kAn − G1 kF = 0 y por lo tanto lı́m An = G1 . 
n→∞ n→∞ n→∞

7 6 6 3 3
   7 
2
Ejercicio 4.9. Sea A = 1
2
 −2 0 −2  =  −1 0 −1  .
−1 −2 0 − 12 −1 0
kAn kF
a) Probar que lı́m n > 0 y concluir que no existe lı́m An .
n→∞ 2 n→∞

b) Probar que el conjunto {x ∈ R3 : lı́m An x = 0} es un subespacio de R3 y hallar una base del


n→∞
mismo.

c) Probar que el conjunto S := {x ∈ R3 : existe lı́m An x} es un subespacio de R3 y hallar una


n→∞
base del mismo.

d) Comprobar que [0 − 2 2]T ∈ { lı́m An x : x ∈ S} y hallar todas las soluciones de la ecuación


n→∞
lı́m An x = [0 − 2 2]T .
n→∞

Dem. a) : Calculamos el polinomio característico de A :

7−x 6 6
 
1  7 7
χA (x) = det(A − xI) = det( −2 −x −2 ) = −x3 + x2 − x + 1.
2 2 2
−1 −2 −x

Por lo tanto, los autovalores de A son λ1 = 2, λ2 = 1 y λ3 = 12 . Como A tiene 3 autovalores distintos


por el Teorema 4.2.2, A resulta diagonalizable. Por el Teorema 4.4.1, existen matrices G1 , G2 , G3
que cumplen 1., 2. y 3. de dicho teorema, tales que
1
A = λ1 G1 + λ2 G2 + λ3 G3 = 2G1 + 1G2 + G3 .
2
Entonces, por el Corolario 4.4.2,
1
An = 2n G1 + G2 + ( )n G3 .
2

209
4. Diagonalización

Entonces
An 2n G1 + G2 + ( 12 )n G3 1 1
= = G1 + n G2 + 2n G3 .
2n 2n 2 2
Observar que, para todo n ∈ N, tenemos que

An 1 1 1 1
0≤k − G1 kF = k n G2 + 2n G3 kF ≤ n kG2 kF + 2n kG3 kF .
2n 2 2 2 2
Entonces como
1 1
lı́m ( kG2 kF + 2n kG3 kF ) = 0,
n→∞ 2n 2
n
An
se sigue que lı́m k A2n − G1 kF = 0 y por lo tanto lı́m n = G1 . Entonces, por (4.11),
n→∞ n→∞ 2

kAn kF An An
lı́m = lı́m k k F = k lı́m kF = kG1 kF > 0.
n→∞ 2n n→∞ 2n n→∞ 2n

Esto implica que la sucesión kAn kF no está acotada en R y, por lo tanto, no existe lı́m An .
n→∞
b) : Llamemos T := {x ∈ R3 : lı́m An x = 0}. Veamos que T es un subespacio de R3 . Claramente
n→∞
0 ∈ T , pues An 0 = 0 para todo n y por lo tanto lı́m An 0 = 0. Por otra parte, supongamos que
n→∞
x, y ∈ T y sea α ∈ R. Entonces, como x ∈ T tenemos que lı́m An x = 0 y como y ∈ T tenemos que
n→∞
lı́m An y = 0. Por lo tanto, como An (αx + y) = αAn x + An y, por el álgebra de límites, se sigue
n→∞
que lı́m An (αx + y) = α lı́m An x + lı́m An y = α0 + 0 = 0. Entonces αx + y ∈ T y concluimos
n→∞ n→∞ n→∞
que T es un subespacio.
Calculemos los autoespacios asociados a los autovalores de A :

3 3
 3   
2 −2
Sλ1 = nul(A − 2I) = nul(  −1 −2 −1 ) = gen{  1 }.
− 21 −1 −2 0

5
3
3 0
   
2
Sλ2 = nul(A − I) = nul(  −1 −1 ) = gen{  −1 }.
−1
1
−2 −1
−1 1

3 3 3
   
−1
1
Sλ3 = nul(A − I) = nul(  −1 − 12 −1 ) = gen{  0 }.
2
− 21 −1 − 12 1

0
     
−2 −1
Como A es diagonalizable B := {  1  ,  −1  ,  0 } es una base de autovectores R3 .
0 1 1
     
−1 −1 −1
Afirmamos que T = gen{  0 }. Es claro que gen{  0 } ⊆ T , porque si x ∈ gen{  0 }
1 1 1
     
−1 −1 −1
entonces x = α  0  con α ∈ R. Entonces An x = An α  0  = αAn  0  =
1 1 1
 
−1
1
α n  0  y vale que
2
1

0
   
−1
1
lı́m An x = lı́m α n  0  =  0  .
n→∞ n→∞ 2
1 0

210
4.4. Teorema espectral

0
   
−2
Por otra parte, si x ∈ T entonces como x ∈ R3 , tenemos que x = α  1  + β  −1  +
  0 1
−1
γ  0  , con α, β, γ ∈ R. Entonces
1

0 0
           
−2 −1 −2 −1
1
An x = αAn  1  +βAn  −1  +γAn  0  = α2n  1  +β  −1  +γ n  0 
2
0 1 1 0 1 1

0
   
−1
que converge al vector  0  si y sólo si α = β = 0. Por lo tanto T ⊆ gen{  0 }. Entonces
0 1
   
−1 −1
T = gen{  0 } y una base de T puede ser BT = {  0 }.
1 1
c) : Claramente 0 ∈ S, pues An 0 = 0 para todo n y como lı́m An 0 = 0, entonces existe
n→∞
lı́m An 0. Por otra parte, supongamos que x, y ∈ S y sea α ∈ R. Entonces, como x ∈ S existe
n→∞
lı́m An x y como y ∈ S, existe lı́m An y. Por lo tanto, como An (αx + y) = αAn x + An y, por el
n→∞ n→∞
álgebra de límites, se sigue que existe lı́m An (αx + y). Más aún,
n→∞

lı́m A (αx + y) = α lı́m An x + lı́m An y.


n
n→∞ n→∞ n→∞

Entonces αx + y ∈ S y concluimos
 que  S es un subespacio.
0 0
    
−1 −1
Afirmamos que S = gen{  −1  ,  0 }. Es claro que gen{  −1  ,  0 } ⊆ S,
1 1 1 1
0 0
       
−1 −1
porque si x ∈ gen{  −1  ,  0 } entonces x = α  −1  + β  0  con α, β ∈ R.
1 1 1 1
Entonces
0 0
       
−1 −1
An x = An (α  −1  + β  0 ) = αAn  −1  + βAn  0 
1 1 1 1
0 0
     
−1
1
= α  −1  + β n  0  → α  −1 
2 n→∞
1 1 1

y concluimos que A x converge.


n
Por otra
 parte, si x ∈ S entonces como x ∈ R3 , tenemos que
0
  
−2 −1
x = α  1  + β  −1  + γ  0  , con α, β, γ ∈ R. Entonces
0 1 1

0 0
           
−2 −1 −2 −1
1
An x = αAn  1  +βAn  −1  +γAn  0  = α2n  1  +β  −1  +γ n  0 
2
0 1 1 0 1 1

0
   
−1
que converge (el límite existe) si y sólo si α = 0. Por lo tanto S ⊆ gen{  −1  ,  0 }.
 1  1
0 0
   
−1 −1
Entonces S = gen{  −1  ,  0 } y una base de S puede ser BS = {  −1  ,  0 }.
1 1 1 1

211
4. Diagonalización

d) : Vamos a describir el conjunto { lı́m An x : x ∈ S}. Sea x ∈ S (es decir x es tal que existe
n→∞
0
   
−1
lı́m An x) entonces x = α  −1  + β  0  con α, β ∈ R. Entonces
n→∞
1 1
0 0
       
−1 −1
An x = An (α  −1  + β  0 ) = αAn  −1  + βAn  0 
1 1 1 1
0
   
−1
1
= α  −1  + β n  0  .
2
1 1
Por lo tanto
0 0
     
−1
1
lı́m An x = lı́m (α  −1  + β n  0 ) = α  −1  .
n→∞ n→∞ 2
1 1 1
0 0
   

Entonces { lı́m An x : x ∈ S} = gen{  −1 } y es claro que  −2  ∈ { lı́m An x : x ∈ S}.


n→∞ n→∞
1 2
0

Ahora busquemos las soluciones de la ecuación lı́m An x =  −2  . Observar que la ecuación


n→∞
2
anterior es lineal, por lo tanto (si existe solución) todas las soluciones son de la forma xs = xp + xh ,
0

donde xp es una solución particular, es decir lı́m An xp =  −2  y xh son las soluciones del
n→∞
2
0 0
   

sistema homogéneo, es decir lı́m An xh = 0. Por ejemplo, si xp :=  −2  = 2  −1  entonces


n→∞
2 1
0 0 0 0
       

lı́m An xp = 2 lı́m An  −1  = 2 lı́m 1 ·  −1  = 2  −1  =  −2  , entonces xp es


n→∞ n→∞ n→∞
1 1 1 2
una solución particular. Tal como vimos en b) el conjunto T = {x ∈ R3 : lı́m An x = 0} =
    n→∞
−1 −1
gen{  0 }, entonces xh ∈ gen{  0 }.
1 1
0
 

Conclusión, todas las soluciones de la ecuación lı́m An x =  −2  son


n→∞
2
0
   
−1
xs =  −2  + a  0  con a ∈ R.
2 1


4.5. Formas de Jordan


Cuando una matriz A ∈ Kn×n no es diagonalizable, es necesario recurrir a lo que se denominan
formas de Jordan.
A continuación, vamos a demostrar cómo son los bloques de Jordan J para el caso A ∈ K3×3 y
cómo obtener una matriz P ∈ K3×3 inversible tal que
A = P JP −1 .

212
4.5. Formas de Jordan

Pensando de manera similar, podemos deducir cómo sería la forma de Jordan para A ∈ K2×2 .
Teorema 4.5.1. Sea A ∈ R3×3 una matriz no diagonalizable. Entonces existe una matriz inversible
P tal que P −1 AP = J, donde J tiene alguna de las siguientes formas:

λ 1 0 λ 1 0 λ 1 0
     
 0 λ 1 ,  0 λ 0 ,  0 λ 0 ,
0 0 λ 0 0 λ 0 0 µ

con λ, µ ∈ R y λ 6= µ.

Dem. Si A ∈ R3×3 es no diagonalizable, es porque tenemos alguno de los siguientes 3 casos:


1. λ es un autovalor triple de A con multiplicidad geométrica 1.
2. λ es un autovalor triple de A con multiplicidad geométrica 2.
3. λ es un autovalor doble de A con multiplicidad geométrica 1 y µ es un autovalor simple de A.
Caso 1: λ es un autovalor triple con multiplicidad geométrica 1. En este caso, vamos a tomar

λ 1 0
 

J :=  0 λ 1  .
0 0 λ

Respecto de la matriz P = [v1 v2 v3 ], (donde v1 , v2 , v3 denotan sus columnas) P debe ser inversible
y como queremos que A = P JP −1 , multiplicando a izquierda por P a ambos lados de la ecuación
anterior, tenemos que se debe cumplir que

AP = P J.

Por un lado, P es inversible si y sólo si {v1 , v2 , v3 } es linealmente independiente. Por otra parte,
como
AP = A[v1 v2 v3 ] = [Av1 Av2 Av3 ] y
λ 1 0
 

P J = [v1 v2 v3 ]  0 λ 1  = [λv1 v1 + λv2 v2 + λv3 ].


0 0 λ
Tenemos que AP = P J si y sólo si Av1 = λv1 , Av2 = v1 + λv2 y Av3 = v2 + λv3 . Es decir,

(A − λI)v1 = 0, (A − λI)v2 = v1 y (A − λI)v3 = v2 .

En resumen, la matriz P se obtiene buscando 3 vectores v1 , v2 , v3 ∈ R3 linealmente independientes


tales que v1 ∈ Sλ ∩ col(A − λI), (A − λI)v2 = v1 y v2 ∈ col(A − λI) y (A − λI)v3 = v2 .
Caso 2: λ es un autovalor triple con multiplicidad geométrica 2. En este caso, vamos a tomar

λ 1 0
 

J :=  0 λ 0  .
0 0 λ

Respecto de la matriz P = [v1 v2 v3 ], (donde v1 , v2 , v3 denotan sus columnas) P debe ser inversible
y se debe cumplir que AP = P J. Por un lado, P es inversible si y sólo si {v1 , v2 , v3 } es linealmente
independiente. Por otra parte, como

AP = A[v1 v2 v3 ] = [Av1 Av2 Av3 ] y

1 0
 
λ
P J = [v1 v2 v3 ]  0 λ 0  = [λv1 v1 + λv2 λv3 ].
0 0 λ

213
4. Diagonalización

Tenemos que AP = P J si y sólo si Av1 = λv1 , Av2 = v1 + λv2 y Av3 = λv3 . Es decir,
(A − λI)v1 = 0, (A − λI)v2 = v1 y (A − λI)v3 = 0.
En resumen, la matriz P se obtiene buscando 3 vectores v1 , v2 , v3 ∈ R3 linealmente independientes
tales que v1 ∈ Sλ ∩ col(A − λI), v3 es un autovector asociado a λ y (A − λI)v2 = v1 .
Caso 3: λ es un autovalor doble con multiplicidad geométrica 1 y µ es un autovalor simple.
En este caso, vamos a tomar
λ 1 0
 

J :=  0 λ 0  .
0 0 µ
Respecto de la matriz P = [v1 v2 v3 ], (donde v1 , v2 , v3 denotan sus columnas) P debe ser inversible
y se debe cumplir que AP = P J. Por un lado, P es inversible si y sólo si {v1 , v2 , v3 } es linealmente
independiente. Por otra parte, como
AP = A[v1 v2 v3 ] = [Av1 Av2 Av3 ] y
1 0
 
λ
P J = [v1 v2 v3 ]  0 λ 0  = [λv1 v1 + λv2 µv3 ].
0 0 µ
Tenemos que AP = P J si y sólo si Av1 = λv1 , Av2 = v1 + λv2 y Av3 = µv3 . Es decir,
(A − λI)v1 = 0, (A − λI)v2 = v1 y (A − µI)v3 = 0.
En resumen, la matriz P se obtiene buscando 3 vectores v1 , v2 , v3 ∈ R3 linealmente independientes
tales que v1 ∈ Sλ ∩ col(A − λI), v3 es un autovector asociado a µ y (A − λI)v2 = v1 . 

A partir del Teorema 4.5.1 podemos probar que la traza de una matriz cuadrada es la suma de
sus autovalores:

Sea A ∈ Kn×n y sean λ1 , · · · , λn ∈ K los autovalores de A. Entonces

tr(A) = λ1 + λ2 + · · · + λn ,

es decir tr(A) es la suma de los autovalores de A.

Vamos a probarlo por casos:


Si A es diagonalizable, entonces A = P ΛP −1 para ciertos P ∈ Kn×n inversible y
Λ = diag(λ1 , · · · , λn ) ∈ Kn×n (matriz diagonal que tiene los autovalores de A es su diagonal).
Entonces
tr(A) = tr(P ΛP −1 ) = tr(P −1 P Λ) = tr(Λ) = λ1 + λ2 + · · · + λn
y probamos lo que queríamos.
Si A ∈ K3×3 y A no es diagonalizable, por el Teorema 4.5.1, existe una matriz inversible P
tal que P −1 AP = J, donde J tiene alguna de las siguientes formas:
λ 1 0 λ 1 0 λ 1 0
     

J1 =  0 λ 1  , J 2 =  0 λ 0  , J 3 =  0 λ 0 ,
0 0 λ 0 0 λ 0 0 µ
con λ, µ ∈ R y λ 6= µ. Entonces
tr(A) = tr(P Ji P −1 ) = tr(P −1 P Ji ) = tr(Ji ) = λ + λ + λ,
para el caso i = 1, 2 ó
tr(A) = tr(P J3 P −1 ) = tr(P −1 P J3 ) = tr(J3 ) = λ + λ + µ,
y concluimos que tr(A) es la suma de los autovalores de A.

214
4.5. Formas de Jordan

Si A ∈ Kn×n y A no es diagonalizable, de manera similar a como hicimos en el Teorema


4.5.1, se puede demostrar que existe una matriz inversible P tal que P −1 AP = J, y J es
una matriz que no es diagonal pero tiene los autovalores de A en su diagonal. En este caso,
tal como hicimos en el caso 3 × 3, también se puede demostrar que tr(A) es la suma de los
autovalores de A.

El siguiente ejercicio similar al Ejercicio 4.10 es un ejemplo de cálculo de la forma de Jordan


de una matriz de 3 × 3.
Ejercicio 4.H. Encontrar los autovalores de la siguiente matriz, sus multiplicidades algebraicas
y geométricas. En caso de que A no sea diagonalizable, hallar P inversible tal que P −1 AP = J,
donde J tiene alguna de las formas del Teorema 4.5.1.
3 1 −1
 

A =  0 2 0 .
1 1 1

Dem. Calculamos el polinomio característico de A :


3−x 1
 
−1
χA (x) = det(A − xI) = det(  0 2−x 0 )
1 1 1−x
= (2 − x)[(3 − x)(1 − x) + 1]
= (2 − x)(x2 − 4x + 4) = (2 − x)3 .
Los autovalores de A son las raíces de su polinomio característico. En este caso, la única raíz del
polinomio característico es λ1,2,3 = 2. La multiplicidad algebraica del autovalor λ = 2 es entonces
3. Veamos cuál es su multiplicidad geométrica calculando el autoespacio asociado a λ = 2:
1 1 −1 1 1 −1 1 1
       

nul(A − 2I) = nul(  0 0 0 ) = nul(  0 0 0 ) = gen{  0  ,  −1 }.


1 1 −1 0 0 0 1 0
Por lo tanto la multiplicidad geométrica de λ = 2 es 2 y A no es diagonalizable. Estamos en el
Caso 2 del Teorema 4.5.1. En este caso,
2 1 0
 

J=  0 2 0 .
0 0 2

Si P := [v1 v2 v3 ] es inversible, entonces v1 , v2 , v3 ∈ R3 (las columnas de P ) son vectores linealmente


independientes tales que v1 ∈ Sλ=2  ∩ col(A − 2I), v3 es un autovector  asociado a λ = 2 y
1 1 −1 1
(A − 2I)v2 = v1 . Como A − 2I =  0 0 0  , tomamos v1 :=  0  ∈ Sλ=2 ∩ col(A − 2I)
1 1 −1 1
1
 

y v3 :=  −1  ∈ Sλ=2 (que son vectores claramente linealmente independientes). Entonces,


0
buscamos v2 ∈ R3 linealmente independiente con v1 y v3 tal que
1 1 −1 1
   
 0 0 0  v2 = (A − 2I)v2 = v1 =  0  .
1 1 −1 1
 
x
Si v2 =  y  ∈ R3 , nos queda el siguiente sistema no homogéneo a resolver:
z

215
4. Diagonalización

1 1 1
     
−1 x
 0 0 0   y  =  0 .
1 1 −1 z 1
La solución de dicho sistema es:
1 1 1
    

v2 =  0  + α  0  + β  −1  ,
0 1 0

1
 

con α, β ∈ R. Como sólo necesitamos un vector v2 ∈ R3 , tomamos α = β = 0 y v2 =  0  que es


0
1 1 1
 

li con v1 y v3 (verificarlo). Entonces P =  0 0 −1  y tenemos que A = P JP −1 . 


1 0 0

4.6. Matrices semejantes


Definición. Sean A, B ∈ Kn×n . Diremos que A y B son semejantes, y lo notamos A ∼ B, si existe
una matriz P ∈ Kn×n inversible tal que

A = P BP −1 .

Sean A, B ∈ Kn×n . Como A = IAI e I es inversible, se sigue que

A ∼ A.

Si A ∼ B, entonces A = P BP −1 , para cierta P inversible. Entonces

P −1 AP = P −1 P BP −1 P = B,

y entonces, como P −1 también es una matriz inversible, se sigue que B ∼ A.


Finalmente, si A ∼ B y B ∼ C, tenemos que A = P BP −1 , para cierta P inversible y B = QCQ−1
para cierta Q inversible. Entoces A = P BP −1 = P QCQ−1 P −1 . Sea W := P Q, entonces W es
inversible pues det(W ) = det(P ) det(Q) 6= 0 y además, W −1 = Q−1 P −1 . Entonces, tenemos que

A = W CW −1 ,

por lo tanto A ∼ C.
Como se cumplen las tres propiedades que vimos, se dice que la relación ∼ es reflexiva, simétrica
y transitiva.
La siguiente observación es inmediata:

Sea A ∈ Kn×n , entonces A es diagonalizable si y sólo si existe Λ ∈ Kn×n diagonal, tal que

A ∼ Λ.

Proposición 4.6.1. Sean A, B ∈ Kn×n tales que A ∼ B. Entonces:

1. det(A) = det(B),

2. tr(A) = tr(B),

3. χA = χB ,

216
4.6. Matrices semejantes

4. A y B tienen los mismos autovalores y además

mA (λ) = mB (λ) y µA (λ) = µB (λ),

para todo λ autovalor de A (y de B).

Dem. Si A ∼ B, entonces A = P BP −1 para cierta P ∈ Kn×n inversible. Entonces:


1. : det(A) = det(P BP −1 ) = det(P ) det(B) det(P −1 ) = det(P ) det(B) det(P )−1 = det(B).
2. : tr(A) = tr(P BP −1 ) = tr(P −1 P B) = tr(IB) = tr(B).
3. : χA (x) = det(A−xI) = det(P BP −1 −xI) = det(P (B −xI)P −1 ) = det(P ) det(P −1 ) det(B −
xI) = det(B − xI) = χB (x), para todo x ∈ K.
4. : Por el item 3., como los polinomios característicos de A y B coinciden, entonces tienen
las mismas raíces con las mismas multiplicidades. Entonces, λ es un autovalor de A con cierta
multiplicidad algebraica si y sólo si λ es un autovalor de B con la misma multiplicidad algebraica.
Por otra parte, observar que como P es una matriz inversible, vale que (hacer la cuenta)

col(P BP −1 − λI) = col(P (B − λI)P −1 ) = col(P (B − λI)) y

nul(P (B − λI)) = nul(B − λI).


Supongamos que λ es un autovalor de A. Entonces, por un lado λ es también un autovalor de B y
además, usando el Teorema de la dimensión, tenemos que

µA (λ) = dim(nul(A − λI)) = dim(nul(P BP −1 − λI)) = n − dim(col(P BP −1 − λI))


= n − dim(col(P (B − λI)) = dim(nul(P (B − λI)) = dim(nul(B − λI)) = µB (λ).


El siguiente ejemplo muestra que la vuelta de la Proposición 4.6.1, en general es falsa.
Ejemplo 4.a. Sean
0 1 0 0 0 1 0 0
   
 0 0 0 0   0 0 1 0 
A=
 0
 yB= .
0 0 1   0 0 0 0 
0 0 0 0 0 0 0 0
Observar que, det(A) = 0 = det(B), tr(A) = 0 = tr(B), χA (x) = x4 = χB (x). Entonces, λ = 0
es el único autovalor de A y B y mA (λ = 0) = 4 = mB (λ = 0). Por otra parte,

0 1 0 0
 
 0 0 0 0 
µA (λ = 0) = dim(nul(A)) = dim(nul(
 0 0 0 1 )) = 2 y

0 0 0 0

0 1 0 0
 
 0 0 1 0 
µB (λ = 0) = dim(nul(B)) = dim(nul(
 0 0 0 0 )) = 2.

0 0 0 0
Por lo tanto, tenemos que los ítems
 1., 2., 3. y 4. 
de la Proposición 4.6.1 se cumplen.
0 0 1 0
 0 0 0 0 
Observar que A2 = 0. Pero B 2 =   0 0 0 0 .

0 0 0 0
Entonces, B 6∼ A, porque si existiera P inversible tal que B = P AP −1 , tendríamos que

0 6= B 2 = (P AP −1 )P AP −1 = P A2 P −1 = P 0P −1 = 0,

lo cual es absurdo. Por lo tanto la vuelta de la Proposición anterior, en general es falsa.

217
4. Diagonalización

Ejercicio 4.I. Determinar cuáles de las siguientes parejas de matrices son semejantes:

1 0 0 1
   
a) A = , B= .
0 1 1 0

0 1 0 21
   
b) A = , B= .
1 0 1
2 0

1 1 0 1 0 0
   

c) A =  0 2 2  , B =  0 2 0 
0 0 3 0 0 3

Dem. a) : Observar que tr(A) = 2 6= 0 = tr(B). Entonces, por la Proposición 4.6.1, A no puede ser
semejante a B.
b) : Observar que det(A) = −1 6= − 14 = det(B). Entonces, por la Proposición 4.6.1, A no puede
ser semejante a B.
c) : Observar que χA (x) = det(A − xI) = (1 − x)(2 − x)(3 − x). Entonces, los autovalores de
A son λ1 = 1, λ2 = 2, λ3 = 3. Por lo tanto, como los tres autovalores de A son distintos, A es
1 0 0
diagonalizable. Si Λ :=  0 2 0  = B, tenemos que A ∼ Λ = B. 
0 0 3

El siguiente resultado que enunciaremos para R3×3 y R2×2 vale en general para Rn×n .
Teorema 4.6.2. Sean A, B ∈ Rn×n con n ≤ 3. Entonces A ∼ B si y sólo si tienen los mismos
bloques de Jordan.

Dem. Como A y B tienen los mismos bloques de Jordan, por el Teorema 4.5.1, existen P, Q ∈ Rn×n
inversibles tales que A = P JP −1 y B = QJQ−1 . Entonces A ∼ J y B ∼ J. Entonces, como la
relación ∼ es transitiva y simétrica, vale que A ∼ B. 
Veamos una aplicación del Teorema 4.6.2:
Ejercicio 4.11. Determinar cuáles de las siguientes parejas de matrices A1 y A2 son semejantes, y
en caso de serlo hallar S inversible tal que A1 = SA2 S −1 .

6 8 6 2 18
   3 3
  
2 2 −13 −57
a) A1 = 14  −5 22 9  =  − 54 11 2
9 
4 , A2 = 1 
4
−2 13 9  =
4 −12 0 1 −3 0 2 −3 −3
 9 13 57

2 − 4 − 4
 −1 13 9 .
2 4 4
1 3 3
2 − 4 − 4

5 6 3 6 −5 4
   

b) A1 = 14  −6 10 6  , A2 = 14  8 22 −12  .
5 −10 3 6 9 0

Dem. a) : Calculemos el polinomio característico de A1 :

2
 3 3

2 −x 2
χA1 (x) = det(A1 − xI) = det  − 54 11
2 −x
9
4

1 −3 −x
= −x + 7x − 16x + 12.
3 2

Los autovalores de A1 son las raíces de su polinomio característico. En este caso, las raíces son
λ1 = 3 y λ2,3 = 2. La multiplicidad algebraica del autovalor λ = 2 es entonces 2. Veamos cuál es su

218
4.6. Matrices semejantes

multiplicidad geométrica calculando el autoespacio asociado a λ = 2:


2
 1 3
  
−2 2 −1
nul(A1 − 2I) = nul(  − 54 7
2
9 
4 ) = gen{  −1 }.
1 −3 −2 1
Por lo tanto la multiplicidad geométrica de λ = 2 es 1 y A1 no es
 diagonalizable. Estamos
2 1 0
en el Caso 3 del Teorema 4.5.1. En este caso, J =  0 2 0  y, por el Teorema 4.5.1,
0 0 3
2 1 0
 

A1 ∼  0 2 0  .
0 0 3
Ahora, calculemos el polinomio característico de A2 :
 9
− 13 − 57

2 −x 4 4
χA2 (x) = det(A2 − xI) = det  − 12 13
4 −x
9
4
.
1 3 3
2 − 4 − 4 − x
= −x3 + 7x2 − 16x + 12.
Los autovalores de A2 son las raíces de su polinomio característico. En este caso, las raíces son
λ1 = 3 y λ2,3 = 2. La multiplicidad algebraica del autovalor λ = 2 es entonces 2. Veamos cuál es su
multiplicidad geométrica calculando el autoespacio asociado a λ = 2:
7
 5
− 13 − 57
  
2 4 4
nul(A2 − 2I) = nul(  − 12 5 9 ) = gen{  1 }.
4 4
1
2 − 43 − 114
1
Por lo tanto la multiplicidad geométrica de λ = 2 es 1 y A2 no es  diagonalizable. Estamos
2 1 0
en el Caso 3 del Teorema 4.5.1. En este caso, J =  0 2 0  y, por el Teorema 4.5.1,
0 0 3
2 1 0 2 1 0
   

A2 ∼  0 2 0  . Entonces, A1 ∼  0 2 0  ∼ A2 . Por lo tanto A1 y A2 son semejantes.


0 0 3 0 0 3
Para hallar S inversible tal que A1 = SA2 S −1 . Busquemos P y Q inversibles tales que
A1 = P JP −1 y A2 = QJQ−1 .
Si P := [v1 v2 v3 ] es inversible y cumple que A1 = P JP −1 , entonces v1 , v2 , v3 ∈ R3 (las
columnas de P ) son vectores linealmente independientes tales que v1 ∈ Sλ=2 ∩ col(A1 − 2I), v3 es
un autovector asociado a λ = 3 y (A1 − 2I)v  2 = v1 .
− 12 2 3
 
2 −1
Como A1 − 2I =  − 54 7
2
9 
4 , tomamos v1 :=  −1  ∈ Sλ=2 ∩ col(A1 − 2I) y
1 −3 −2 1
calculamos el autoespacio asociado a λ = 3 :
2
 3 3
  
−2 2 −3
nul(A1 − 3I) = nul(  − 54 5
2
9 
4 ) = gen{  −6 }.
1 −3 −3 5
 
−3
Entonces, tomamos v3 :=  −6  ∈ Sλ=3 . Nos resta encontrar un vector v2 ∈ R3 linealmente
5
independiente con v1 y v3 tal que
2
 1 3
  
−2 2 −1
 −5
4
7
2
9 
4 v2 = (A1 − 2I)v2 = v1 =  −1  .
1 −3 −2 1

219
4. Diagonalización

 
x
Si v2 =  y  ∈ R3 , nos queda el siguiente sistema no homogéneo a resolver:
z
2
 1 3
    
−2 2 x −1
 −5
4
7
2
9  
4 y  =  −1  .
1 −3 −2 z 1
La solución de dicho sistema es:
   
−2 −1
v2 =  −1  + α  −1 
0 1
 
−2
con α ∈ R. Como sólo necesitamos un vector v2 ∈ R3 , tomamos α = 0 y v2 =  −1  que es li
  0
−1 −2 −3
con v1 y v3 (verificarlo). Entonces P =  −1 −1 −6  y tenemos que A1 = P JP −1 .
1 0 5
Por otra parte, si Q := [w1 w2 w3 ] es inversible y cumple que A2 = QJQ−1 , entonces
w1 , w2 , w3 ∈ R3 (las columnas de Q) son vectores linealmente independientes tales que tales
que w1 ∈ Sλ=2 ∩ col(A2− 2I), w3 es un autovector asociado a λ = 3 y(A2 − 2I)w2 = w1 .
5 13 57
7

2 − 4 − 4
Como A2 − 2I =  − 21 5 9  , tomamos w1 :=  1  ∈ Sλ=2 ∩ col(A2 − 2I) y
4 4
1
2 − 34 − 11 4
1
calculamos el autoespacio asociado a λ = 3 :
3
 3
− 13 − 57
  
2 4 4
nul(A2 − 3I) = nul(  − 12 1
4
9
4
) = gen{  −3 }.
1
2 − 3
4 − 15
4
1
3
 

Entonces, tomamos w3 :=  −3  ∈ Sλ=3 . Nos resta encontrar un vector w2 ∈ R3 linealmente


1
independiente con w1 y w3 tal que
7
 5
− 13 − 57
  
2 4 4
 −1 5 9  w2 = (A2 − 2I)w2 = w1 =  1  .
2 4 4
1
2 − 3
4 − 11
4
1
 
x
Si w2 =  y  ∈ R3 , nos queda el siguiente sistema no homogéneo a resolver:
z
7
 5
− 13 − 57
    
2 4 4 x
 −1 5 9   y  =  1 .
2 4 4
1
2
3
−4 − 4 11
z 1
La solución de dicho sistema es:
8 7
  

w2 =  4  + α  1 
0 1
8


con α ∈ R. Como sólo necesitamos un vector w2 ∈ R3 , tomamos α = 0 y w2 =  4  que es li


0
7 8 3
 

con w1 y w3 (verificarlo). Entonces Q =  1 4 −3  y tenemos que A2 = QJQ−1 .


1 0 1

220
4.7. Sistemas de ecuaciones diferenciales

Finalmente, notar que como A1 = P JP −1 y J = Q−1 A2 Q tenemos que

A1 = P JP −1 = P Q−1 A2 QP −1 = P Q−1 A2 (P Q−1 )−1 .

Por lo tanto, tomando


2 9 3 9
     
−1 −2 −3 −1 −1
1 2 2
S := P Q−1 =  −1 −1 −6   1 −1 −6  =  − 32 11 27 ,
4 4 4
1 0 5 1 −2 −5 1 −2 −4

se sigue que A1 = SA2 S −1 .


b) : Notar que tr(A1 ) = 18
4 y tr(A2 ) = 7. Entonces como tr(A1 ) 6= tr(A2 ), por la Proposición
4.6.1, A1 no puede ser semejante a A2 . 

4.7. Sistemas de ecuaciones diferenciales


En este sección vamos a resolver sistemas de ecuaciones diferenciales a coeficientes constantes.
Empecemos con un ejemplo:
Ejercicio 4.J. Resolver el siguiente sistema de ecuaciones diferenciales a coeficientes constantes:

 y1 = −4y1 − 6y2 + 3y3


 0

y 0 = 2y1 + 4y2 − 2y3 .


 02
y3 = −2y1 − 2y2 + y3

Dem. Pararesolver el sistema de ecuaciones diferenciales, primero lo escribimos


 0 en forma matricial.
−4 −6 3 y1 (t) y1 (t)
 

Sea A :=  2 4 −2  e Y (t) :=  y2 (t)  . Entonces Y 0 (t) =  y20 (t)  y resolver el


−2 −2 1 y3 (t) y30 (t)
sistema de arriba, es equivalente a resolver

Y 0 = AY.

A continuación, buscamos diagonalizar la matriz A (si es posible). En caso de que A no sea


diagonalizable buscamos la forma de Jordan de A tal como hicimos en el Teorema 4.5.1.
Calculamos el polinomio característico de A:
3
 
−4 − x −6
χA (x) = det(A − xI) = det(  2 4−x −2 ) = −x3 + x2 + 2x.
−2 −2 1−x

Las raíces de χA son λ1 = 2, λ2 = −1, λ3 = 0 todas raíces distintas, por lo tanto A es


diagonalizable.
Calculamos los autoespacios asociados a cada autovalor.
−6 −6 3 −6 −6 3 1
     

Sλ=2 = nul(A − 2I) = nul(  2 2 −2 ) = nul(  0 0 −3 ) = gen{  −1 }.


−2 −2 −1 0 0 −3 0

3 3 1
     
−3 −6 −3 −6
Sλ=−1 = nul(A + I) = nul(  2 5 −2 ) = nul(  0 3 0 ) = gen{  0 }.
−2 −2 2 0 6 0 1

3 3 0
     
−4 −6 −4 −6
Sλ=0 = nul(A) = nul(  2 4 −2 ) = nul(  0 2 −1 ) = gen{  1 }.
−2 −2 1 0 2 −1 2

221
4. Diagonalización

Construimos la matriz P colocando en sus columnas tres autovectores linealmente independientes,


por ejemplo:
1 1 0
 

P :=  −1 0 1  .
0 1 2

2 0 0
 

Si Λ :=  0 −1 0  , entonces
0 0 0
A = P ΛP −1 .
Para resolver el sistema de ecuaciones diferenciales, proponemos el siguiente cambio de variables:

Y (t) := P Z(t).

Entonces, intuitivamente podemos ver que Y 0 (t) = P Z 0 (t) y el sistema a resolver nos queda:

Y 0 (t) = P Z 0 (t) = AY (t) = AP Z(t).

Multiplicando a izquierda por P −1 la ecuación anterior, nos queda:

Z 0 (t) = P −1 P Z 0 (t) = P −1 AP Z(t) = ΛZ(t).

z1 (t) 2 0 0 z1 (t)
 0     

Entonces,  z20 (t)  =  0 −1 0   z2 (t)  y nos queda el siguiente sistema desacoplado a


z30 (t) 0 0 0 z3 (t)
resolver:
 z1 = 2z1
 0

z 0 = −z2 .
 20
z3 = 0
Recordando el Ejercicio 2.27, tenemos que la solución de cada ecuación diferencial es:

z1 (t) = c1 e2t , z2 (t) = c2 e−t , z3 (t) = c3 ,

con c1 , c2 , c3 ∈ R. Volviendo a la variable original, nos queda que:

1 1 0 c1 e2t 1 1 0
         

Y (t) = P Z(t) =  −1 0 1   c2 e−t  = c1 e2t  −1  + c2 e−t  0  + c3  1  =


0 1 2 c3 0 1 2

c1 e2t + c2 e−t
 

=  −c1 e2t + c3  ,
c2 e−t + 2c3
c1 , c2 , c3 ∈ R. 

En general, supongamos que A ∈ Cn×n y queremos resolver el sistema de ecuaciones diferenciales

Y 0 = AY. (4.12)

Si A es diagonalizable, entonces A = P ΛP −1 con Λ = diag(λ1 , λ2 , · · · , λn ) una matriz diagonal que


en su diagonal tiene a los autovalores de A (no necesariamente distintos) y P = [v1 v2 · · · vn ] ∈ Cn×n
una matriz inversible cuyas columnas v1 , v2 , · · · , vn forman una base de autovectores de A y cada
vi es un autovector asociado al autovalor λi .

222
4.7. Sistemas de ecuaciones diferenciales

A partir del cambio de variable Y (t) = P Z(t), operando de la misma manera que hicimos
en el ejercicio anterior, podemos ver que una base de soluciones (o un conjunto fundamental
de soluciones) de (4.12) es
{eλ1 t v1 , eλ2 t v2 , · · · , eλn t vn }
y todas las soluciones del sistema de ecuaciones diferenciales (4.12) son:

Y (t) = c1 eλ1 t v1 + c2 eλ2 t v2 + · · · + cn eλn t vn ,

con c1 , c2 , · · · , cn ∈ C.

Ejercicio 4.13 b). Hallar la solución del problema a valores inciales y analizar el comportamiento
asintótico de:
Y 0 = AY, Y (0) = Y0 , (4.13)
 
−1 −2
con A = .
0 −3

Dem. Tal como hicimos en el ejercicio anterior, veamos si A es diagonalizable. Calculamos el


polinomio característico de A:
 
−1 − x −2
χA (x) = det(A − xI) = det( ) = (−1 − x)(−3 − x).
0 −3 − x
Observar como χA nos quedó factorizado. Por lo tanto, las raíces del χA son λ1 = −1 y λ2 = −3
todas raíces distintas, por lo tanto A es diagonalizable.
Fácilmente vemos que los autoespacios asociados son:
0 −2 1
   
Sλ=−1 = nul(A + I) = nul( ) = gen{ }.
0 −2 0

2 −2 1
   
Sλ=−3 = nul(A + 3I) = nul( ) = gen{ }.
0 0 1
Por lo tanto, como vimos arriba, todas las soluciones del sistema de ecuaciones diferenciales son:
1 1
   
Y (t) = c1 e −t
+ c2 e −3t
,
0 1
con c1 , c2 ∈ R.
Usando la condición inicial podemos hallar los valores de c1 y c2 . De hecho,
1 1 c1 + c2
       
Y01
Y (0) = c1 e0 + c2 e 0 = = ,
0 1 c2 Y02
donde Y01 e Y02 son la primera y segunda coordenada del vector Y0 respectivamente. Despejando,
tenemos que c2 = Y02 y c1 = Y01 − c2 = Y01 − Y02 . Por lo tanto, la solución del sistema de ecuaciones
diferenciales a valores iniciales es:
1 1 (Y01 − Y02 )e−t + Y02 e−3t
     
Y (t) = (Y01 − Y02 )e−t + Y02 e−3t = .
0 1 Y02 e−3t
Por lo tanto,
(Y01 − Y02 )e−t + Y02 e−3t
 
lı́m Y (t) = lı́m
t→∞ t→∞ Y02 e−3t
lı́mt→∞ [(Y01 − Y02 )e−t + Y02 e−3t ] 0
   
:= = .
lı́mt→∞ Y02 e−3t 0

223
4. Diagonalización

Vimos que para matrices A ∈ C2×2 (con coeficientes reales), el polinomio característico de A es

χA (x) = x2 − tr(A)x + det(A),

y en consecuencia las raíces de χA son

1
λ1,2 = [tr(A) ± tr(A)2 − 4 det(A)].
p
2
Si A es diagonalizable, vimos que las soluciones del sistema de ecuaciones (4.13) son

Y (t) = c1 eλ1 t v1 + c2 eλ2 t v2 ,

donde c1 , c2 ∈ C, λ1 , λ2 ∈ C son los autovalores de A y v1 , v2 ∈ C2 los autovectores asociados a


dichos autovalores.

0
 
Por lo tanto, lı́mt→∞ Y (t) = (para cualquier valor inicial) si y sólo si λ1 < 0 y λ2 < 0.
0
Si 4 det(A) ≤ tr(A) entonces, por la fórmula de los autovalores de A que escribimos arriba,
2

λ1 ∈ R y λ2 ∈ R. En ese caso, si tr(A) < 0 y det(A) > 0, tendremos que

tr(A) = λ1 + λ2 < 0 y det(A) = λ1 λ2 > 0.

Por lo tanto, no queda otra que λ1 < 0 y λ2 < 0 (¿por qué?) y en ese caso, siempre tendremos
0
que lı́mt→∞ Y (t) = .
0

El siguiente ejercicio es (un poco) similar al Ejercicio 4.18.


1 2
 
Ejercicio 4.K. Sea A = . Hallar todos los Y0 ∈ R2 tales que la solución del problema a
2 1
valores inciales
Y 0 = AY, Y (0) = Y0 ,
tiene norma acotada. Es decir, existe C > 0 tal que

kY (t)k ≤ C

para todo t ≥ 0. La norma que usamos es la del producto interno canónico de R2 .

Dem. Operando de manera similar al ejercicio anterior, tenemos


  que λ = 3 y λ2 = −1 son los
1 −1
autovalores de A con autoespacios asociados Sλ=3 = gen{ } y Sλ=−1 = gen{ }. Por
1 1
lo tanto A es diagonalizable y todas las soluciones del sistema de ecuaciones diferenciales son:

1
   
−1
Y (t) = c1 e3t
+ c2 e −t
,
1 1

con c1 , c2 ∈ R.
Usando la condición inicial podemos hallar los valores de c1 y c2 . De hecho,

1
       
−1 c1 − c2 Y01
Y (0) = c1 e0 + c2 e0 = = ,
1 1 c1 + c2 Y02

224
4.8. Sistemas de ecuaciones diferenciales: caso no diagonalizable

donde Y01 e Y02 son la primera y segunda coordenada del vector Y0 respectivamente. Despejando,
tenemos que c1 = Y01 +Y 2
02
y c2 = Y02 −Y
2
01
. Por lo tanto, la solución del sistema de ecuaciones
diferenciales a valores iniciales es:
Y01 + Y02 3t 1
   
Y02 − Y01 −t −1
Y (t) = ( )e +( )e .
2 1 2 1

Considerando el producto interno canónico de R2 y usando Pitágoras (o haciendo la cuenta) tenemos


que
Y01 + Y02 2 6t Y02 − Y01 2 −2t
kY (t)k2 = h Y (t), Y (t) i = ( ) e 2+( ) e 2.
2 2
Buscamos los valores de Y0 para que kY (t)k2 sea acotada. Es decir, buscamos para qué valores de
Y0 existe C > 0 tal que
kY (t)k ≤ C
para todo t ≥ 0.
Observar que si Y01 + Y02 6= 0 entonces kY (t)k2 nunca es acotada pues como lı́mt→∞ e6t = ∞ y
lı́mt→∞ ( Y02 −Y
2 ) e 2 = 0, tendríamos que lı́mt→∞ kY (t)k2 = ∞, eso significa que dado cualquier
01 2 −2t

M > 0 siempre existe t0 > 0 tal que si t ≥ t0 entonces kY (t)k2 > M, entonces kY (t)k2 no es
acotada y por lo tanto kY (t)k tampoco.
Afirmamos que kY (t)k es acotada si y sólo si Y01 = −Y02 . De hecho, en ese caso,
Y02 − Y01 2 −2t
kY (t)k2 = ( ) e 2 = 2Y02 2 −2t
e ≤ 2Y02 2
,
2

para todo t ≥ 0. Por lo tanto kY (t)k ≤ 2 |Y02 |, para todo
 t ≥ 0 e Y (t) resulta acotada. Conclusión,
−1
la norma de Y (t) resulta acotada si y sólo si Y0 ∈ gen{ }. 
1

4.8. Sistemas de ecuaciones diferenciales: caso no diagonalizable


A continuación veremos un ejemplo, similar al Ejercicio 4.16, de cómo resolver un sistema de
ecuaciones diferenciales a coficientes constantes cuando la matriz A no es diagonalizable:

3 1 −1
 

Ejercicio 4.L. Sea A =  0 2 0  . Hallar la solución del problema a valores inciales y analizar
1 1 1
el comportamiento asintótico de:
Y 0 = AY, Y (0) = Y0 ,

Dem. Tal como vimos en el Ejercicio 4.H, A no es diagonalizable.


En este caso, calculamos la forma de Jordan de A. Recordar que en la resolución del Ejercicio
4.H, probamos que si
2 1 0
 

J=  0 2 0  y
0 0 2
1 1 1
 

P =  0 0 −1 
1 0 0
entonces la forma de Jordan de A es
A = P JP −1 .
En este caso, también haremos el cambio de variables Y (t) := P Z(t). Entonces, Y 0 (t) = P Z 0 (t)
y el sistema a resolver nos queda:
Y 0 (t) = P Z 0 (t) = AY (t) = AP Z(t).

225
4. Diagonalización

Multiplicando a izquierda por P −1 la ecuación anterior, nos queda:

Z 0 (t) = P −1 P Z 0 (t) = P −1 AP Z(t) = JZ(t).

Entonces,
z10 (t) 2 1 0 z1 (t)
     
 z20 (t)  =  0 2 0   z2 (t) 
z30 (t) 0 0 2 z3 (t)
y nos queda el siguiente sistema a resolver,

 z1 = 2z1 + z2
 0

z20 = 2z2 .
z30 = 2z3

Recordando (por ejemplo) el Ejercicio 2.27, tenemos que la solución de las ecuaciones diferenciales
homogéneas z20 = 2z2 y z30 = 2z3 es

z2 = c2 e2t , z3 (t) = c3 e2t ,

con c2 , c3 ∈ R. Nos queda a resolver la siguiente ecuación diferencial no homogénea

z10 (t) = 2z1 (t) + z2 (t) = 2z1 (t) + c2 e2t . (4.14)

Recordando (por ejemplo) el Ejercicio 2.27, tenemos que todas las soluciones de (4.14) son

z1 (t) = z1h (t) + z1p (t),

donde z1h son las soluciones del sistema homogéneo asociado y z1p es una solución particular. En
este caso z1h ∈ gen{e2t } y z1p (t) = f (t)e2t , donde f 0 (t) = (c2 e2t )e−2t = c2 . Entonces, f (t) = c2 t y
tenemos que z1p (t) = c2 te2t . Por lo tanto,

z1 (t) = c1 e2t + c2 te2t ,

con c1 ∈ R.
Volviendo a la variable original, nos queda que:
1 1 1 c1 e2t + c2 te2t
   

Y (t) = P Z(t) =  0 0 −1   c2 e2t 


1 0 0 c3 e2t

1 1 1 1
       

= c1 e2t  0  + c2 e2t (t  0  +  0 ) + c3 e2t  −1 


1 1 0 0
c1 e + c2 e (t + 1) + c3 e
2t 2t 2t
 

=  −c3 e2t .
c1 e2t + c2 e2t t
Usando la condición inicial podemos hallar los valores de c1 , c2 y c3 . De hecho,
c1 e0 + c2 e0 (0 + 1) + c3 e0 c1 + c2 + c3
     
Y01
Y (0) =  −c3 e0 =  −c3  =  Y02  ,
c1 e + c2 e0 0
0
c1 Y03
donde Y01 , Y02 e Y03 son la primera, segunda y tercera coordenada del vector Y0 respectivamente.
Despejando, tenemos que c1 = Y03 , c3 = −Y02 y c2 = Y01 − c3 − c1 = Y01 + Y02 − Y03 . Por lo tanto,
la solución del sistema de ecuaciones diferenciales a valores iniciales es:
1 1 1 1
       

Y (t) = Y03 e2t  0  + (Y01 + Y02 − Y03 )e2t (t  0  +  0 ) − Y02 e2t  −1  .


1 1 0 0

226
4.8. Sistemas de ecuaciones diferenciales: caso no diagonalizable


En general, supongamos que A ∈ C 3×3
y queremos resolver el sistema de ecuaciones diferenciales

Y 0 = AY. (4.15)

Supongamos que A no es diagonalizable y que la forma de Jordan de A es A = P JP −1 con


P = [v1 v2 v3 ] ∈ C3×3 una matriz inversible. Teníamos 3 casos posibles:
Caso 1: λ es un autovalor triple de A con multiplicidad geométrica 1. En ese caso

λ 1 0
 

J =  0 λ 1 .
0 0 λ

Caso 2: λ es un autovalor triple de A con multiplicidad geométrica 2. En ese caso

λ 1 0
 

J =  0 λ 0 .
0 0 λ

Caso 3: λ es un autovalor doble de A con multiplicidad geométrica 1 y µ es un autovalor simple


de A. En ese caso
λ 1 0
 

J =  0 λ 0 .
0 0 µ

A partir del cambio de variable Y (t) = P Z(t) y operando de la misma manera que hicimos en
el ejercicio anterior, podemos obtener todas las soluciones del sistema de ecuaciones diferenciales
(4.15) según el caso en el que estemos:
Caso 1: λ es un autovalor triple con multiplicidad geométrica 1. En ese caso, todas las soluciones
del sistema de ecuaciones diferenciales (4.15) son:

t2
Y (t) = c1 eλt v1 + c2 eλt (tv1 + v2 ) + c3 eλt ( v1 + tv2 + v3 ),
2
con c1 , c2 , c3 ∈ C.
Caso 2: λ es un autovalor triple de A con multiplicidad geométrica 2. En ese caso, todas las
soluciones del sistema de ecuaciones diferenciales (4.15) son:

Y (t) = c1 eλt v1 + c2 eλt (tv1 + v2 ) + c3 eλt v3 ,

con c1 , c2 , c3 ∈ C.
Caso 3: λ es un autovalor doble de A con multiplicidad geométrica 1 y µ es un autovalor simple
de A. En ese caso, todas las soluciones del sistema de ecuaciones diferenciales (4.15) son:

Y (t) = c1 eλt v1 + c2 eλt (tv1 + v2 ) + c3 eµt v3 ,

con c1 , c2 , c3 ∈ C.
Pensando de manera similar, podemos deducir cómo sería la forma de Jordan para A ∈ C2×2 y
todas las soluciones del sistema de ecuaciones diferenciales (4.15).

Ejercicio 4.17. Hallar todas las soluciones Y ∈ C(R, R2 ) del sistema

6
 
−5
Y0 = Y.
5 −2

227
4. Diagonalización

6
 
−5
Dem. Primero, veamos si A := es diagonalizable. Calculamos el polinomio característico
5 −2
de A:
6−x
 
−5
χA (x) = det(A − xI) = det( ) = x2 + 4x + 13.
5 −2 − x
Por lo tanto, las raíces del χA son λ1 = 2 + 3i y λ2 = 2 − 3i ambas raíces distintas, por lo tanto, si
consideramos que A ∈ Cn×n , se sigue que A es diagonalizable.
Fácilmente vemos que los autoespacios asociados son:

4 − 3i 4 + 3i
   
−5
Sλ=2+3i = nul(A − (2 + 3i)I) = nul( ) = gen{ }.
5 −4 − 3i 5

4 + 3i 4 − 3i
   
−5
Sλ=2−3i = nul(A − (2 − 3i)I) = nul( ) = gen{ }.
5 −4 + 3i 5
Por lo tanto, como vimos arriba, todas las soluciones del sistema de ecuaciones diferenciales son:

4 + 3i 4 − 3i
   
Y (t) = c1 e (2+3i)t
+ c2 e (2−3i)t
,
5 5

con c1 , c2 ∈ R.
4 + 3i 4 − 3i
   
Notar que las funciones ∈ C(R, C2 ) y ∈ C(R, C2 ), como el ejercicio pide
5 5
todas las soluciones Y ∈ C(R, R2 ), tendremos que maniobrar un poco.
Recordar que e(2+3i)t = e2t (cos(3t) + i sin(3t)) y e(2−3i)t = e2t (cos(3t) − i sin(3t)). Entonces

e (cos(3t) + i sin(3t))(4 + 3i) e (cos(3t) − i sin(3t))(4 − 3i)


 2t   2t 
Y (t) = c1 + c2
5e2t (cos(3t) + i sin(3t)) 5e2t (cos(3t) − i sin(3t))
e (4 cos(3t) − 3 sin(3t)) e (3 cos(3t) + 4 sin(3t))
 2t   2t 
= c1 + ic1 +
5e2t cos(3t) 5e2t sin(3t)
e (4 cos(3t) − 3 sin(3t)) e (3 cos(3t) + 4 sin(3t))
 2t   2t 
+ c2 − ic2
5e2t (cos(3t)) 5e2t sin(3t)
e (4 cos(3t) − 3 sin(3t)) e (3 cos(3t) + 4 sin(3t))
 2t   2t 
= (c1 + c2 ) + i(c1 − c2 ) .
5e2t cos(3t) 5e2t sin(3t)

Tomando α := c1 + c2 ∈ C y β := i(c1 − c2 ) ∈ C, tenemos que todas las soluciones de la ecuación


diferencial Y 0 = AY, son de la forma

Y (t) = αY1 (t) + βY2 (T ),

e2t (4 cos(3t) − 3 sin(3t)) e (3 cos(3t) + 4 sin(3t))


   2t 
con Y1 (t) := ∈ C(R, R ) e Y2 (t) :=
2

5e2t (cos(3t)) 5e2t (sin(3t))
C(R, R2 ). 

El siguiente ejercicio demuestra que toda simetría y todo proyector es diagonalizable, esto ya
lo habíamos notado en Proposición 2.5.1. Vamos a reescribir lo que hicimos para adaptarlo a la
notación de este capítulo.
Ejercicio 4.M. Sea V un C-espacio vectorial de dimensión n > 1. Demostrar que
a) Si S ∈ L(V) \ {IV } es una simetría (es decir, S 2 = IV ), existen k ∈ N y una base B de V tales
que
0
 
Ik
[S]B = ,
B 0 −In−k
con Ik la matriz identidad de k × k e In−k la matriz identidad de n − k × n − k.

228
4.8. Sistemas de ecuaciones diferenciales: caso no diagonalizable

b) Si T ∈ L(V) \ {0V , IV } es una proyección (es decir, T 2 = T ), existen k ∈ N y una base B de


V tales que
Ik 0
 
[T ]B = ,
B 0 0
con Ik la matriz identidad de k × k.

Dem. a) : Como S cumple que S 2 = IV , en el Ejercicio 2.23 e) vimos que S es una simetría y
probamos que
V = Nu(S − IV ) ⊕ Nu(S + IV )
(en este caso el símbolo ⊕ denota suma directa, no necesariamente ortogonal).
Sea k := dim(Nu(S − IV )) (como S 6= IV tenemos que k < n).
Si k = 0, entonces Nu(S −IV ) = {0V } y tenemos que V = Nu(S −IV )⊕Nu(S +IV ) = Nu(S +IV ).
Por lo tanto (S + IV )v = 0V , para todo v ∈ V y entonces se sigue S = −IV . En ese caso, tomando
cualquier base B de V se sigue que
[S]B
B = −In .

Si k ≥ 1, sea {v1 , v2 , · · · , vk } una base de Nu(S − IV ). Entonces,

S(vi ) = vi ,

para todo i = 1, 2, · · · , k. Por otra parte, como V = Nu(S − IV ) ⊕ Nu(S + IV ), tenemos que

dim(Nu(S + IV )) = dim(V) − dim(Nu(S − IV )) = n − k ≥ 1.

Sea {vk+1 , · · · , vn } una base de Nu(S + IV ). Entonces,

S(vi ) = −vi

para todo i = k + 1, · · · , n.
Sea B := {v1 , v2 , · · · , vk , vk+1 , · · · , vn } entonces B es una base de Cn (¿por qué?). Recordemos
además que [vi ]B = ei , donde ei es el vector i-ésimo de la base canónica de Cn , es decir el vector de
Cn con todas componentes nulas excepto en el lugar i donde vale 1. Por ejemplo,

[v1 ]B = [1 0 · · · 0]T = e1 .

Entonces, por definición de [S]B


B , tenemos que

[S]B
B = [ [S(v1 )] [S(v2 )] · · · [S(vk )] [S(vk+1 )]
B B B B
· · · [S(vn )]B ]
= [ [v1 ]B [v2 ]B · · · [vk ]B [−vk+1 ]B · · · [−vn ]B ]
= [ e1 e2 · · · ek − ek+1 · · · − en ]
0k×n−k
 
Ik×k
= .
0n−k×k −In−k×n−k

b) : Como T cumple que T 2 = T, en el Ejercicio 2.23 vimos que T es la proyección sobre


Im(T ) en la dirección de Nu(T ). Por otra parte, en el Ejercicio 2.19 a), probamos que

V = Im(T ) ⊕ Nu(T )

(en este caso el símbolo ⊕ denota suma directa, no necesariamente ortogonal).


Sea k := dim(Im(T )) (como T = 6 IV y T 6= 0V entonces 1 ≤ k < n) y sea {v1 , v2 , · · · , vk } una
base de Im(T ). Entonces, como T es un proyector y vi ∈ Im(T ) para todo i = 1, 2, · · · , k, tenemos
que
T (vi ) = vi ,

229
4. Diagonalización

para todo i = 1, 2, · · · , k. Por otra parte, como V = Im(T ) ⊕ Nu(T ), tenemos que

dim(Nu(T )) = dim(V) − dim(Im(T )) = n − k ≥ 1.

Sea {vk+1 , · · · , vn } una base de Nu(T ). Entonces,

T (vi ) = 0V

para todo i = k + 1, · · · , n.
Sea B := {v1 , v2 , · · · , vk , vk+1 , · · · , vn } entonces B es una base de Cn (¿por qué?).
Por lo tanto, por definición de [T ]B B , tenemos que

[T ]B
B = [ [T (v1 )] [T (v2 )] · · · [T (vk )] [T (vk+1 )]
B B B B
· · · [T (vn )]B ]
= [ [v1 ]B [v2 ]B · · · [vk ]B [0V ]B · · · [0V ]B ]
= [ e1 e2 · · · ek 0Cn · · · 0Cn ]
0k×n−k
 
Ik×k
= .
0n−k×k 0n−k×n−k

Conclusión: Si S 2 = IV , entonces S es una simetría con respecto a Nu(S−IV ) en la dirección


Im(S − IV ) = Nu(S + IV ) (ver Ejercicio 2.23 d)). En ese caso, S es diagonalizable con
autovalores 1 y −1. La multiplicidad algebraica y geométrica del autovalor 1 es igual a
la dimensión del autoespacio Nu(S − IV ) y la multiplicidad algebraica y geométrica del
autovalor −1 es igual a la dimensión del autoespacio Im(S − IV ) = Nu(S + IV ).

Si T 2 = T , entonces T es un proyector con respecto a Im(T ) en la dirección Nu(T )


(ver Ejercicio 2.23 a)). En ese caso, T es diagonalizable, con autovalores 1 y 0. La
multiplicidad algebraica y geométrica del autovalor 1 es igual a la dimensión del autoespacio
Im(T ) = Nu(T − IV ) y la multiplicidad algebraica y geométrica del autovalor 0 es igual a la
dimensión del autoespacio Nu(T ).

Ahora sí, resolvamos el siguiente ejercicio de examen:

1 2

  

Ejercicio 4.N (De Parcial). Sea S = gen{  1  ,  1 }. Sean [PS ]EE y [PS ⊥ ]EE las matrices en la
0 1
base canónica de R de las proyecciones sobre S y S respectivamente considerando el producto
3 ⊥

interno canónico de R3 . Si A := 2[PS ]EE + 3[PS ⊥ ]EE , encontrar todas las soluciones del problema a
valores iniciales:
1
 

Y 0 = A21 Y, Y (0) =  1  .
0

Dem. En primer lugar, recordar que como PS es la proyección ortogonal sobre S, tenemos que
PS ⊥ = I − PS y por lo tanto, [PS ⊥ ]EE = [I − PS ]EE = I3 − [PS ]EE , donde I3 es la matriz identidad de
3 × 3. Entonces,

A = 2[PS ]EE + 3[PS ⊥ ]EE = 2[PS ]EE + 3(I3 − [PS ]EE ) = 3I3 − [PS ]EE .

Veamos que PS siempre es diagonalizable. De hecho, tenemos que PS (v) = v para todo
v ∈ Im(PS ) = S y PS (v) = 0 para todo v ∈ Nu(PS ) = S ⊥ . Por lo tanto, los autovalores de
la transformación lineal PS son λ1,2 = 1 y λ3 = 0 con autoespacios asociados Sλ=1 = Im(PS ) = S
y Sλ=0 = Nu(PS ) = S ⊥ .

230
4.8. Sistemas de ecuaciones diferenciales: caso no diagonalizable

1 2
*  + *  +

Calculemos S ⊥ , recordemos que S ⊥ = {x ∈ R3 : x,  1  = x,  1  = 0}. Entonces,


  0 1
x1
x ∈ S⊥ si y sólo si x =  x2  es solución del sistema
x3
1 + 2 +
*   *  

0 = x,  1  = x1 + x2 , 0 = x,  1  = 2x1 + x2 + x3 .
0 1
 
−x2
Resolviendo, nos queda que x1 = −x2 y x3 = −2x1 − x2 = 2x2 − x2 = x2 . Entonces x =  x2  ,
  x2
−1
con x2 ∈ R y por lo tanto S ⊥ = gen{  1 }.
 1
1 2
    
−1
Sea B := {  1  ,  1  ,  1 }, entonces B es una base (formada por autovectores) de
0  1 1
1 2 −1 1 0 0
 

R3 . Sea P := MBE =  1 1 1  y Λ := [PS ]B B =


 0 1 0  , tenemos que
0 1 1 0 0 0
[PS ]EE = P ΛP −1 .
Por lo tanto,
A = 3I3 − [PS ]EE = 3P P −1 − P ΛP −1 = P (3I3 − Λ)P −1
3−1 0 0 2 0 0
   

=P  0 3−1 0  P −1 = P  0 2 0  P −1 .
0 0 3−0 0 0 3
Entonces A es diagonalizable y entonces
2 0 0 2 0 0
   21 

A21 = P (  0 2 0 )21 P −1 = P  0 221 0  P −1 . (4.16)


0 0 3 0 0 321
Además, es claro que (4.16) es la diagonalización de la matriz A21 .
Entonces, tal como vimos arriba, todas las soluciones del sistema de ecuaciones diferenciales
Y 0 = A21 Y, son
1 2
     
21 21 21
−1
Y (t) = c1 e2 t  1  + c2 e2 t  1  + c3 e3 t  1  ,
0 1 1
con c1 , c2 , c3 ∈ R. Usando la condición inicial podemos hallar los valores de c1 , c2 y c3 . De hecho,
1 2 1
       
−1
Y (0) = c1  1  + c2  1  + c3  1  =  1  .
0 1 1 0
Resolviendo el sistema, tenemos que c1 = 1, c2 = 0 y c3 = 0. Por lo tanto, la solución del sistema
de ecuaciones diferenciales a valores iniciales es:
1
 
21
Y (t) = e2 t  1  .
0


231
4. Diagonalización

4.9. Sistema de ecuaciones diferenciales no homogéneo


Finalmente, veamos un ejemplo de resolución de un sistema de ecuaciones diferenciales no
homogéneo.
Ejercicio 4.Ñ. Resolver el problema no homogéneo

Y 0 (t) = AY (t) + F (t),

2 e3t
   
−1
con A = y F (t) = .
3 −2 e3t

Dem. Para resolver el sistema de ecuaciones diferenciales no homogéneo, primero veamos si A es


diagonalizable. En caso de que A no sea diagonalizable, calcularemos la forma de Jordan de A y
prodeceremos de manera similar.
Calculamos el polinomio característico de A:

2−x
 
−1
χA (x) = det(A − xI) = det( ) = x2 − 1.
3 −2 − x

Las raíces del χA son λ1 = −1 y λ2 = 1 todas raíces distintas, por lo tanto A es diagonalizable.
Fácilmente vemos que los autoespacios asociados son:

3 −1 1
   
Sλ=−1 = nul(A + I) = nul( ) = gen{ }.
3 −1 3

1 −1 1
   
Sλ=1 = nul(A − I) = nul( ) = gen{ }.
3 −3 1
Construimos la matriz P colocando ensus columnas
 dos autovectores linealmente independientes,
1 1 −1 0

por ejemplo: P := y, si Λ := , entonces
3 1 0 1

A = P ΛP −1 ,

−1 1
 
con P −1 = 1
.
2 3 −1
Tal como hicimos en los ejercicios anteriores, proponemos el siguiente cambio de variables,
Y (t) := P Z(t). Entonces, Y 0 (t) = P Z 0 (t) y el sistema a resolver nos queda:

Y 0 (t) = P Z 0 (t) = AY (t) + F (t) = AP Z(t) + F (t).

Multiplicando a izquierda por P −1 la ecuación anterior, nos queda:

Z 0 (t) = P −1 AP Z(t) + P −1 F (t) = ΛZ(t) + P −1 F (t)


−1 0 z1 (t) 1 −1 1
       3t 
e
= +
0 1 z2 (t) 2 3 −1 e3t
−z1 (t) 0 −z1 (t)
     
= + = .
z2 (t) e3t z2 (t) + e3t

Entonces, nos queda el siguiente sistema desacoplado no homogéneo a resolver,

z10 = −z1

.
z2 = z2 + e3t
0

Recordando (por ejemplo) el Ejercicio 2.27, tenemos que todas las soluciones de la ecuación
diferencial homogénea z10 + z1 = 0 son

z1 (t) = c1 e−t ,

232
4.9. Sistema de ecuaciones diferenciales no homogéneo

con c1 ∈ R.
Por otro lado, recordando también (por ejemplo) el Ejercicio 2.27, tenemos que todas las
soluciones de de la ecuación diferencial no homogénea z20 − z2 = g(t) con g(t) = e3t , son

z2 (t) = z2h (t) + z2p (t),

donde z2h son las soluciones del sistema homogéneo asociado y z2p es una solución particular.
En este caso, z2h ∈ gen{et } y z2p (t) = f (t)et , donde f 0 (t) = g(t)e−t = e3t e−t = e2t . Entonces,
2t 2t 3t
f (t) = e2 y tenemos que z2p (t) = e2 et = e2 . Por lo tanto,

e3t
z2 (t) = c2 et + ,
2
con c2 ∈ R.
Volviendo a la variable original, nos queda que todas las soluciones del sistema de ecuaciones
diferenciales no homogéneo son:

1 1 c1 e−t 1 1 e3t 1
         
Y (t) = P Z(t) = 3t = c1 e−t + c2 e t + ,
3 1 c2 et + e2 3 1 2 1

con c1 , c2 ∈ R.
1 1
   
Observar que si llamamos Yh (t) := c1 e + c2 e
−t t
, con c1 , c2 ∈ R e Yp (t) :=
3 1
1
 
e3t
, entonces,
2 1
Y (t) = Yh (t) + Yp (t),
donde Yh son las soluciones del sistema homogéneo asociado Y 0 = AY e Yp es una solución particular,
es decir Yp0 (t) = AYp (t) + F (t). 

233
CAPÍTULO 5

Matrices Unitarias

En este capítulo, vamos a tomar como cuerpo K = R ó K = C y vamos a considerar el producto


interno canónico, definido por h x, y i = y ∗ x, para x, y ∈ Kn .

Sea A ∈ Km×n entonces

h Ax, y i = y ∗ (Ax) = (A∗ y)∗ (x) = h x, A∗ y i para todo x ∈ Kn , y ∈ Km . (5.1)

5.1. Matrices unitarias y ortogonales


Definición. Diremos que U ∈ Cn×n es unitaria si U U ∗ = U ∗ U = I. Si U ∈ Rn×n y
U U T = U T U = I, diremos que U es ortogonal.
Observar que U ∈ Cn×n es unitaria, si y sólo si U −1 = U ∗ y U ∈ Rn×n es ortogonal, si y sólo si
U = UT .
−1
i 0
 
Por ejemplo, la matriz U := es unitaria, pues
0 i

0 −i 0 1 0
     
i
UU = ∗
= =I
0 i 0 −i 0 1
0 i 0
   
−i
= = U ∗ U.
0 −i 0 i

1
 
−1
La matriz, P := √1 es ortogonal. Pues P ∈ R2×2 y
2 1 1

1 1 −1 1 1 1 1 0
     
PP T
= √ √ = =I
2 1 1 2 −1 1 0 1
1 1 1 1 1 −1
   
=√ √ = P T P.
2 −1 1 2 1 1

La siguiente propiedad demuestra que si una matriz cuadrada tiene inversa a izquierda o a
derecha entonces es inversible:

Sea A ∈ Kn×n tal que existe B ∈ Kn×n tal que

AB = I,

entonces
BA = I y A−1 = B.

235
5. Matrices Unitarias

De hecho, si existe B ∈ Kn×n tal que AB = I, entonces,

det(AB) = det(A) det(B) = det(I) = 1 6= 0.

Por lo tanto, det(A) 6= 0. Entonces, A es de rango máximo. Por lo tanto, existe A−1 . Multiplicando
a izquierda por A−1 tenemos que

B = A−1 (AB) = A−1 I = A−1 .

Entonces A−1 = B, por lo tanto, también vale que BA = A−1 A = I.


Eso significa que (por ejemplo) dada U ∈ Cn×n , basta ver que U U ∗ = I ó que U ∗ U = I para
concluir que U es unitaria.

En la siguiente proposición veremos varias propiedades que caracterizan a las matrices unitarias
(ortogonales).
Proposición 5.1.1. Sea U ∈ Cn×n . Entonces, son equivalentes:
i) U es unitaria,
ii) U ∗ es unitaria,
iii) U es inversible y U −1 = U ∗ ,
iv) U preserva el producto interno (canónico), es decir

h U x, U y i = h x, y i

para todo x, y ∈ Cn .
v) Si {v1 , v2 , · · · , vn } es una bon de Cn , entonces {U v1 , U v2 , · · · , U vn } también es una bon de
Cn .
vi) Las columnas de U forman una bon de Cn .
vii) Las filas de U forman una bon de Cn .
viii) U es una isometría, es decir
kU xk = kxk
n
para todo x ∈ C .

Dem. i) ⇒ ii) : Si U es unitaria, entonces U U ∗ = I y U ∗ U = I. Entonces, es claro que U ∗ U = I y


U U ∗ = I, por lo tanto U ∗ es unitaria.
ii) ⇒ iii) : Si U ∗ es unitaria, entonces U U ∗ = I y U ∗ U = I, eso implica como vimos arriba que
U = U ∗.
−1

iii) ⇒ iv) : Si U −1 = U ∗ . Usando (5.1) tenemos que, para todo x, y ∈ Cn ,

h U x, U y i = h x, U ∗ U y i = x, U −1 U y = h x, Iy i = h x, y i .

iv) ⇒ v) : Si {v1 , v2 , · · · , vn } es una bon de Cn , entonces h vi , vj i = δij , donde δij = 1 si i = j


y δij = 0 si i 6= j (la delta de Kronecker). Usando iv), tenemos que

h U vi , U vj i = h vi , vj i = δij .

Por lo tanto, {U v1 , U v2 , · · · , U vn } también es una bon de Cn .


v) ⇒ vi) : Supongamos que U := [u1 u2 · · · un ], donde ui ∈ Cn es la i-ésima columna de U. Sea
{e1 , e2 , · · · , en } la base canónica de Cn , que es una base ortonormal de Cn . Entonces, recordemos
que
U e1 = u1 , U e2 = u2 , · · · , U en = un .

236
5.1. Matrices unitarias y ortogonales

Usando v), tenemos que el conjunto


{U e1 , U e2 , · · · , U en } = {u1 , u2 , · · · , un }
es una bon de Cn . Por lo tanto, las columnas de U forman una bon de Cn .
vi) ⇒ vii) : Supongamos que U = [u1 u2 · · · un ], donde ui ∈ Cn es la i-ésima columna de U.
Por hipótesis, {u1 , u2 , · · · , un } es una bon de Cn , entonces
 ∗   ∗
u1 u1 u∗1 u2 · · · u∗1 un

u1
 u∗2   u∗2 u1 u∗2 u2 · · · u∗2 un 
U ∗ U =  .  [u1 u2 · · · un ] =  . .. .. ..  = I.
   
 ..   .. . . . 
∗ ∗ ∗ ∗
un un u1 un u2 · · · un un
Entonces, U es unitaria. Tomando conjugado en la ecuación anterior, tenemos que

I = I = U ∗ U = U ∗ U = U T (U T )∗ .
Entonces U T es unitaria. Como ya probamos que i) ⇒ vi) (porque probamos i) ⇒ ii) ⇒ iii) ⇒
iv) ⇒ v) ⇒ vi)), tenemos que las columnas de U T forman una bon de Cn . Como las columnas de
U T son las filas de U, concluimos entonces que las filas de U forman una bon de Cn .
vii) ⇒ viii) : Si las filas de U forman una bon de Cn entonces las columnas de U T (que son
las filas de U ) forman una bon de Cn . Entonces, operando de manera similar que en vi) ⇒ vii),
tendremos que vale que (U T )∗ U T = U U T = I. Entonces, I = I T = (U U T )T = U U ∗ , entonces U es
unitaria. Como ya probamos que i) ⇒ iv) (porque probamos i) ⇒ ii) ⇒ iii) ⇒ iv)), se sigue en
particular que, para todo x ∈ Cn

kU xk2 = h U x, U x i = h x, x i = kxk2 .
viii) ⇒ i) : Si kU xk = kxk para todo x ∈ Cn . Entonces,
h U x, U x i = h U ∗ U x, x i = h Ix, x i ,
para todo x ∈ Cn . Entonces
h (U ∗ U − I)x, x i = h U ∗ U x − x, x i = h U ∗ U x, x i − h x, x i = 0,
para todo x ∈ Cn .
Llamemos A := U ∗ U − I. Observar que, si z, w ∈ Cn (hacer la cuenta) vale la fórmula de
polarización:
h Az, w i = h A(z + w), z + w i + i h A(z + iw), z + iw i
+ (−1) h A(z + (−1)w), z + (−1)w i + (−i) h A(z + (−i)w), z + (−i)w i .
Entonces, como h Ax, x i = 0, para todo x ∈ Cn , vale que h Az, w i = h A(z + w), z + w i +
i h A(z + iw), z + iw i + (−1) h A(z + (−1)w), z + (−1)w i + (−i) h A(z + (−i)w), z + (−i)w i = 0,
para todo z, w ∈ Cn . Entonces
h (U ∗ U − I)z, w i = 0,
para todo z, w ∈ Cn . En particular, si tomamos w := (U ∗ U − I)z, tenemos que
h (U ∗ U − I)z, (U ∗ U − I)z i = k(U ∗ U − I)zk2 = 0,
para todo z ∈ Cn . Entonces
(U ∗ U − I)z = 0,
para todo z ∈ Cn . Por lo tanto U ∗ U − I = 0 ó, equivalentemente, U ∗ U = I y U resulta unitaria.


Ejercicio 5.A. Pensar cómo se modifica la Propoposición 5.1.1, si tenemos U ortogonal en vez de
U unitaria.

237
5. Matrices Unitarias

5.2. Matrices hermíticas y diagonalización unitaria


Definición. Sea A ∈ Cn×n . Diremos que A es hermítica si A∗ = A y diremos que A es simétrica, si
A ∈ Rn×n y AT = A. Finalmente, diremos que A es anti simétrica, si A ∈ Rn×n y AT = −A.
0 −1
 
Ejemplo 5.a. La matriz es anti simétrica, pues AT = −A.
1 0
2 i
 
La matriz es hermítica, pues A∗ = A.
−i 1
Proposición 5.2.1. Sea A ∈ Cn×n tal que A es hermítica, es decir A∗ = A. Entonces:

1. Los autovalores de A son reales.

2. Autovectores de A correspondientes a distintos autovalores son ortogonales (con el producto


interno canónico).

Dem. 1. : Supongamos que λ ∈ C es un autovalor de A. Entonces, existe v ∈ Cn \ {0} tal que


Av = λv. Entonces, usando (5.1),

λ h v, v i = h λv, v i = h Av, v i = h v, A∗ v i = h v, Av i = h v, λv i = λ h v, v i .

Entonces (λ − λ) h v, v i = 0. Como h v, v i =
6 0, pues v 6= 0, se sigue que λ = λ y por lo tanto λ ∈ R.
2. : Sean λ, µ ∈ R (ya probamos que son reales) autovalores distintos de A y sean v, w ∈ Cn \ {0}
los autovectores asociados correspondientes. Entonces, usando (5.1),

λ h v, w i = h λv, w i = h Av, w i = h v, A∗ w i = h v, Aw i = h v, µw i = µ h v, w i .

Entonces
(λ − µ) h v, w i = 0.
Como λ 6= µ, concluimos que h v, w i = 0 y entonces v y w son ortogonales. 

Definición. Sea A ∈ Cn×n . Diremos que A es diagonalizable unitariamente si existen U ∈ Cn×n


unitaria y Λ ∈ Cn×n diagonal (Λ no tiene por qué ser real) tales que

A = U ΛU ∗ .

Sea A ∈ Rn×n . Diremos que A es diagonalizable ortogonalmente si existen U ∈ Rn×n ortogonal y


Λ ∈ Rn×n diagonal tales que
A = U ΛU T .
Enunciaremos uno de los teoremas más importantes que veremos en la materia:

Teorema 5.2.2. Sea A ∈ Cn×n hermítica, es decir A∗ = A entonces A es diagonalizable


unitariamente.

Dem. Lo demostraremos por inducción en n.


Si n = 1, entonces A ∈ C (es un número) y no hay nada que probar.
Supongamos que n > 1 y que para toda matriz A ∈ Cn−1×n−1 hermítica vale que A es
diagonalizable unitariamente. Veamos que eso mismo vale para A ∈ Cn×n hermítica.
Si A ∈ Cn×n es hermítica, por la Proposición 5.2.1, existe λ ∈ R autovalor de A. Sea v ∈ Cn \{0}
un autovector asociado a λ y tomemos w := kvk v
, entonces w es un vector de norma 1 asociado al
mismo autovalor λ. Entonces, observar que

w∗ (Aw) = w∗ (λw) = λw∗ w = λkwk2 = λ.

238
5.2. Matrices hermíticas y diagonalización unitaria

Ahora, definamos S := gen{w}⊥ . Entonces, recordemos que


dim(S) = dim(gen{w}⊥ ) = dim(Cn ) − dim(gen{w}) = n − 1.
Además, si s ∈ S, vale que As ∈ S. De hecho, si s ∈ S = gen{w}⊥ , entonces h s, w i = 0. Por lo
tanto, como A∗ = A,
h As, w i = h s, A∗ w i = h s, Aw i = h s, λw i = λ h s, w i = 0.
Entonces As ∈ gen{w}⊥ = S, que era lo que queríamos ver.
A continuación, completemos el conjunto {w} de manera tal que B := {w, v1 , · · · , vn−1 } sea
una base ortonormal de Cn . Entonces, como v1 , v2 , · · · , vn−1 ∈ gen{w}⊥ (son parte de una base
ortonormal) por lo que acabamos de probar, vale que Avi ∈ gen{w}⊥ para i = 1, 2, · · · , n − 1 y
entonces,
0 = h Avi , w i = w∗ Avi = h w, Avi i = (Avi )∗ w = vi∗ A∗ w = vi∗ Aw
para i = 1, 2, · · · , n − 1. Sea
V := [w v1 · · · vn−1 ],
(donde w, v1 , · · · , vn−1 son las columnas de V ). Entonces, como las columnas de V son una bon de
Cn , por la Proposición 5.1.1, V es unitaria. Además, usando lo que vimos arriba, se sigue que
w∗ w∗ Aw w∗ Av1 · · · w∗ Avn−1
   
 v1∗   v1∗ Aw v1∗ Av1 ··· v1∗ Avn−1 
V AV =  .  A[ w v1 · · · vn−1 ] = 

.. .. .. ..
   
 ..  . . . .

 
∗ ∗ ∗ ∗
vn−1 vn−1 Aw vn−1 Av1 · · · vn−1 Avn−1
0 0
 
λ ···
 0 v ∗
1 Av 1 · · · v ∗
1 Av n−1

= . . . . .
 
 .. .. .. .. 
0 ∗
vn−1 Av1 ··· ∗
vn−1 Avn−1
Llamemos
v1∗ Av1 v1∗ Avn−1
 
···
A1 :=  .. .. ..
. . . .
 
∗ ∗
vn−1 Av1 ··· vn−1 Avn−1
Entonces, por la cuenta anterior, nos quedó la siguiente matriz en bloques:
λ 0
 
V AV =

.
0 A1
Observar que A1 ∈ Cn−1×n−1 y A∗1 = A1 (hacer la cuenta usando que A∗ = A). Entonces, por
hipótesis inductiva, A1 es diagonalizable unitariamente. Es decir, existe U1 ∈ Cn−1×n−1 unitaria y
Λ1 ∈ Rn−1×n−1 (como A1 es hermítica sus autovalores son reales) diagonal tales que
A1 = U1 Λ1 U1∗ .
Entonces (verificarlo haciendo la cuenta), tenemos que
λ 0 1 0 λ 0 1 0
       
A=V V =V

V ∗.
0 A1 0 U1 0 Λ1 0 U1∗
1 0
 
Llamemos U := V ∈ Cn×n . Entonces, notar que
0 U1
1 0 1 0 1 0 1 0
       
U U = (V

) V

= ∗
V V
0 U1 0 U1 0 U1∗ 0 U1
1 0 1 0 1 0 1 0
       
= In = = = In .
0 U1∗ 0 U1 0 U1∗ U1 0 In−1

239
5. Matrices Unitarias

1 0 0
   
λ
Entonces U es unitaria y además U = ∗
V . Por lo tanto, si llamamos Λ :=


0 U1∗ 0 Λ1
Rn×n , tenemos que Λ es diagonal y
A = U ΛU ∗ .
Entonces, A resulta diagonalizable unitariamente. 
De manera similar a como probamos el Teorema 5.2.2, podemos probar que si A ∈ R n×n
es
simétrica, entonces A es diagonalizable ortogonalmente.

Corolario 5.2.3. Sea A ∈ Rn×n (en el sentido de que consideramos A ∈ Cn×n con
coeficientes reales) antisimétrica, es decir A = −AT . Entonces A es diagonalizable
unitariamente.

Dem. De hecho, observar que


(iA)∗ = i∗ (A)T = −iAT = i(−AT ) = iA.
Entonces iA ∈ Cn×n es hermítica. Entonces, por el Teorema 5.2.2, existe U ∈ Cn×n unitaria y
Λ ∈ Rn×n diagonal, tales que
iA = U ΛU ∗ .
Entonces,
A = −i(iA) = (−i)U ΛU ∗ = U (−iΛ)U ∗
y por lo tanto A es diagonalizable unitariamente. Observar que como (−iΛ) ∈ Cn×n los autovalores
de A son números complejos puros. 

Ejercicio 5.B. Explicar por qué las siguientes matrices son diagonalizables unitariamente y hallar
una diagonalización unitaria de las mismas.
0 −1
 
A1 = ,
1 0

cos θ − sin θ
 
A2 = ,
sin θ cos θ

0 −1 0
 

A3 =  1 0 0  ,
0 0 1

cos θ − sin θ 0
 

A4 =  sin θ cos θ 0  .
0 0 1

Dem. Observar que


0 0 1
   
−1
AT1 =( ) =
T
= −A1 .
1 0 −1 0
Entonces, por lo que acabamos de ver A1 es diagonalizable unitariamente. De hecho, tenemos
que el polinomio característico de A1 es χA1 (x)= x2 + 1. Por lo tanto λ1 = iy λ1 = −i son los
i −i
autovalores de A1 y como nul(A1 − iI) = gen{ } y nul(A1 + iI) = gen{ }. Entonces
1 1
1
   
i −i
{ √12 ,√ } es una bon de C2 . Tomemos
1 2 1
1
 
i −i
U := √ ,
2 1 1

240
5.2. Matrices hermíticas y diagonalización unitaria

entonces U es unitaria y
0
 
i
A1 = U U ∗.
0 −i
Observar que
cos θ − sin θ cos θ0 0 −1
     
A2 = = + sin θ = cos θ I2 + sin θ A1 .
sin θ cos θ 0
cos θ 1 0
i 0
   
i −i
Acabamos de ver, que A1 = U U ∗ , con U = √12 unitaria. Entonces,
0 −i 1 1
i 0
 
A2 = cos θ I2 + sin θ A1 = cos θ (U U ) + sin θ (U

U ∗)
0 −i
cos θ + i sin θ 0 0
   iθ 
e
=U U =U

U∗
0 cos θ − i sin θ 0 e−iθ
y entonces A2 es diagonalizable unitariamente.
Observar que A3 se puede escribir como la siguiente matriz en bloques:
0 −1 0
 
A1 0
 
A3 = 1 0 0 = .
0 1
 
0 0 1
i 0
   
i −i
Acabamos de ver, que A1 = U ΛU , con Λ =

yU= 2 √1
unitaria. Entonces,
0 −i 1 1
definamos la siguiente matriz en bloques
U 0
 
V := ∈ C3×3 .
0 1
0
 ∗ 
U
Observar que V ∗ = y además
0 1
0 U 0 0 I2 0
 ∗     ∗   
U U U
V V =

= = = I3 .
0 1 0 1 0 1·1 0 1
Por lo tanto, V es unitaria. Además,
0 0
 
i
A1 0 U ΛU ∗ 0 0 Λ 0 U∗ 0
         
U
A3 = = = =V  0 −i 0  V ∗
0 1 0 1 0 1 0 1 0 1
0 0 1
y entonces A3 es diagonalizable unitariamente.
Por último, de manera similar, observar que A4 se puede escribir como la siguiente matriz en
bloques:
cos θ − sin θ 0
 
A2 0
 
A4 = sin θ cos θ 0 = .
0 1
 
0 0 1
0
 iθ   
e i −i
Acabamos de ver, que A2 = U Λ̃U ∗ , con Λ̃ := y U = √1 unitaria.
0 e−iθ 2 1 1
U 0
 
Entonces, tomando nuevamente la matriz en bloques unitaria V = . Tenemos que
0 1
A2 0 U Λ̃U ∗ 0 U 0 Λ̃ 0 0
         ∗ 
U
A4 = = =
0 1 0 1 0 1 0 1 0 1
0 0
 iθ 
e
= V  0 e−iθ 0  V ∗
0 0 1
y entonces A4 es diagonalizable unitariamente. 

241
5. Matrices Unitarias

5.3. Clasificación de transformaciones ortogonales


Recordemos que U ∈ Rn×n es ortogonal si U U T = U T U = I.

Si U ∈ Rn×n es una matriz ortogonal entonces:

| det(U )| = 1; luego det(U ) = ±1.


Si λ es autovalor de U entonces |λ| = 1; si además λ ∈ R, λ = ±1.

De hecho, det(U T U ) = det(U T ) det(U ) = det(U )2 = det(I) = 1. Entonces | det(U )| = 1. Como


U ∈ Rn×n , se sigue que det(U ) ∈ R y entonces det(U ) = ±1.
Tener en cuenta que con U ∈ Rn×n nos referimos a U ∈ Cn×n con todos sus coeficientes
reales. Sea λ un autovalor de U , entonces existe v =6 0, tal que U v = λv. Por la Proposición 5.2.1,
kU vk = kvk. Entonces
kvk = kU vk = kλvk = |λ|kvk.
Entonces |λ| = 1 pues v 6= 0. Si además λ ∈ R, λ = ±1.
Definición. Sea U ∈ Rn×n con n = 2 ó n = 3 y consideremos la transformación lineal T (x) := U x.
Entonces:
Diremos que T es una rotación si det(U ) = 1.
Diremos que T es una simetría ortogonal respecto del subespacio S si T (v) = v para todo
v ∈ S y T (v) = −v para todo v ∈ S ⊥ .
Proposición 5.3.1. Sea U ∈ R2×2 ortogonal y consideremos la transformación lineal T (x) := U x.
Entonces, T es una rotación o una simetría.
Más aún, existe una bon B = {v1 , v2 } de R2 , tal que

cos θ − sin θ
 
[T ]B =
B
,
sin θ cos θ

con θ ∈ [0, π]. En ese caso det(U ) = 1, tr(U ) = 2 cos θ y T es una rotación de ángulo θ. Ó, existe
una bon B = {v1 , v2 } de R2 , tal que

1 0
 
[T ]B =
B
.
0 −1
En ese caso det(U ) = −1, tr(U ) = 0 y T es una simetría ortogonal respecto del subespacio S = Sλ=1 ,
el autoespacio asociado al autovalor λ = 1.
Tener en cuenta que con U ∈ R2×2 nos referimos a U ∈ C2×2 con todos sus coeficientes reales.
Además, recordar que si E es la base canónica de R2 , vale que [T ]E
E = U.
Dem. Sea B = {v1 , v2 } una bon de R2 . Entonces, existen a, b, a0 , b0 ∈ R tales que

U v1 = av1 + bv2 y U v2 = a0 v1 + b0 v2 .

Por la Proposición 5.2.1, {U v1 , U v2 } es una bon de R2 . Entonces

a2 + b2 = h U v1 , U v1 i = 1, a02 + b02 = h U v2 , U v2 i = 1, aa0 + bb0 = h U v1 , U v2 i = 0.

Despejando, nos queda que a2 + b2 = 1 y que (a0 , b0 ) = (−b, a) ó (a0 , b0 ) = (b, −a). Entonces,
 
a −b
1. [T ]B = [[T (v1 )] [T (v2 )] ] = [[U v1 ] [U v2 ] ] =
B B B B B
ó
b a
 
a b
2. [T ]B
B = [[T (v 1 )]B
[T (v 2 )]B
] = [[U v1 ] B
[U v 2 ]B
] = .
b −a

242
5.3. Clasificación de transformaciones ortogonales

Recordar que
U = [T ]E
E = [M ]B [T ]B [M ]E = [M ]B [T ]B ([M ]B )
E B B E B E −1
,
donde [M ]E
B es la matriz de cambio de base de B a E. Entonces

χU (x) = det(U − xI) = det([M ]E


B ([T ]B − xI)([M ]B )
B E −1
) = det([T ]B
B − xI).

Caso 1: En este caso χU (x) = det([T ]B


B −xI) = (a−x) +b = x −2ax+a +b = x −2ax+1,
2 2 2 2 2 2

con discriminante
 ∆ = 4a − 4 = 4(a − 1) = −4b . Si a = ±1 entonces, b = 1 − a = 0 y se sigue
2 2 2 2 2

1 0
que [T ]B
B =± . Si no, χU no tiene raíces reales.
0 1
Por otro lado, como a2 + b2 = 1, existe θ ∈ [0, 2π) tal que a = cos θ, b = sin θ. Luego,
cos θ − sin θ

[T ]B
B = . Eventualmente, cambiando la base {v1 , v2 } por {v1 , −v2 } (que también
sin θ cos θ
es una bon de R ) podemos 
2
tomar θ ∈ [0, π]. 
cos θ − sin θ
En este caso, U = [M ]E ([M ]E
B)
−1
. Entonces
B sin θ cos θ

det(U ) = det([M ]E
B [T ]B ([M ]B )
B E −1
) = det([M ]EB ) det([M ]E )
B −1
det([T ]B
B)
cos θ − sin θ
 
= det = cos θ2 + sin θ2 = 1.
sin θ cos θ

Además,

tr(U ) = tr([M ]EB [T ]B ([M ]B )


B E −1
) = tr([T ]B
B ([M ]B )
E −1
[M ]E
B)
cos θ − sin θ
 
= tr([T ]B
B ) = tr( ) = 2 cos θ.
sin θ cos θ

Caso 2: En este caso χU (x) = det([T ]B


B − xI) = (a − x)(−a + x) − b = x − a − b = x − 1,
2 2 2 2 2

entonces los autovalores de U son λ1 = 1 y λ2 = −1. Sea w1 ∈ Sλ=1 tal que kw1 k = 1
y sea w2 ∈ Sλ=−1 tal que kw2 k = 1. Entonces B 0 := {w1 , w2 } es una bon de R2 tal que
0 1 0
[T ]B
B0 = . Operando como en el caso anterior, nos queda que det(U ) = det([T ]B
B ) = −1
0 −1
y tr(U ) = tr([T ]B
B ) = 1 − 1 = 0. 

Orientación del ángulo de rotación.


Sea U ∈ R2×2 una matriz ortogonal y sea T (x) = U x la isometría asociada. Como vimos
en la Proposición 5.3.1, si tenemos una rotación, sabiendo tr(U ) podemos determinar el
ángulo de rotación θ de manera que θ ∈ [0, π]. Sólo nos resta determinar si el ángulo se toma
con signo positivo o negativo, dependiendo de la orientación que estemos tomando. Para
determinar el ángulo de rotación y su signo  (respecto de la base canónica de R ), tomamos
2

1
la base B 0 := {e1 , U e1} donde e1 = . Calculamos det([M ]E B 0 ), donde [M ]B 0 es la
E
0
matriz de cambio de base de B 0 a E (la base canónica de R2 ). Si det([M ]E B 0 ) > 0 entonces
θ = + arc cos( tr(U
2
)
). Si det([M ] E
B 0 ) < 0 entonces θ = − arc cos( tr(U )
2 ).

Ejercicio 5.1. Comprobar que las siguientes matrices U ∈ R2×2 son ortogonales

3 4
 
U1 = 51
;
−4 3

4 3
 
U2 = 15 .
3 −4

243
5. Matrices Unitarias

En cada caso caracterizar la isometría T : R2 → R2 definida por Ti (x) := Ui x con i = 1, 2.

Dem. Observar que en todos los casos las columnas de cada matriz U1 y U2 forman una base
ortonormal de R2 . Por lo tanto, por la Propoposición 5.1.1, las matrices son ortogonales.
3 4
 
Consideremos la isometría definida por T1 (x) := U1 x. Como det(U1 ) = det( 5 1
)=
−4 3
1
(9 + 16) = 1, por la Proposición 5.3.1, T1 define una rotación de ángulo θ = arc cos( tr(U 1)
2 ) =
25
arc cos( 35 ) ó θ = − arc cos( 35 ).
Para determinar el signo de θ (respecto de  la base canónica de R2 ), tomamos la base
1 3

B 0 := {e1 , U1 e1} donde e1 = y U1 e1 = 51 . Calculamos
0 −4

1 3 4
 
det([M ]B 0 ) = det
E 5 = − < 0.
0 − 54 5

Entonces θ = − arc cos( 53 ).


Consideremos la isometría definida por T2 (x) := U2 x. Como det(U2 ) = −1, por la Proposición
5.3.1, T2 es una simetría ortogonal respecto del subespacio

3
 1 3
  
−5
Sλ=1 = nul(U2 − I) = nul( 5 ) = gen{ }.
3
5
−9
5 1

Proposición 5.3.2. Sea U ∈ R3×3 ortogonal y consideremos la transformación lineal T (x) := U x.


Entonces, λ = 1 ó λ = −1 es una autovalor de U y T es una rotación, una simetría o una
composición de ambas.
Más aún, si λ = 1 es un autovalor de U, existe una bon B = {v1 , v2 , v3 } de R3 , tal que

1 0 0
 

[T ]B
B =
 0 cos θ − sin θ  ,
0 sin θ cos θ

con θ ∈ [0, π]. En ese caso det(U ) = 1, tr(U ) = 1 + 2 cos θ y T es una rotación de ángulo θ con eje
de rotación dado por el subespacio Sλ=1 .
Ó, existe una bon B = {v1 , v2 , v3 } de R3 , tal que

1 0 0
 

[T ]B
B =
 0 1 0 .
0 0 −1
En ese caso det(U ) = −1, tr(U ) = 1 y T es una simetría ortogonal respecto del subespacio S = Sλ=1
el autoespacio asociado al autovalor λ = 1.
Si λ = 1 no es autovalor de U entonces λ = −1 es un autovalor de U y existe una bon
B = {v1 , v2 , v3 } de R3 , tal que

0 0
 
−1
[T ]B
B =  0 cos θ − sin θ  ,
0 sin θ cos θ

con θ ∈ [0, π]. En ese caso det(U ) = −1, tr(U ) = −1 + 2 cos θ y T es la composición de una rotación

de ángulo θ con eje de rotación Sλ=−1 y una simetría respecto de Sλ=−1 .

Dem. El polinomio característico de U es un polinomio de grado 3 con coeficientes reales, es decir


χU ∈ R3 [x]. Por el Teorema Fundamental del Álgebra, χU tiene 3 raíces y como los coeficientes de
χU son reales hay dos opciones: las 3 raíces de χU son reales ó el polinomio característico χU tiene

244
5.3. Clasificación de transformaciones ortogonales

1 raíz real y dos raíces complejas conjugadas. Conclusión, χU al menos tiene una raíz λ1 ∈ R. Por
lo tanto, U tiene al menos un autovalor λ1 ∈ R y, como vimos que |λ1 | = 1, se sigue que λ1 = 1 ó
λ1 = −1.
Supongamos que λ1 = 1. Sea B = {v1 , v2 , v3 } una bon de R3 tal que U v1 = v1 , es decir con v1
un autovector asociado a λ1 = 1 (que ya vimos que es un autovalor posible). Como {v1 , v2 , v3 } es
una bon de R3 , tenemos que gen{v2 , v3 } = gen{v1 }⊥ . Entonces, usando que v1 = U v1 , tenemos
que
h U (v2 ), v1 i = h U v2 , U v1 i = v2 , U T U v1 = h v2 , v1 i = 0.

Entonces U (v2 ) ∈ gen{v1 }⊥ = gen{v2 , v3 }. De la misma manera,

h U (v3 ), v1 i = h U v3 , U v1 i = v3 , U T U v1 = h v3 , v1 i = 0.

Entonces U (v3 ) ∈ gen{v1 }⊥ = gen{v2 , v3 }.


Por lo tanto, existen a, b, c, d ∈ R tales que U (v2 ) = av2 + bv3 y U (v3 ) = a0 v2 + b0 v3 . Entonces,
como U es ortogonal, por la Proposición 5.1.1 y usando que h vi , vj i = δij , tenemos que

1 = h v2 , v2 i = h U v2 , U v2 i = h av2 + bv3 , av2 + bv3 i = a2 + b2 ,

1 = h v3 , v3 i = h U v3 , U v3 i = h a0 v2 + b0 v3 , a0 v2 + b0 v3 i = a02 + b02 y
0 = h v2 , v3 i = h U v2 , U v3 i = h av2 + bv3 , a0 v2 + b0 v3 i = ab0 + bb0 .
Entonces, despejando nos queda que a = b0 y a0 = −b ó a = −b0 y a0 = b. Entonces, reemplazando,
nos queda que U (v3 ) = a0 v2 + b0 v3 = −bv2 + av3 ó U (v3 ) = a0 v2 + b0 v3 = bv2 − av3 .
Por lo tanto,
1 0 0
 

[T ]B
B = [[U (v1 )] [U (v2 )] [U (v3 )] ] =
B B B  0 a −b 
0 b a
ó
1 0 0
 

[T ]B
B = [[U (v1 )] [U (v2 )]
B B
[U (v3 )]B ] =  0 a b .
0 b −a
Entonces, de la misma manera que hicimos en la Proposición 5.3.1, tenemos uno de los siguientes
casos
1 0 0
 

[T ]B
B =
 0 cos θ − sin θ  , para cierto θ ∈ [0, π]. En este caso, det(U ) = 1, tr(U ) =
0 sin θ cos θ
1 + 2 cos θ y T es una rotación de ángulo θ con eje de rotación dado por el subespacio Sλ=1 .
1 0 0
 

[T ]B
B =
 0 1 0  . En este caso, det(U ) = −1, tr(U ) = 1 y T es una simetría respecto
0 0 −1
del subespacio S = Sλ=1 el autoespacio asociado al autovalor λ = 1.
Finalmente, supongamos que λ1 = −1 y 1 no es autovalor de U. Sea B = {v1 , v2 , v3 } una bon
de R3 tal que U v1 = −v1 , es decir con v1 un autovector asociado a λ1 = −1 (que ya vimos que es
un autovalor posible). Como {v1 , v2 , v3 } es una bon de R3 , de manera anáologa a lo hecho en el
caso anterior, se sigue que, para cierto θ ∈ [0, π],

0 0 −1 0 0 1 0 0
     
−1
[T ]B
B =
 0 cos θ − sin θ  =  0 1 0   0 cos θ − sin θ 
0 sin θ cos θ 0 0 1 0 sin θ cos θ

y tenemos que T es una rotación compuesta con una simetría. En este caso, det(U ) = −1,
tr(U ) = −1 + 2 cos θ y T es la composición de una rotación de ángulo θ con eje de rotación Sλ=−1
y una simetría respecto de Sλ=−1

. 

245
5. Matrices Unitarias

Orientación del ángulo de rotación.


Sea U ∈ R3×3 una matriz ortogonal y sea T (x) = U x la isometría asociada. Como vimos en
la Proposición 5.3.2, si tenemos una rotación o una rotación compuesta con una simetría,
sabiendo tr(U ) podemos determinar el ángulo de rotación θ de manera que θ ∈ [0, π]. Sólo
nos resta determinar si el ángulo se toma con signo positivo o negativo, dependiendo de
la orientación que estemos tomando. Si T es una rotación (det(U ) = 1), para determinar
el ángulo de rotación y su signo (respecto de la base canónica de R3 ), tomamos la base
B 0 := {v1 , v2 , U v2 } donde v1 es un autovector asociado a λ = 1 y v2 es un vector ortogonal
a v1 . Calculamos det([M ]E B 0 ), donde [M ]B 0 es la matriz de cambio de base de B a E (la
E 0
tr(U )−1
base canónica de R ). Si det([M ]B 0 ) > 0 entonces θ = + arc cos( 2 ). Si det([M ]E
3 E
B0 ) < 0
tr(U )−1
entonces θ = − arc cos( 2 ).
Por otro lado, si T es una rotación compuesta con una simetría (det(U ) = −1), para
determinar el ángulo de rotación y su signo (respecto de la base canónica de R3 ), tomamos
la base B 0 := {v1 , v2 , U v2 } donde v1 es un autovector asociado a λ = −1, y v2 es un vector
ortogonal a v1 . Calculamos det([M ]E B 0 ), donde [M ]B 0 es la matriz de cambio de base de
E

B a E (la base canónica de R ). Si det([M ]B 0 ) > 0 entonces θ = + arc cos( tr(U2)+1 ). Si


0 3 E
tr(U )+1
det([M ]E
B 0 ) < 0 entonces θ = − arc cos( 2 ).

Ejercicio 5.2. Comprobar que las siguientes matrices U ∈ R3×3 son ortogonales

2 3
 
−6
U1 = 1
7
 −6 −3 −2  .
3 −2 −6

6 3
 
−2
U2 = 1  6 3 −2  .
7
−3 2 −6

2 3
 
−6
U3 = 1
7
 −6 −2 −3  .
3 −6 −2

En cada caso caracterizar la isometría T : R3 → R3 definida por Ti (x) := Ui x con i = 1, 2, 3.

Dem. Observar que en todos los casos las columnas de cada matriz U forman una bon de R3 . Por
lo tanto, por la Propoposición 5.1.1, las matrices son ortogonales.
Consideremos T1 (x) := U1 x. Calculamos el polinomio característico de U1 :

2 −6 3
 
7 −x 7 7
χU1 (x) = det(U1 − xI) = det  −6
7
−3
7 − x −2
7
 = −x3 − x2 + x + 1.
3 −2 −6
7 7 7 − x

Los autovalores de A son las raíces de χU1 y son λ1 = 1, λ2,3 = −1. Entonces, det(U1 ) =
λ1 λ2 λ3 = 1. Por lo tanto, por la Propoposición 5.3.2, T1 es una rotación. Para obtener el eje de
rotación, calculamos:

−5 −6 3
3
   
7 7 7
Sλ=1 = nul(U1 − I) = nul(  −6
7
−10
7
−2
7
) = gen{  −2 }.
3
7
−2
7
−13
7
1

246
5.3. Clasificación de transformaciones ortogonales

3
 

Entonces el eje de rotación es el subespacio gen{  −2 }. Finalmente, como tr(U1 ) = −1, el
1
tr(U1 )−1
ángulo de rotación es θ = arc cos( 2 ) = arc cos(−1) = π. En este  caso, también podemos decir
3
que T1 es la simetría ortogonal respecto de la recta Sλ=1 = gen{  −2 }.
1
Consideremos T2 (x) := U2 x. Calculamos el polinomio característico de U2 :
 −2 6 3

7 −x
 = −x3 − 5 x2 + 5 x + 1.
7 7
χU2 (x) = det(U2 − xI) = det  6 3
7 −x
−2
7
−3 2 −6
7 7 7
7 7 7 −x

Los autovalores de A son las raíces de χU2 y son λ1 = 1, λ2,3 = 17 (−6 ± i 13). Entonces,
det(U2 ) = λ1 λ2 λ3 = 1. Por lo tanto, por la Propoposición 5.3.2, T2 es una rotación. Para obtener
el eje de rotación, calculamos:
2
 −9 6 3
  
7 7 7
Sλ=1 = nul(U2 − I) = nul(  67 −4
7
−2 
7 ) = gen{  3 }.
−3
7
2
7
−13
7
0

2
 

Entonces el eje de rotación es el subespacio gen{  3 }. Finalmente, como tr(U2 ) = − 75 , el


0
ángulo de rotación es θ = arc cos( tr(U22 )−1 ) = + arc cos(− 67 ) ó θ = − arc cos(− 67 ). Para determinar
el signo de 
θ (respecto de la base canónica de R3 ), tomamos  labase B := {v1 , v2 , U2 v2 } donde
0

2 3
v1 =  3  es un autovector asociado a λ = 1, v2 =  −2  es un vector ortogonal a v1 y
0  0
−18
U2 v2 = 17  12  . Calculamos det([M ]E B 0 ), donde [M ]B 0 es la matriz de cambio de base de B a
E 0

−13
E (la base canónica de R3 ). Luego
2 3 − 18
 
 3 −2
7 169
det[M ]E
B 0 = det
12 
= > 0.
7 7
0 0 −7 13

Entonces θ = arc cos(− 67 ).


Consideremos T3 (x) := U3 x. Calculamos el polinomio característico de U3 :
−6
 2 3

7 −x
 = −x3 − 2 x2 − 2 x − 1.
7 7
χU3 (x) = det(U3 − xI) = det  −6 −2
7 −x
−3
7
3 −6 −2
7 7 7
7 7 7 −x

Los autovalores de A son las raíces de χU3 y son λ1 = −1, λ2,3 = 14 1
(5 ± i3 19). Entonces,
det(U3 ) = λ1 λ2 λ3 = −1. Por lo tanto, por la Propoposición 5.3.2, T3 es una rotación compuesta
por una simetría. Para obtener el eje de rotación, calculamos:
−6
1
 9 3
  
7 7 7
Sλ=−1 = nul(U3 + I) = nul(  −67
5
7
−3 
7 ) = gen{  3 }.
3
7
−6
7
5
7
3
Entonces
 T3 es una rotación compuesta por una simetría: el eje de rotación es el subespacio
1
gen{  3 } y, como tr(U3 ) = − 27 , el ángulo de rotación es θ = arc cos( tr(U23 )+1 ) = arc cos( 14
5
)
3

247
5. Matrices Unitarias

1
 

ó θ = − arc cos( 145


). Por otra parte, la simetría es respecto del subespacio gen{  3 }⊥ =
3
3 0
   

gen{  −1  ,  −1 }. Para determinar el signo de θ (respecto de la base canónica de R3 ),


0 1
1
 

tomamos la base B 0 := {v1 , v2 , U3 v2 } donde v1 =  3  es un autovector asociado a λ = −1,


3
   
−3 −3
v2 =  1  es un vector ortogonal a v1 y U3 v2 = 17  16  . Calculamos det([M ]E B 0 ), donde
0 −15
[M ]E
B 0 es la matriz de cambio de base de B a E (la base canónica de R ). Luego
0 3

1 −3 − 37
 
 3 1 285
det[M ]E
B 0 = det
16 
=− < 0.
7 7
3 0 − 157

Entonces θ = − arc cos( 14


5
). 

Ejercicio 5.3.
1
 

a) Hallar la matriz de rotación de ángulo π3 alrededor del eje generado por  1  .


1
1 1
   

b) Hallar la simetría ortogonal respecto del subespacio S = gen{  1  ,  −1 }.


1 0

1
 

Dem. a): Sea T : R3 → R3 la rotación de ángulo π3 alrededor del eje generado por  1  . Sea
1
E la base canónica de R3 , el ejercicio nos pide U := [T ]E
E . Una forma de obtener la matriz
 U es
1
primero obtener una bon de R3 que contenga al eje de rotación. Para eso, si S := gen{  1 }
1
1 1
   

entonces S ⊥ = gen{  −1   0 }. Ahora, obtenemos una base ortogonal de S ⊥ usando


0 −1
Gram-Schmidt. En ese caso
*  1   1 +
 0  ,  −1 
1 1 1 1
         1 
−1 0 1 2
w2 =  0  −  −1  =  0  −  −1  =  12  .
1 2
 
−1 0 −1 0 −1
k  −1  k2
0
1 1
   
1
 −1  , √  1 } es una bon de S ⊥
Por lo tanto { √12 y
0 6 −2
1 1 1
     
1   1  1
B := { √ 1 ,√ −1  , √  1 }
3 1 2 0 6 −2

248
5.3. Clasificación de transformaciones ortogonales

es una bon de R3 que contiene al eje de rotación. Ahora veamos que la base B está bien orientada
respecto de la base canónica, para eso calculamos el determinante de la matriz de cambio de base
[M ]E
B :
√1 √1 √1
 
3 2 6
det([M ]E √1 − √12 √1
B ) = det   = 1 > 0.
 
3 6
√1
3
0 − √26
Como det([M ]EB) = 1 (es positivo) la base B está bien orientada, si nos hubiera dado que
det([M ]E
B ) = −1 entonces basta con cambiarle el signo a uno de los vectores de la base para
obtener una base bien orientada. Por la Proposición 5.3.2, tenemos que como θ = π3 , entonces
1 0 0√
 
1 0 0
 

[T ]B
B =
 0 cos θ − sin θ  =   0 √12 − 23  .

0 sin θ cos θ 0 23 1
2

Para obtener U = [T ]E E solo nos resta realizar un cambio de base. Observar que como B
es una bon de R3 entonces la matriz de cambio de base [M ]E B es ortogonal, por lo tanto
[M ]B
E = ([M ] )
E −1
B = ([M ] E )
B T
. Entonces
U = [T ]E
E = [M ]B [T ]B [M ]E = [M ]B [T ]B ([M ]B )
E B B E B E T
 1
√1 √1 1 0 0 √1 √1 √1
    


 3 2 6 3 3
0
3
=  √13 − √12 √1 0 √12 − 23   √1 − √12
    
6   2 
√1
3
0 2
− √6 0 23 1
2
√1
6
√1
6
− √26
2 −1 2
 
1 
= 2 2 −1  .
3
1 2 2
1 1

  

b): Sea T : R3 → R3 la simetría ortogonal respecto del subespacio S = gen{  1  ,  −1 }.


1 0
Sea E la base canónica de R3 , el ejercicio nos pide U := [T ]E
E . Una forma de obtener la matriz U es
primero obtener una bon de R3 que contenga los generadores de S. En la parte a) vimos que
1 1 1
     
1  1 1
B := { √ 1  , √  −1  , √  1 }
3 1 2 0 6 −2
es una bon de R3 que contiene a los generadores de S. Como T es la simetría ortogonal respecto de
S, se sigue que
1 1
   
1   1 
T(√ 1 )= √ 1 ,
3 1 3 1
1 1
   
1  1
T(√ −1 ) = √  −1  ,
2 0 2 0
1 1
   
1  1
T(√ 1 ) = − √  1  .
6 −2 6 −2

Entonces, es claro que


√1 √1 − √16
 
3 2
[T ]E √1 − √12 − √16 
B =  .

3
√1
3
0 √2
6

249
5. Matrices Unitarias

Para obtener U = [T ]E E solo nos resta realizar un cambio de base. Observar que como B es una bon
de R3 , la matriz de cambio de base [M ]E B es ortogonal, por lo tanto [M ]E = ([M ]B )
B E −1
= ([M ]B
E) .
T

Entonces
 1
√1 − √16
  1
√1 √1

√ √
2 −1 2
 
3 2 3 3 3
1
U = [T ]EE = [T ]B [M ]E = 
E B  √1 1 1 1
− √2 − √6   √2 − √2
  1
0  =  −1 2

2 .
3 3
√1 0 √2 1
√ √1
− 6
√2 2 2 −1
3 6 6 6

Ejercicio 5.5. Sea A ∈ R3×3 tal que v1 = [1 1 1]T , v2 = [1 − 1 0]T , v3 = [0 1 − 1]T , es una base
de autovectores de A asociados a los autovalores λ1 , λ2 , λ3 ∈ R, respectivamente. Probar que A es
simétrica si y sólo si λ2 = λ3 .

Dem. Supongamos que A es simétrica. Entonces A = AT . Entonces, usando que Av2 = λ2 v2 ,


Av3 = λ3 v3 y que λ2 , λ3 ∈ R se sigue que

λ2 h v2 , v3 i = h λ2 v2 , v3 i = h Av2 , v3 i = v2 , AT v3 = h v2 , Av3 i = h v2 , λ3 v3 i = λ3 h v2 , v3 i .

1


Entonces, como h v2 , v3 i = v3T v2 = [0 1 − 1]  −1  = −1, tenemos que


0

0 = (λ2 − λ3 ) h v2 , v3 i = (λ2 − λ3 )(−1) = λ3 − λ2 .

Por lo tanto λ2 = λ3 .
Recíprocamente, supongamos que λ2 = λ3 . Entonces, como {v1 , v2 , v3 } es una base R3 y además,
para todo a, b, c ∈ R,

h av1 , bv2 + cv3 i = ab h v1 , v2 i + ac h v1 , v3 i = ab(v1T v2 ) + ac(v1T v2 )


1 0
   

= ab [1 1 1]  −1  + ac [1 1 1]  1  = 0.
0 −1

Tenemos que
gen{v1 } = gen{v2 , v3 }⊥
y además, Sλ=λ1 = gen{v1 } y Sλ=λ2 = gen{v2 , v3 }. Busquemos bases ortonormales de ambos
autoespacios. Por un lado, { √13 [1 1 1]T } es una bon de Sλ=λ1 y, usando el algoritmo de Gram-
Schmid, podemos obtener una bon del autoespacio Sλ=λ2 . De hecho, tomamos u2 = v2 = [1 − 1 0]T
y
h u2 , v3 i −1 1 1
u3 = v3 − u2 = [0 1 − 1]T − [1 − 1 0]T = [ − 1]T .
ku2 k2 2 2 2
Entonces { √12 [1 − 1 0]T , √16 [1 1 − 2]T } es una bon de Sλ=λ2 .
 1 1 1

√ √ √
3 2 6
√1 −1 √1
Tomemos U :=  √  . Entonces, como las columnas de U son una bon de R3 ,
 
3 2 6
√1
3
0 −2

6
por la Proposición 5.1.1, U es una matriz ortogonal y además, tenemos que

λ1 0 0
 

A = U  0 λ2 0  U T .
0 0 λ2

250
5.3. Clasificación de transformaciones ortogonales

Entonces
λ1 0 0 0 0
   
λ1
AT = (U  0 λ2 0  U T )T = (U T )T (  0 λ2 0 )T U T
0 0 λ2 0 0 λ2
λ1 0 0
 

= U  0 λ2 0  U T = A
0 0 λ2

y A resulta simétrica. 
Antes de resolver el próximo ejercicio, recordemos que si (V, k · k) es un espacio normado y
(vn )n∈N una sucesión de elementos de V, decimos que la sucesión (vn )n∈N es convergente si existe
v0 ∈ V tal que
lı́m kvn − v0 k = 0,
n→∞

ó, equivalentemente, si para cada ε > 0 existe N0 ∈ N tal que

kvn − v0 k < ε,

para todo n ≥ N0 . En este caso, escribimos

lı́m vn = v0 .
n→∞

Además, sea A ∈ Kn×n recordemos que si λ ∈ K es un autovalor de A con autovector asociado


v ∈ Kn entonces
Ak v = λ k v (5.2)
13 −2 −4
 

Ejercicio 5.8. Para A = 181 


−2 10 2 ,
−4 2 13

0
 

a) Hallar {x ∈ R3 : lı́m Ak x =  0 }.


k→∞
0
 
−2
b) Comprobar que  1  ∈ { lı́m Ak x : x ∈ R3 } y hallar todas las soluciones de la ecuación
k→∞
 2
−2
lı́m Ak x =  1  .
k→∞
2

Dem. a) : Primero, calculamos el polinomio característico de A :

13 − x
 
−2 −4
1 
χA (x) = det(A − xI) = det( −2 10 − x 2 ) =
18
−4 2 13 − x
5x 1
= −x3 + 2x2 − + .
4 4
Los autovalores de A son las raíces de χA y son λ1 = 1, λ2,3 = 12 . Para obtener los autoespacios
asociados, calculamos:
 −5 −1 −2   
18 9 9 −2
Sλ=1 = nul(A − I) = nul(  −1 9
−4
9
1 
9 ) = gen{  1 }.
−2
9
1
9
−5
18
2

251
5. Matrices Unitarias

2 −1 −2
1 1
    
1 9 9 9
) = gen{  0  ,  2 }.
Sλ= 12 = nul(A − I) = nul(  −1 1 1
2 9 18 9
−2
9
1
9
2
9
1 0

1 1
     
−2
Si tomamos B := {  1  ,  0  ,  2 } entonces B es una base (de autovectores) de R3 .
2 1 0
Calculemos entonces lı́m Ak x para cada x ∈ R3 . Sea x ∈ R3 , como B es una base (de autovectores)
k→∞
1 1
     
−2
de R3 existen (únicos) a, b, c ∈ R tales que x = a  1  + b  0  + c  2  . Entonces, usando
2 1 0
(5.2),

1 1
     
−2
Ak x = aAk  1  + bAk  0  + cAk  2 
2 1 0
1 1
     
−2
1  0  + c( 1 )k
= a(1)k  1  + b( )k  2 
2 2
2 1 0
1 1
     
−2
1
= a  1  + k (b  0  + c  2 ).
2
2 1 0

0
  
−2
Usando que lı́m 21k = 0, tenemos que lı́m Ak x = a  1  . Por lo tanto, lı́m Ak x =  0  si y
k→∞ k→∞ k→∞
2 0
sólo si a = 0. Entonces

0 1 1
     

{x ∈ R3 : lı́m Ak x =  0 } = {x ∈ R3 : x = b  0  + c  2  b, c ∈ R}
k→∞
0 1 0
1 1
   

= gen{  0  ,  2 } = Sλ= 21 .
1 0
 
−2
b) : Tal como vimos en el item a), si x ∈ R3 , existen a, b, c ∈ R tales que x = a  1  +
2
1 1
   

b  0  + c  2  . Entonces
1 0

1 1
       
−2 −2
1
lı́m Ak x = lı́m (a  1  + k (b  0  + c  2 )) = a  1  .
k→∞ k→∞ 2
2 1 0 2
 
−2
Por lo tanto, es claro que  1  ∈ { lı́m Ak x : x ∈ R3 } (tomando a = 1). Por otra parte,
k→∞
2 
−2
tal como vimos arriba, lı́m Ak x =  1  si y sólo si a = 1 y b, c ∈ R. Por lo tanto, todas las
k→∞
2

252
5.4. Matrices definidas y semidefinidas positivas

 
−2
soluciones de la ecuación lı́m Ak x =  1  son
k→∞
2

1 1
     
−2
xsol =  1  + b  0  + c  2  b, c ∈ R.
2 1 0


5.4. Matrices definidas y semidefinidas positivas


En esta sección veremos las definiciones de matrices definidas (semidefinidas) positivas, negativas
e indefinidas y demostraremos varias propiedades útiles.
Definición. Sea A ∈ Cn×n hermítica, es decir A∗ = A, decimos que:
A es definida positiva si h Ax, x i > 0, para todo x ∈ Cn \ {0}.
A es semidefinida positiva si h Ax, x i ≥ 0, para todo x ∈ Cn .
A es definida negativa si h Ax, x i < 0, para todo x ∈ Cn \ {0}.
A es semidefinida negativa si h Ax, x i ≤ 0, para todo x ∈ Cn .
A es indefinida si no es ninguna de las anteriores.
Observar que para que tenga sentido la definición anterior es necesario que A sea hermítica, es
decir A∗ = A. En ese caso, recordemos que h Ax, x i = h x, A∗ x i = h x, Ax i = h Ax, x i y entonces
h Ax, x i ∈ R.
Proposición 5.4.1. Sea A ∈ Cn×n hermítica, es decir A∗ = A y sean λ1 , λ2 , · · · , λn ∈ R sus
autovalores. Entonces:
A es definida positiva si y sólo si λi > 0 para todo i = 1, 2, · · · , n.
A es semidefinida positiva si y sólo si λi ≥ 0 para todo i = 1, 2, · · · , n.
A es definida negativa si y sólo si λi < 0 para todo i = 1, 2, · · · , n.
A es semidefinida negativa si y sólo si λi ≤ 0 para todo i = 1, 2, · · · , n.
A es indefinida si A tiene algún autovalor negativo y algún autovalor positivo.

Dem. Supongamos que A es definida positiva, entonces h Ax, x i > 0 para todo x ∈ Cn \ {0}. Sea
λi ∈ R un autovalor de A y vi 6= 0 algún autovector asociado tal que Avi = λi vi , entonces:
0 < h Avi , vi i = h λi vi , vi i = λi h vi , vi i ,
entonces como h vi , vi i > 0, se sigue que λi > 0. Concluimos que si A es definida positiva todo
autovalor de A es positivo (mayor estricto que 0).
Recíprocamente, supongamos que todos los autovalores de A son positivos. Es decir λi > 0 para
i = 1, 2, · · · , n. Sea {v1 , v2 , · · · , vn } una bon de autovectores de Cn (existe pues A es hermítica) tal
que Avi = λi vi para i = 1, 2, · · · , n. Sea x ∈ Cn \ {0}, entonces x = a1 v2 + a2 v2 + · · · + an vn con
a1 , a2 , · · · , an ∈ C no todos nulos. Entonces
h Ax, x i = h A(a1 v2 + a2 v2 + · · · + an vn ), a1 v2 + a2 v2 + · · · + an vn i
= h a1 Av1 + a2 Av2 + · · · + an Avn , a1 v2 + a2 v2 + · · · + an vn i
= |a1 |2 λ1 h v1 , v1 i + |a2 |2 λ2 h v2 , v2 i + · · · + |an |2 λn h vn , vn i
= |a1 |2 λ1 + |a2 |2 λ2 + · · · + |an |2 λn > 0,

253
5. Matrices Unitarias

y A resulta definida positiva.


De manera similar se prueban los demás ítems. 

Submatrices principales y un criterio para determinar si una matriz es definida


positiva
A continuación veremos otro criterio para determinar si una matriz es definida positiva, definida
negativa o indefinida. Sea A ∈ Rn×n de la forma
 
a11 a12 · · · a1n
 a21 a22 · · · a2n 
A= . .. .. ..  .
 
 .. . . . 
an1 an2 · · · ann

Denotaremos A(k) a la submatriz principal de Rk×k que se obtiene a partir de la esquina superior
izquierda de A, es decir
 
a11 a12 · · · a1k
 a21 a22 · · · a2k 
A(k) :=  . .. .. ..  ,
 
 .. . . . 
ak1 ak2 ··· akk
para k = 1, 2, · · · , n.  
a11 a12
Por ejemplo A = [a11 ], A =
(1) (2)
y A(n) = A.
a21 a22
Recordemos que si λ1 , λ2 , · · · , λn son los autovalores de A, tenemos que

det(A) = λ1 λ2 · · · λn .

Por lo tanto,

Si A es definida positiva, como todos sus autovalores son positivos, tendremos que det(A) > 0.

Si A es definida negativa, como todos sus autovalores son negativos, tendremos que todos
los autovalores de −A son positivos y entonces −A es definida positiva y por lo tanto,
det(−A) > 0.

Si A es semidefinida, como algún autovalor es nulo, tendremos que det(A) = 0.

Si A es indefinida, no podemos decir nada del det(A).

El siguiente teorema nos provee de otro criterio para determinar si una matriz es definida
positiva, definida negativa o indefinida:
Teorema 5.4.2. Sea A ∈ Rn×n simétrica. Entonces:

1. A es definida positiva si y sólo si det(A(k) ) > 0 para todo k = 1, 2, · · · , n. Es decir, el


determinante de todas las submatrices principales de A es positivo.

2. A es definida negativa si y sólo si (−1)k det(A(k) ) > 0 para todo k = 1, 2, · · · , n. Es decir, el


determinante de todas las submatrices principales de A van alternándose entre negativos y
positivos: det(A(1) ) < 0, det(A(2) ) > 0, etc.

3. A es indefinida si existe k ∈ {1, 2, · · · , n} tal que det(A(k) ) rompe el patrón. Es decir, si por
ejemplo, det(A(1) ) > 0, · · · , det(A(k−1) ) > 0 y luego tenemos que det(A(k) ) < 0.

254
5.4. Matrices definidas y semidefinidas positivas

Dem. 1. : Lo vamos a probar por inducción en n.


Si n = 1, entonces A = [a11 ] es definida positiva si y sólo si a11 > 0 si y sólo si det([a11 ]) = a11 > 0
y en este caso es válido el teorema.
Hipótesis inductiva (HI): supongamos que el teorema vale para n − 1, es decir: A ∈ R(n−1)×(n−1)
es definida positiva si y sólo si det(A(k) ) > 0 para todo k = 1, 2, · · · , n − 1. Veamos que entonces,
el teorema vale para todo n.
Primero veamos que, por HI, A sólo puede tener como mucho un autovalor negativo. Supongamos
que no, es decir, supogamos queA tiene  dos autovalores negativos.
  Entoces, como A es simétrica,
u1 v1
existen dos autovectores u =  ...  ∈ Rn \ {0}, v =  ...  ∈ Rn \ {0} asociados a dichos
   

un vn
autovalores negativos, que son ortogonales entre sí, es decir h u, v i = uT v = v T u = 0.
Sea
w := vn u − un v 6= 0.
Entonces      
w1 vn u1 − un v1 vn u1 − un v1
w =  ...  =  ..
. = 
..
. ,
     

wn vn un − un vn 0
entonces wn = 0. Por lo tanto (comprobarlo haciendo la cuenta):
   
* w1 w1 +
h Aw, w i = A(n−1)  .
.. .
..
,   >0
   

wn−1 wn−1

donde usamos que, por HI, A(n−1) ∈ R(n−1)×(n−1) es definida positiva. Por otra parte (verificarlo
haciendo la cuenta y recordando que uT v = v T u = 0):

h Aw, w i = (vn u − un v)T A(vn u − un v) = vn2 (uT Au) + u2n (v T Av) = vn2 h Au, u i + u2n h Av, v i < 0,

pues u y v eran autovectores asociados a autovalores negativos.


Entonces h Aw, w i > 0 y h Aw, w i < 0, lo cual es absurdo. Entonces, A tiene a lo sumo 1
único autovalor negativo. Pero eso tampoco puede pasar. Supongamos que A tiene un autovalor
negativo, entoces det(A) = λ1 · · · λn < 0 pues tendríamos el producto de n − 1 autovalores positivos
y uno negativo. Pero estamos suponiendo que det(A) = det(A(n) ) > 0, entonces tenemos otra
contradicción. Tampoco A puede tener algún autovalor nulo porque en ese caso, obtendríamos
que det(A) = 0 y estamos suponiendo que det(A) > 0. Por lo tanto, A tiene todos sus autovalores
positivos. Entonces, probamos por inducción que A es definida positiva.
Recíprocamente, si A es definida positiva, tenemos que h Ax, x i > 0 para todo x ∈ Rn \ {0}.
Sea x ∈ Rn \ {0} y tomemos x(k) := [x1 x2 · · · xk ]T , es decir x(k) es el vector de Rk igual a x hasta
la componente k. Entonces
D E

A(k) x(k) , x(k) = A[x1 x2 · · · xk 0 · · · 0]T , [x1 x2 · · · xk 0 · · · 0]T > 0


para todo x(k) ∈ Rk \ {0} y todo k = 1, 2, · · · , n. Entonces, A(k) es definida positiva para todo
k = 1, 2, · · · , n. Por lo tanto, det(A(k) ) > 0 para todo k = 1, 2, · · · , n y probamos lo que queríamos.
2. : Esta condición se prueba aplicando el item 1 a la matriz −A (A es definida negativa si y
sólo si −A es definida positiva) y recordando que

det((−A)(k) ) = det(−A(k) ) = (−1)k det(A(k) ),

pues A(k) ∈ Rk×k .


3. : Recordando el paso inductivo en el item 1 vimos que, si por ejemplo,

det(A(1) ) > 0, · · · , det(A(k−1) ) > 0

255
5. Matrices Unitarias

entonces A(k) tiene sólo un autovalor negativo. Por ende, A(k) es indefinida (tiene k − 1 autovalores
positivos y uno negativo) y entonces A también es indefinida. 

Observar que si existe algún k ∈ {1, 2, · · · , n} tal que det(A(k) ) = 0 el Teorema 5.4.2 es
inconcluso.

5.5. Descomposición en valores singulares


Sea A ∈ Cm×n entonces la matriz A∗ A ∈ Cn×n es hermítica y semidefinida positiva. De hecho

(A∗ A)∗ = A∗ (A∗ )∗ = A∗ A,

entonces A∗ A es hermítica. Por otro lado, tenemos que

h A∗ Ax, x i = h Ax, Ax i = kAxk2 ≥ 0, para todo x ∈ Cn .

Entonces A es semidefinida positiva y, por la Proposición 5.4.1, si λ ∈ R es un autovalor de A


entonces λ ≥ 0.
Definimos, el i−ésimo valor singular de A como

1/2
σi := λi ,
donde λi es el i-ésimo autovalor de AT A.

Definición. Sea A ∈ Cm×n , una descomposición en valores singulares (DVS) de A es una


factorización
A = U ΣV ∗ ,
0r×n−r
 
D
con U ∈ C m×m
y V ∈ C n×n
unitarias y Σ ∈ R m×n
con Σ = donde
0m−r×r 0m−r×n−r
σ1 0 · · · 0
 
 0 σ2 · · · 0 
D= . .. . . ..  ∈ Rr×r con σ1 ≥ σ2 ≥ · · · ≥ σr > 0, los valores singulares no nulos de
 
 .. . . . 
0 0 · · · σr
A.
Si A ∈ Rm×n entonces en la DVS de A tendremos que U ∈ Rm×m y V ∈ Rn×n son ortogonales
y A = U ΣV T .
El próximo teorema nos brinda un algoritmo para obtener una DVS de cualquier matriz.
Teorema 5.5.1. Sea A ∈ Cm×n entonces existe una DVS de A.

Dem. Sean λ1 ≥ λ2 ≥ · · · ≥ λn ≥ 0 los n autovalores de A∗ A (contados con multiplicidad) y


{v1 , v2 , · · · , vn } una bon de Cn tal que A∗ Avi = λi vi para todo i = 1, 2, · · · , n (existe pues A∗ A
es hermítica y por ende diagonalizable unitariamente). Entonces, definimos V y Σ de la siguiente
manera:
V := [v1 v2 · · · vn ] ∈ Cn×n
que es unitaria (pues sus columnas son una bon de Cn ),

0 0
 
σ1 ···

D 0r×n−r
  0 σ2 ··· 0 
Σ= donde D =  .. .. .. ..  ∈ Rr×r ,
 
0m−r×r 0m−r×n−r  . . . . 
0 0 ··· σr

256
5.5. Descomposición en valores singulares

con σ1 ≥ σ2 ≥ · · · ≥ σr > 0, los valores singulares no nulos de A.


Para definir U, consideremos los vectores
Av1 Av2 Avr
u1 := , u2 := , · · · , ur := .
σ1 σ2 σr
Observar que,
(
λj si i = j
h Avi , Avj i = h vi , A Avj i = h vi , λj vj i = λj h vi , vj i =

.
0 si i 6= j

Entonces,
λj
= = 1 si i = j
( 1
1 σj σj λ j σj2
h ui , uj i = h vi , A∗ Avj i = .
σi σj 0 si i 6= j
Por lo tanto, {u1 , u2 , · · · , ur } es un conjunto ortonormal de Cm . Si r < m, buscamos vectores
ur+1 , · · · , um , tales que {u1 , u2 , · · · , um } sea una bon de Cm . Definimos U como

U := [u1 u2 · · · ur · · · um ] ∈ Cm×m

que es una matriz unitaria (pues sus columnas forman una bon de Cm ).
Además, observar que {u1 , u2 , · · · , ur } es una bon de col(A). Para ver eso, como ya vimos que
{u1 , u2 , · · · , ur } es un conjunto ortonormal, sólo nos basta ver que

gen{u1 , u2 , · · · , ur } = gen{Av1 , Av2 , · · · , Avr } = col(A).

Para eso, consideremos la transformación lineal T : Cn → Cm , T (x) = Ax. Entonces,


Im(T ) = col(A) y como {v1 , v2 , · · · , vn } es una base (de autovectores) de Cn , tenemos que

col(A) = Im(T ) = gen{T (v1 ), · · · , T (vn )} = gen{Av1 , · · · , Avn }.

Por otra parte, si i ≥ r + 1, entonces λi = 0 y tenemos que

kAvi k2 = h Avi , Avi i = h vi , A∗ Avi i = λi h vi , vi i = 0,

entonces Avi = 0 y tenemos que

col(A) = Im(T ) = gen{Av1 , · · · , Avn } = gen{Av1 , · · · , Avr }

y probamos lo que queríamos.


Finalmente, veamos que A = U ΣV ∗ . Por un lado,

AV = [Av1 Av2 · · · Avr Avr+1 · · · Avn ] = [σ1 u1 σ2 u2 · · · σr ur 0 · · · 0],

donde usamos que Avi = 0, si i ≥ r + 1.


Por otro lado,
σ1 0 0 0 0
 
··· ···
 0 σ2 ··· 0 0 ··· 0 
 .. .. .. .. .. ..
 
 . . . . . .

··· 
U Σ = [u1 u2 · · · ur · · · um ]  0 0 0 0  = [σ1 u1 · · · σr ur 0 · · · 0].
 
··· σr ···
 0 0 0 0 0
 
··· ··· 
 . .. .. .. .. ..
 
 .. . . . . .

··· 
0 0 ··· 0 0 ··· 0

Por lo tanto, AV = U Σ. Como V −1 = V ∗ , concluimos que A = U ΣV ∗ . 

A partir del Teorema 5.5.1, podemos sacar algunas conclusiones extras:

257
5. Matrices Unitarias

Si A = U ΣV ∗ es una DVS de A. Entonces:


Av1 Av2 Avr
{u2 , u2 , · · · , ur } = { , ,··· , }
σ1 σ2 σr
es una bon de col(A). Por lo tanto,

r = dim(col(A)) = rg(A) = número de valores singulares no nulos.

Como {vr+1 , · · · , vn } es un conjunto ortonormal tal que Avi = 0 si i = r + 1, · · · , n y, por el


Teorema de la Dimensión, dim(nul(A)) = n − rg(A) = n − r, se sigue que

{vr+1 , · · · , vn }

es una bon de nul(A).


3 2 2
 
Ejercicio 5.10 b). Hallar una DVS de la matriz A = .
2 3 −2

Dem. Para resolver este ejercicio, simplemente seguimos los pasos que hicimos en la demostración
del Teorema 5.5.1:
1. Calcular los autovalores de AT A y ordenarlos de mayor a menor. De hecho,

13 12 2
 

AT A =  12 13 −2  .
2 −2 8

Entonces, el polinomio caraceterístico de AT A es

χAT A (x) = −x3 + 34x2 − 225x.

Por lo tanto, los autovalores de AT A (ordenados de mayor a menor) son: λ1 = 25, λ2 =


9, λ3 = 0.
2. Hallar una bon {v1 , v2 , v3 } de R3 de autovectores de AT A tal que AT Avi = λi vi para
i = 1, 2, 3.
De hecho, como nul(AT A − 25I) = gen{[1 1 0]T }, nul(AT A − 9I) = gen{[1 − 1 4]T } y
nul(AT A) = gen{[−2 2 1]T }. Podemos tomar
1 1 1
v1 = √ [1 1 0]T , v2 = √ [1 − 1 4]T , v3 = [−2 2 1]T .
2 3 2 3

3. Calcular los valores singulares de A.


1/2 1/2 1/2
σ1 = λ1 = 251/2 = 5, σ2 = λ2 = 91/2 = 3, σ3 = λ3 = 0/12 = 0.

4. Determinar r el número de valores singulares no nulos de A (que es igual a rg(A)) y para


i = 1, · · · , r definir
Avi
u1 = .
σi

De hecho, r = 2 (el número de valores singulares no nulos). Entonces, como Av1 = √1 [5


2
5]T
y Av2 = 3√1
2
[9 − 9]T , tenemos que

Av1 1 1 1 Av2 1 1 1
u1 = = √ [5 5]T = √ [1 1]T , u2 = = √ [9 − 9]T = √ [1 − 1]T .
σ1 2 5 2 σ2 3 2 3 2

258
5.6. DVS y los subespacios fundamentales de una matriz

5. Si r < m, hallar ur+1 , · · · , um tales que {u1 , · · · , um } es una bon de Rm .


Como en este caso r = 2 = m, este paso no es necesario.

6. Definir las matrices


√1 1
− 32
 
√ " #
2 3 2 √1 √1
V := [v1 v2 v3 ] = 
 √1 1
− 3√ 2
 , U := [u1 u2 ] =
 2 2 ,
2 2 3 √1 − √12
0 4

3 2
1
3
2

5 0 0
 
Σ= .
0 3 0

Entonces,

√1 √1 0
" #  
√1 √1 5 0 0
 2 2
A = U ΣV T = 2 2 1
√ 1
− 3√ 4
√ .
√1 − √12 0 3 0

3 2 2 3 2
2 − 32 2
3
1
3

5.6. DVS y los subespacios fundamentales de una matriz


Sea A ∈ Rm×n tal que rg(A) = r y A = U ΣV T es una DVS de A, donde

V = [v1 · · · vr vr+1 · · · vn ] y U = [u1 · · · ur ur+1 · · · um ].

Entonces, definimos las matrices:

Vr := [v1 · · · vr ], Vn−r := [vr+1 · · · vn ], Ur := [u1 · · · ur ], Um−r := [ur+1 · · · um ].

Entonces:

1. {v1 , · · · , vr } es una bon de col(AT ) = fil(A) y {vr+1 , · · · , vn } es una bon de nul(A). Además,
si E es la base canónica de Rn , tenemos que:

Vr VrT = [Pcol(AT ) ]EE , VrT Vr = Ir , Vn−r Vn−r


T
= [Pnul(A) ]EE , Vn−r
T
Vn−r = In−r .

De hecho, en el Teorema 5.5.1, vimos que {vr+1 , · · · , vn } es una bon de nul(A). Por lo
tanto, como {v1 , · · · , vn } es una bon de Rn , no queda otra que {v1 , · · · , vr } sea una bon de
nul(A)⊥ = col(AT ) = fil(A), donde usamos la Proposición 3.7.1.
Además, si E es la base canónica de Rn , recordando la fórmula 3.16, se deduce que
Vr VrT = [Pcol(AT ) ]EE , VrT Vr = Ir , Vn−r Vn−r
T
= [Pnul(A) ]EE , Vn−r
T
Vn−r = In−r .

2. {u1 , · · · , ur } es una bon de col(A) y {ur+1 , · · · , um } es una bon de col(A)⊥ = nul(AT ).


Además, si E es la base canónica de Rm , tenemos que:

Ur UrT = [Pcol(A) ]EE , UrT Ur = Ir , Um−r Um−r


T
= [Pnul(AT ) ]EE , Um−r
T
Um−r = Im−r .

De hecho, en el Teorema 5.5.1, vimos que {u1 , · · · , um } es una bon de col(A). Por lo tanto,
como {u1 , · · · , um } es una bon de Rm , no queda otra que {ur+1 , · · · , um } sea una bon de
col(A)⊥ = nul(AT ), donde usamos la Proposición 3.7.1.
Además, si E es la base canónica de Rm , recordando la fórmula 3.16, se deduce que
Ur UrT = [Pcol(A) ]EE , UrT Ur = Ir , Um−r Um−r
T
= [Pnul(AT ) ]EE , Um−r
T
Um−r = Im−r .

259
5. Matrices Unitarias

Finalmente, observar que V = [Vr Vn−r ] y U = [Ur Um−r ]. Entonces,

0r×n−r VrT
   
D
A = U ΣV = [Ur Um−r ]
T
= Ur DVrT .
0m−r×r 0m−r×n−r T
Vn−r

A la factorización A = Ur DVrT , la llamaremos DVS reducida de A.

Notar que como D ∈ Rr×r es una matriz diagonal con elementos positivos en su diagonal (los
valores singulares no nulos de A), entonces D es inversible.
Ejercicio 5.11. Sea

3 3 0
 
1 1 3 0 0
  
A=  1 −1 4 .
1 −1 0 2 0 √ √ √
2 2 −2 2 − 2

a) Hallar los valores singulares de A, bon de sus cuatro subespacios fundamentales y sus
respectivas matrices de proyección.

b) Hallar una DVS reducida de A.

1 1
 
Dem. a): La factorización que tenemos de A es “casi” una DVS de A. La matriz tiene
1 −1
3 3 0
 

columnas ortogonales pero no ortonormales y lo mismo sucede con  √ 1 −1√ 4 .



2 2 −2 2 − 2
1 1
 
Procedemos a normalizar las columnas de dividiendo cada una de ellas por su
1 −1
√ √
norma que es 2. Para que el producto siga siendo A, es necesario multiplicar también por 2. Es
decir,

3 3 0
 
1 1 1 √ 3 0 0 
   
A= √ 2 1 −1 4 .
2 1 −1 0 2 0 √ √ √
2 2 −2 2 − 2
3 3 0
 

Finalmente, como la norma de las 3 columnas de la matriz  √ 1 −1
√ 4  es 3 2

2 2 −2 2 − 2

para normalizarlas, procedemos a multiplicar y dividir por 3 2. Entonces, nos queda

3 3 0
 
1 1 1 √ 3 0 0 √ 1
   
A= √ 2 3 2 √  √ 1 −1 4 .
2 1 −1 0 2 0 3 2 2 2 −2√2 −√2

Entonces obtenemos
√ √ √1 √1 0
" #  
√1 √1 3 23 2 √ 0 √ 0
 2 2
A= 2 2 1
√ − 3√1 4

√1 − √12 0 2 23 2 0
 
3 2 2 3 2
2
2
3 − 23 − 13
√1 √1 0
" #  
√1 √1 18 0 0
 2 2
= 2 2 1
√ − 3√1 4
√ ,
√1 − √12 0 12 0

3 2 2 3 2
2
2
3 − 23 − 13

que ahora sí es una DVS de A, ya que A = U ΣV T , con

260
5.7. Solución por mínimos cuadrados de norma mínima. Pseudo-inversa de Moore-Penrose

√1 1 2
 
" # √
√1 √1 18 0 0 2 3 2 3
 
U := 2 2 , Σ= , V =
 √1 1
− 3√ − 32 .

√1 − √12 0 12 0 2 2
2 0 4

3 2
− 31
Entonces, σ1 = 18, σ2 = 12 y r = 2 = rg(A) es el número de valores singulares no nulos.
Una bon de col(A) = R2 , puede ser {[ √12 , √12 ]T , [ √12 , √
−1 T
2
] }. Por otra parte, col(A)⊥ = nul(AT ) =
{0}. Entonces,

U2 U2T = I2 = [Pcol(A) ]EE .


Finalmente, tenemos que {[ √12 √12 0]T , [ 3√
1
2
1
− 3√ 4 T

2 3 2
] } es una bon de col(AT ) = fil(A) =
nul(A)⊥ y {[ 23 − 23 − 13 ]T } es una bon de nul(A). Entonces,

√1 1
 
√ 5 4 2
" #  
2 3 2 √1 √1 0 9 9 9
V2 V2T = [Pcol(AT ) ]EE = 
 √1 1
− 3√  2 2 =  4 5
− 29 .
1 1 4
2 2 √ − 3√ √ 9 9

2
0 4
√ 3 2 2 3 2
9 − 29 8
9
3 2

2
 4
− 49 − 92
  
3 2 2 1 9
V1 V1T = [Pnul(A) ]EE =  − 23 [ − − ] =  − 49 4 2
3 3 3

9 9
− 13 − 29 2
9
1
9

b): Una DVS reducida de A puede ser


" # " #
√1 √1 18 0 √1 √1 0
A= 2 2 2 2 .
√1
2
− √1
2
0 12 1

3 2
1
− 3√ 2
4

3 2

5.7. Solución por mínimos cuadrados de norma mínima. Pseudo-inversa


de Moore-Penrose
Recordemos que en la Sección 3.7, vimos que, si A ∈ Rm×n y b ∈ Rn , la ecuación Ax = b
siempre admite solución por mínimos cuadrados y dicha solución es única si y sólo si nul(A) = {0},
ó, equivalentemente rg(A) = n. Cuando existan infinitas soluciones por mínimos cuadrados, nos
interesa disponer de un criterio para seleccionar una de ellas.

Definición. Diremos que x̃ es una solución por mínimos cuadrados de norma mínima de la
ecuación Ax = b, si x̃ es solución por mínimos cuadrados de Ax = b y

kx̃k ≤ kx̂k

para toda x̂ solución por mínimos cuadrados de Ax = b.

Sea x̂ una solución por mínimos cuadrados de Ax = b. Entonces, por un lado, recordemos que x̂
cumple que
Ax̂ = Pcol(A) b.
Por el otro lado, tenemos que
x̂ = Pnul(A) x̂ + Pnul(A)⊥ x̂.
Sea x̃ := Pnul(A)⊥ x̂ ∈ nul(A)⊥ . Entonces

Pcol(A) b = Ax̂ = A(Pnul(A) x̂ + Pnul(A)⊥ x̂) = APnul(A) x̂ + APnul(A)⊥ x̂ = Ax̃.

261
5. Matrices Unitarias

Entonces x̃ es una solución por mínimos cuadrados que pertenece a nul(A)⊥ .


Supongamos que x0 es otra solución por mínimos cuadrados que pertenece a nul(A)⊥ . Entonces,
como x̃ y x0 son soluciones por mínimos cuadrados, tenemos que

Ax0 = Pcol(A) b = Ax̃.

Entonces x0 − x̃ ∈ nul(A). Además, como x̃ y x0 pertenecen al subespacio nul(A)⊥ , se sigue que


x0 − x̃ ∈ nul(A)⊥ . Por lo tanto, x0 − x̃ ∈ nul(A) ∩ nul(A)⊥ = {0}. Entonces x̃ = x0 . Concluimos que:

Existe una única solución por mínimos cuadrados de la ecuación Ax = b que pertenece a
nul(A)⊥ .

Ahora veamos que x̃ es una solución por mínimos cuadrados de norma mínima. De hecho, sea x̂
una solución por mínimos cuadrados de Ax = b. Entonces, vimos que x̂ − x̃ ∈ nul(A). Entonces,
como x̂ = x̂ − x̃ + x̃, con x̂ − x̃ ∈ nul(A) y x̃ ∈ nul(A)⊥ , por el Teorema de Pitágoras (o haciendo
la cuenta), tenemos que
kx̂k2 = kx̂ − x̃k2 + kx̃k2 ≥ kx̃k2 .
Tomando raíz (que es una función creciente), tenemos que

kx̂k ≥ kx̃k

para toda x̂ solución por mínimos cuadrados de Ax = b. Por lo tanto,

x̃ es una solución por mínimos cuadrados de norma mínima de la ecuación Ax = b.

Además, x̃ es la única solución por mínimos cuadrados de norma mínima. De hecho, si z también
es una solución por mínimos cuadrados de norma mínima, entonces kzk = kx̃k. Además, como z y
x̃ son solución por mínimos cuadrados, tenemos que z − x̃ ∈ nul(A) y tenemos que x̃ ∈ nul(A)⊥ .
Por lo tanto, aplicando Pitágoras nuevamente, se sigue que

kzk2 = kz − x̃ + x̃k2 = kz − x̃k2 + kx̃k2 .

Entonces
kz − x̃k2 = kzk2 − kx̃k2 = 0.
Por lo tanto z = x̃. Entonces,

x̃ es la única solución por mínimos cuadrados de norma mínima de la ecuación Ax = b.

Veamos una manera de encontrar x̃. Sea A ∈ Rm×n tal que rg(A) = r y A = Ur DVr es
una DVS reducida de A. Recordemos que D ∈ Rr×r es inversible, Ur UrT = Pcol(A) , VrT Vr = Ir y
col(Vr ) = nul(A)⊥ . Entonces, afirmamos que

x̃ = (Vr D−1 UrT )b.

De hecho, (Vr D−1 UrT )b ∈ col(Vr ) = nul(A)⊥ y además

A[(Vr D−1 UrT )b] = Ur DVrT (Vr D−1 UrT )b = Ur D(VrT Vr )D−1 UrT b = Ur DIr D−1 UrT b = Ur Ir UrT b
= Ur UrT b = Pcol(A) b.

Entonces, (Vr D−1 UrT )b es una solución por mínimos cuadrados que pertenece a nul(A)⊥ . Acabamos
de ver x̃ es la única solución por mínimos cuadrados que pertence a nul(A)⊥ . Por lo tanto, tenemos
que x̃ = (Vr D−1 UrT )b como queríamos ver.

262
5.7. Solución por mínimos cuadrados de norma mínima. Pseudo-inversa de Moore-Penrose

La matriz A† := Ur DVrT es la matriz pseudo inversa de Moore-Penrose de A. Por lo tanto

x̃ = A† b

es la única solución por mínimos cuadrados de norma mínima de la ecuación Ax = b.

3 2 2
   
b1
Ejercicio 134 b). Sean A = yb= . Hallar A† y determinar la solución por
2 3 −2 b2
mínimos cuadrados de norma mínima de la ecuación Ax = b.

Dem. En el Ejercicio 5.10 b), probamos que A = U ΣV T con


 1 1
− 23

√ √ " #
2 3 2 √1 √1 5 0 0
 
 √1 − √ 1 2 
V =  2 , U = 2 2 , Σ = .
3 2 3  √1 − √1 0 3 0
0 4

3 2
1
3
2 2

Entonces, rg(A) = 2,
√1 1
 
√ " #
2 3 2 √1 √1 5 0
 
V2 = 
 √1 1
− 3√  , U2 =
 2 2 , D= ,
2 2 √1 − √12 0 3
0 4

3 2
2

y tenemos que A = U2 DV2T es una DVS reducida de A.


Aplicando la fórmula de la definición de la pseudo inversa Moore-Penrose de A tenemos que
 1 1

√ √ #  7 2

 " √1 1
2 3 2
 5 0
 1 √ 45 45
A† = V2 D−1 U2T =  √12 − 3√ 1 2 2 =  452 7 
.

2  0 1 √1 − √1 2
45
2
0 4

3 2
3 2 2
9 − 9

Entonces, la solución por mínimos cuadrados de norma mínima de la ecuación Ax = b es


 7 2
  7b1 +2b2 
 
45 45 b 45
x̃ = A† b =  45
2 7 
45
1
=  2b145+7b2 
.
2 2 b2 2b −2b
9 − 9
1
9
2

Antes de ver el Ejercicio 5.14, vamos a probar algunas propiedades que serán necesarias para
su resolución.
Teorema 5.7.1. Sea A ∈ Cm×n y σ1 , · · · , σn , los valores singulares de A (ordenados de mayor a
menor). Entonces
máx kAxk = σ1 ,
kxk=1

y el máximo se alcanza en los vectores x ∈ Sλ1 =σ12 (el autoespacio asociado al mayor autovalor
λ1 = σ12 de A∗ A) tal que kxk = 1.
mı́n kAxk = σn ,
kxk=1

y el mínimo se alcanza en los vectores x ∈ Sλn =σn2 (el autoespacio asociado al menor autovalor
λn = σn2 de A∗ A) tal que kxk = 1.

Dem. Sea A = U ΣV ∗ una DVS de A, donde U ∈ Cm×m y V ∈ Cn×n son unitarias y σ1 , · · · , σn


son los valores singulares de A (ordenados de mayor a menor). Sea x ∈ Cm tal que kxk = 1,
entonces,
kAxk2 = kU ΣV ∗ xk2 .

263
5. Matrices Unitarias

Como U es unitaria, por la Proposición 5.1.1 tenemos que

kU ΣV ∗ xk2 = kΣV ∗ xk2 .

Sea y := V ∗ x, entonces como V ∗ es unitaria, por la Proposición 5.1.1 tenemos que kyk = kV ∗ xk =
kxk y entonces,
kAxk2 = kΣV ∗ xk2 = kΣyk2 = σ12 |y1 |2 + · · · + σn2 |yn |2 .
Veamos que
máx (σ12 |y1 |2 + · · · + σn2 |yn |2 ) = σ12 .
kyk=1

De hecho, si y ∈ Cn es tal que kyk2 = 1, entonces

σ12 = σ12 kyk2 = σ12 (|y1 |2 + · · · + |yn |2 ) = σ12 |y1 |2 + σ12 |y2 |2 + · · · + σ12 |yn |2
≥ σ12 |y1 |2 + σ22 |y2 |2 + · · · + σn2 |yn |2 ,

donde usamos que los valores singulares de A están ordenados de mayor a menor, entonces

σ12 |yi |2 ≥ σi2 |yi |2 ,

para i = 1, 2, · · · , n. Por lo tanto, σ12 es una cota superior del conjunto en cuestión, es decir

σ12 ≥ σ12 |y1 |2 + σ22 |y2 |2 + · · · + σn2 |yn |2 ,

para todo y ∈ Cn tal que kyk2 = 1.


Además el vector y := [1 0 · · · 0]T ∈ Cn , cumple kyk = 1 y

σ12 |y1 |2 + σ22 |y2 |2 + · · · + σn2 |yn |2 = σ12 .

Entonces, encontramos un elemento del conjunto en cuestión que alcanza la cota superior. Por lo
tanto σ12 es el máximo, es decir

máx (σ12 |y1 |2 + · · · + σn2 |yn |2 ) = σ12 .


kyk=1

Como
máx kAxk2 = máx kΣyk2 = máx (σ12 |y1 |2 + · · · + σn2 |yn |2 ) = σ12 .
kxk=1 kyk=1 kyk=1

Tomando raíz (que es una función creciente), se sigue que:

máx kAxk = σ1
kxk=1

Veamos que el máximo se alcanza en los vectores x ∈ Sλ1 =σ12 (el autoespacio asociado al mayor
autovalor λ1 = σ12 de A∗ A) tales que kxk = 1. Supongamos que {v1 , v2 , · · · , vt } es una bon de
Sλ1 =σ12 , donde v1 , · · · , vt son tales que

A∗ Avi = σ12 vi

para i = 1, 2 · · · , t. Entonces, recordando cómo construimos la DVS de A, se sigue que v1 , · · · , vt


son las primeras t columnas de la matriz V y tenemos que, para i = 1, · · · , t,
 ∗   
v1 h vi , v1 i
 v2∗   h vi , v2 i 
V ∗ vi =  .  vi =  ..  = ei ,
   
 ..   . 
vn∗ h vi , vn i

264
5.7. Solución por mínimos cuadrados de norma mínima. Pseudo-inversa de Moore-Penrose

donde ei es el i-ésimo vector de la base canónica de Cn . Sea x ∈ Sλ1 =σ12 = gen{v1 , v2 , · · · , vt },


entonces x = a1 v1 + · · · + at vt , para ciertos a1 , · · · , at ∈ C. Entonces, por un lado, como kxk = 1,
tenemos que (usando el Teorema de Pitágoras)

1 = kxk = ka1 v1 + · · · + at vt k = (|a1 |2 + · · · + |at |2 )1/2

y, por el otro lado,

kAxk = kU ΣV ∗ xk = kΣV ∗ (a1 v1 + · · · + at vt )k = kΣ(a1 V ∗ v1 + a2 V ∗ v2 + · · · + at V ∗ vt )k


= kΣ(a1 e1 + a2 e2 + · · · at et )k = kσ1 a1 e1 + σ1 a2 e2 + · · · + σ1 at et k
= σ1 ka1 e1 + · · · at et k = σ1 (|a1 |2 + · · · + |at |2 )1/2 = σ1 .

Entonces, máx kAxk = σ1 y el máximo se alcanza en los vectores x ∈ Sλ1 =σ12 (el autoespacio
kxk=1
asociado al mayor autovalor λ1 = σ12 de A∗ A) tal que kxk = 1.
De manera similar, se prueba que:

mı́n kAxk = σn
kxk=1

y el mínimo se alcanza en los vectores x ∈ Sλn =σn2 (el autoespacio asociado al menor
autovalor λn = σn2 de A∗ A) tal que kxk = 1.

Ejercicio 5.14. Sea T : R2 → R3 la transformación lineal definida por T (x) := Ax con

1 1
 

A= 1 3 .
−3 1

Hallar entre todos los x ∈ R2 de norma 1 aquellos que maximizan y minimizan kT (x)k y calcular
dicho máximo y mínimo.

Dem. Tal como vimos en la prueba del Teorema 5.7.1, para resolver el ejercicio, primero hallemos
una DVS de A. Busquemos los autovalores y autovectores de
11 1
 
A A=
T
.
1 11

De hecho, χAT A (t) = (11 − t)2 − 1. Entonces λ1 = 12 y λ2 = 10 son los autovalores de A ordenados
de mayor a menor y v1 = √12 [1 1]T y v2 = √12 [−1 1]T los autovectores asociados correspondientes.
" #
√ √ √1 − √1
1/2 1/2
Entonces, σ1 = λ1 = 2 3, σ2 = λ2 = 10 y V = [v1 v2 ] = √1
2
√1
2 .
2 2
Por lo tanto, por el Teorema 5.7.1,

máx kT (x)k = máx kAxk = σ1 = 2 3
kxk=1 kxk=1

y el máximo se alcanza en x ∈ Sλ1 =σ12 = Sλ1 =12 = gen{v1 } = gen{ √12 [1 1]T } tal que kxk = 1.
Entonces, el vector x realiza el máximo si x = α √12 [1 1]T con α ∈ R y

1 1
1 = kxk = kα √ [1 1]T k = |α|k √ [1 1]T k = |α|.
2 2
Entonces α = ±1 y
1
xmáx = ± √ [1 1]T .
2

265
5. Matrices Unitarias

De manera similar, tenemos que



mı́n kT (x)k = mı́n kAxk = σ2 = 10
kxk=1 kxk=1

y el mínimo se alcanza en x ∈ Sλ2 =σ22 = Sλ2 =10 = gen{v2 } = gen{ √12 [−1 1]T } tal que kxk = 1.
Entonces, el vector x realiza el mínimo si x = α √12 [−1 1]T con α ∈ R y

1 1
1 = kxk = kα √ [−1 1]T k = |α|k √ [−1 1]T k = |α|.
2 2
Entonces α = ±1 y
1
xmı́n = ± √ [−1 1]T .
2


5.8. Imagen por una transformación lineal de la circunferencia unitaria


Los siguientes ejercicios tienen como objetivo interpretar geométricamente la DVS de una matriz
estudiando la imagen por una transformación lineal de la circunferencia unitaria

Sn−1 := {x ∈ Rn : kxk = 1}.

Ejercicio 5.16 a). Sea T ∈ L(R2 ) la transformación lineal definida por T (x) := Ax. Hallar la
1 1

imagen por T de la circunferencia unitaria S1 := {x ∈ R : kxk = 1}. Donde A =
2
.
1 1

Dem. Recordar que


T (S1 ) = {T (x) : x ∈ S1 } = {T (x) : kxk = 1}.
Entonces
z ∈ T (S1 ) si y sólo si z = T (x) = Ax
para cierto x ∈ R con kxk = 1.
2

Supongamos que A = U ΣV T es una DVS de A y consideremos el cambio de variable x = V y.


Entonces, como V es ortogonal, por la Proposición 5.1.1 vale que kxk = kyk. Entonces

z ∈ T (S1 ) si y sólo si z = T (x) = Ax = AV y = U ΣV T V y = U Σy

con kyk = 1. Entonces, como A ∈ R2×2 ,

z ∈ T (S1 ) si y sólo si z = U Σy = σ1 u1 y1 + σ2 u2 y2

con y = [y1 y2 ]T tal que kyk2 = y12 + y22 = 1.


Si consideramos B := {u1 , u2 } que es una bon de R2 . Tenemos que

[z]B := [w1 w2 ]T = [σ1 y1 σ2 y2 ]T ,

con y = [y1 y2 ]T tal que kyk2 = y12 + y22 = 1. Por lo tanto, z ∈ T (S1 ) si y sólo si z = w1 u1 + w2 u2
con w1 = σ1 y1 , w2 = σ2 y2 tal que kyk2 = y12 + y22 = 1.
Ahora calculemos los valores singulares de A y las columnas u1 , u2 de U. Para eso, busquemos
los autovalores y autovectores de
2 2
 
A A=
T
.
2 2
De hecho χAT A (t) = (2 − t)2 − 4. Entonces, λ1 = 4, λ2 = 0 son los autovalores de AT A ordenados de
mayor a menor y v1 = √12 [1 1]T , v2 = √12 [1 − 1]T son los autovectores asociados correspondientes.

266
5.8. Imagen por una transformación lineal de la circunferencia unitaria

T
1/2 [2 2]
Por lo tanto, σ1 = λ1 = 2, σ2 = 0 y además, u1 = Av σ1 =
1 √1
2 2 = √12 [1 1]T y u2 = √1 [−1
2
1]T
(cualquier vector para completar a una bon de R2 ).
Entonces, como [z]B = [w1 w2 ]T = [σ1 y1 σ2 y2 ]T , despejando tenemos que
w1 w1
y1 = = , w2 = 0.
σ1 2
Entonces,
w12
z ∈ T (S1 ) si y sólo si z = w1 u1 con = y12 ≤ y12 + y22 = 1.
σ12
Entonces, w12 ≤ σ12 , por lo tanto −2 = −σ1 ≤ w1 ≤ σ1 = 2 y w2 = 0. Entonces

T (S1 ) = {z ∈ R2 : z = w1 u1 + w2 u2 , −2 ≤ w1 ≤ 2, w2 = 0} = {z ∈ R2 : z = w1 u1 , −2 ≤ w1 ≤ 2}
1
 
w1
= {z ∈ R : z = √
2
, −2 ≤ w1 ≤ 2}.
2 1

Entonces
 la imagen
  por T de la circunferencia unitaria de R es el segmento en R de extremos
2 2

1 1

−2
√ y √22 . 
2 1 1

Ejercicio 5.18 b). Sea T ∈ L(R3 ) la transformación lineal definida por T (x) := Ax. Hallar la
2 4 −2

imagen por T de la esfera unitaria S2 := {x ∈ R3 : kxk = 1}. Donde A =  4 10 0  .


−2 0 10

Dem. Recordar que


T (S2 ) = {T (x) : x ∈ S2 } = {T (x) : kxk = 1}.
De la misma manera que hicimos en el Ejercicio 5.16 a), si A = U ΣV T es una DVS de A y
consideramos el cambio de variable x = V y. Entonces, como V es ortogonal, vale que kxk = kyk.
Entonces,

z ∈ T (S2 ) si y sólo si z = U ΣV T x = U Σy = σ1 u1 y1 + σ2 u2 y2 + σ3 u3 y3

con y = [y1 y2 y3 ]T tal que kyk2 = y12 + y22 + y32 = 1. Sea B := {u1 , u2 , u3 } que es una bon de R3 ,
entonces
[z]B = [w1 w2 w3 ]T = [σ1 y1 σ2 y2 σ3 y3 ]T ,
con y = [y1 y2 y3 ]T tal que kyk2 = y12 + y22 + y32 = 1.
Calculemos los valores singulares de A y las columnas u1 , u2 , u3 de la matriz U. Para eso,
busquemos los autovalores y autovectores de

24 48 −24
 

AT A =  48 116 −8  .
−24 −8 104

De hecho χAT A (t) = −t3 + 244t2 − 14400t. Entonces, λ1 = 144, λ2 = 100, λ3 = 0 son los autovalores
de AT A ordenados de mayor a menor y v1 = √16 [−1 − 2 1]T , v2 = √15 [0 1 2]T y v3 = √130 [5 − 2 1]T
1/2
los autovectores asociados correspondientes. Por lo tanto, σ1 = λ1 = 12, σ2 = 1001/2 = 10, σ3 = 0
[−12 −24 12]T [0 10 20]T
y u1 = Avσ1 =
1 √
6 12
= √16 [−1 − 2 − 1]T , u2 = Av
σ2 =
2 √
5 10
= √15 [0 1 2]T y u3 cualquier
vector para completar a una bon de R . 3

Por lo tanto, como [z]B = [w1 w2 w3 ]T = [σ1 y1 σ2 y2 σ3 y3 ]T , tenemos que


w1 w1 w2 w2
y1 = = , y2 = = , w3 = 0.
σ1 12 σ2 10

267
5. Matrices Unitarias

w12 w22 w12 w2


Entonces, z ∈ T (S1 ) si y sólo si z = w1 u1 +w2 u2 con 144 + 100 = σ12
+ σ22 = y12 +y22 ≤ y12 +y22 +y32 =
2
1 y w3 = 0. Entonces,

w12 w2
T (S1 ) = {z ∈ R3 : z = w1 u1 + w2 u2 + w3 u3 , + 2 ≤ 1, w3 = 0}
144 100
2 2
w w
= {z ∈ R3 : z = w1 u1 + w2 u2 , 1 + 2 ≤ 1}
144 100
1 1 w2 w2
= {z ∈ R : z = w1 √ [−1 − 2 − 1]T + w2 √ [0 1 2]T , 1 + 2 ≤ 1}.
3
6 5 144 100

Entonces la imagen por T de la circunferencia unitaria de R3 es la superficie en R3 contenida en


el plano generado por col(A) = gen{u1 , u2 } = gen{ √16 [−1 − 2 − 1]T , √15 [0 1 2]T }. Dicha superficie
contiene al origen y está limitada por la elipse centrada en el origen, cuyo eje mayor tiene longitud
2σ1 = 24, y está contenido en la recta generada por u1 = √16 [−1 − 2 − 1]T y su eje menor tiene
longitud 2σ2 = 20, y está contenido en la recta generada por u2 = √15 [0 1 2]T . 

5.9. Descomposición Polar


A continuación veremos que toda matriz A ∈ Cn×n (cuadrada) se puede factorizar como
A = W |A|, donde U ∈ Cn×n es unitaria y |A| ∈ Cn×n es semidefinida positiva.
Teorema 5.9.1. Sea A ∈ Cn×n (cuadrada) entonces existen matrices U ∈ Cn×n unitaria y
|A| ∈ Cn×n semidefinida positiva tales que

A = W |A|.

A esta factorización se la conoce como descomposición polar de A.


Dem. Sea = U ΣV ∗ una DVS de A. Como A ∈ Cn×n (es decir es cuadrada), tenemos que
U, V ∈ Cn×n unitarias y
σ1 0 0 0
 
 0 σ2 0 0 
Σ= . .. .. ..  ∈ Rn×n .
 
 .. . . . 
0 0 ··· σn
Definimos
0 0 0
 
σ1
 0 σ2 0 0 
|A| := V ΣV ∗ = V 
 ∗
.. .. .. .. V ,

 . . . . 
0 0 ··· σ1
entonces como
|A|∗ = (V ΣV ∗ )∗ = V Σ∗ V ∗ = V ΣV ∗ = |A|,
es decir |A| es hermítica y los autovalores de |A| son σ1 ≥ σ2 ≥ · · · ≥ σn ≥ 0 (observar que
definimos |A| a partir de su digonalización unitaria) entonces, por la Proposición 3.5.1 5.4.1, |A| es
semidefinida positiva. Por otra parte, usando que V V ∗ = V ∗ V = In , tenemos que

A = U ΣV ∗ = U V ∗ V ΣV ∗ = (U V ∗ )|A|.

Tomando W := U V ∗ tenemos que W es unitaria, pues W ∗ W = (U V ∗ )∗ (U V ∗ ) = V U ∗ U V ∗ =


V In V ∗ = In y
A = W |A|,
como queríamos ver. 

268
5.9. Descomposición Polar

Notar que como A ∈ Cn×n podemos calcular su determinante. Además, dado que |A| es
semidefinida positiva, tenemos que todos sus autovalores son no negativos y entonces det(|A|) ≥ 0.
Por otra parte, recordemos que como W es unitaria, vale que | det(W )| = 1. Entonces, tenemos
una fórmula para el módulo del determinante de A :

| det(A)| = | det(W |A|)| = | det(W )|| det(|A|)| = 1 · det(V ΣV ∗ ) = det(Σ) = σ1 σ2 · · · σn .

1
 
i
Ejercicio 5.C. Hallar una descomposición polar para A = .
i −1

Dem. Siguiendo las ideas de la demostración del Teorema 5.9.1, obtengamos primero una DVS de
A. Busquemos los autovalores y autovectores de

1 −i 1 i 2 2i
     
A∗ A = = .
−i −1 i −1 −2i 2

De hecho, χA∗ A (x) = x2 − 4x. Entonces λ1 = 4 y λ2 = 0 son los autovalores de A ordenados de


mayor a menor y v1 = √12 [i 1]T y v2 = √12 [−i 1]T los autovectores asociados correspondientes.
" #
√i − √i2
1/2 1/2
Entonces, σ1 = λ1 = 2 y σ2 = λ2 = 0 y V = √1
2
√1
. Para obtener U, tenemos que
2 2
[2i −2]
u1 = Av1
σ1 = √= √12 [i − 1]T y u2 = √12 [−1 i]T (cualquier vector para completar a una bon de
2 2
" #
√i − √12
C ). Entonces U =
2 2
√i
.
− √12 2
Por lo tanto, tal como vimos arriba tenemos que
" # " #
√i − √1 − √i √1 i−1 i−1 −1 1
 1−i   
W = UV = ∗ 2 2 2 2 = 2 2 = .
− √12 √i
2
√i
2
√1
2
i−1
2
−1+i
2 2 1 1

y " #   " #
√i − √i2 2 0 − √i2 √1 1
 
i
|A| = V ΣV =
∗ 2 2 = .
√1
2
√1
2
0 0 √i
2
√1
2
−i 1

Entonces, una descomposición polar de A es

i−1 1 1
    
−1 i
A = W |A| = .
2 1 1 −i 1

269
CAPÍTULO 6

Formas Cuadraticas

6.1. Definición de formas cuadráticas


Definición. Un forma cuadrática es una función Q : Rn → R que se puede expresar de la forma

Q(x) = xT Ax con A = AT ∈ Rn×n (simétrica).

Observar que si Q es una forma cuadrática y α ∈ R entonces

Q(αx) = (αx)T A(αx) = ααxT Ax = α2 Q(x). (6.1)

Sea B ∈ Rn×n no necesariamente simétrica y Q : Rn → R definida como

Q(x) = xT Bx.

Entonces, como Q(x) ∈ R, tenemos que [Q(x)]T = Q(x). Entonces

2Q(x) = Q(x) + Q(x) = Q(x) + [Q(x)]T = xT Bx + (xT Bx)T = xT Bx + xT B T x = xT (B + B T )x.

Por lo tanto
xT (B + B T )x (B + B T )
Q(x) = = xT x.
2 2
T T T T
En este caso, la matriz B+B
2 es simétrica, pues ( B+B
2 )T = B 2+B = B+B
2 . Entonces, a la función
T
Q(x) = xT Bx con B ∈ Rn×n la pudimos expresar de la forma Q(x) = xT Ax con A := B+B 2
simétrica.
Ejercicio 6.A. Sea Q : R3 → R definida por

Q(x) = x21 + 2x22 + 3x33 + 10x1 x2 + 16x2 x3 + 26x1 x2 .

Comprobar que Q es una forma cuadrática y expresarla de la forma Q(x) = xT Ax con A ∈ R3×3
simétrica.

Dem. Observar que Q(x) = x21 + 2x22 + 3x33 + 10x1 x2 + 16x2 x3 + 26x1 x2 = x21 + 2x22 + 3x23 + 36x1 x2 +
16x2 x3 = x21 + 2x22 + 3x23 + 2(18x1 x2 + 8x2 x3 ).
Si A ∈ R3×3 es tal que A = AT . Entonces A tiene la siguiente forma
 
a b c
A =  b d e ,
c e f

271
6. Formas Cuadraticas

con a, b, c, d, e, f ∈ R. Si Q(x) = xT Ax, entonces


   
a b c x1
Q(x) = xT Ax = [x1 x2 x3 ]  b d e   x2 
c e f x3
= ax21 + dx22 + f x23 + 2bx1 x2 + 2cx1 x3 + 2ex2 x3 .

Entonces Q(x) = x21 + 2x22 + 3x23 + 2(18x1 x2 + 8x2 x3 ) = ax21 + dx22 + f x23 + 2bx1 x2 + 2cx1 x3 + 2ex2 x3 .
Comparando, nos queda que a = 1, d = 2, f = 3, b = 18, c = 0, e = 8. Entonces,
1 18 0
 

A =  18 2 8 
0 8 3

y tenemos que Q(x) = xT Ax. 

Ejercicio 6.B. Sea Q : R2 → R definida por


1 2
 
Q(x) = x T
x.
3 4

Comprobar que Q es una forma cuadrática y expresarla de la forma Q(x) = xT Ax con A ∈ R2×2
simétrica.
1 2
 
Dem. La matriz B := no es simétrica. Sin embargo, arriba vimos que si tomamos
3 4

1 2 1 3
   
+
B + BT 3 4 2 4 1 52
 
A= = =
2 2 5
2 4

entonces Q(x) = xT Ax y en este caso A resulta simétrica y Q es una forma cuadrática. 

6.2. Eliminación de productos cruzados


Sea Q : Rn → R la forma cuadrática definida por Q(x) = xT Ax con A = AT . Como A es
simétrica, vimos que existe
 P ∈R
n×n
ortogonal
 (cuyas columnas son autovectores de A que forman
λ1 0 · · · 0
 0 λ2 · · · 0 
una bon de Rn ) y Λ =  . .. . . ..  con λ1 , · · · , λn ∈ R los autovalores de A tales que:
 
 .. . . . 
0 0 ··· λn

A = P ΛP T .

Con el objetivo de eliminar los términos cruzados de la forma xi xj con i 6= j, vamos a considerar el
cambio de variables
x = P y.
Entonces
Q(x) = xT Ax = (P y)T A(P y) = y T P T AP y = y T Λy =: Q̃(y).
Por lo tanto
0 0
 
λ1 ···
 0 λ2 ··· 0 
Q(x) = Q̃(y) = y T  .. .. .. ..  y = λ1 y12 + λ2 y22 + · · · + λn yn2 .
 
 . . . . 
0 0 ··· λn

272
6.2. Eliminación de productos cruzados

Ejercicio 6.3 d). Expresar la forma cuadrática Q : R3 → R definida por

Q(x) = x23 + x1 x2 + x1 x3 + x2 x3

como xT Ax con A ∈ R3×3 simétrica, diagonalizar ortogonalmente A = P ΛP T y mediante el cambio


de variables x = P y expresar Q sin productos cruzados.

Dem. Tal como hicimos en el Ejercicio 6.A, podemos ver que

0 1 1
 
2 2
Q(x) = xT  1
2 0 1
2
x
1
2
1
2 1

0 1 1
 
2 2
con A :=  1
2 0  simétrica. Para diagonalizar ortogonalmente A, calculemos su polinomio
1
2
1
2
1
2 1
característico, sus autovalores y obtengamos una bon de autovectores de R3 . De hecho

3t
χA (t) = det(A − tI) = −t3 + t2 + .
4

Entonces, los autovalores de A son λ1 = − 21 , λ2 = 3


2 y λ3 = 0. Como

1 1 1
1
   
1 2 2 2
nul(A + I) = nul(  1 1 1  = gen{  −1 },
2 2 2 2
1
2
1
2
3
2
0

1
 3 1 1
  
−2
3 2 2
 = gen{  1 },
nul(A − I) = nul(  12 − 32 1
2 2
1
2
1
2 − 12 2

0 1 1
   
2 2−1
nul(A) = nul(  21 0  = gen{  −1 }.
1
2
1
2
1
2 1 1

1 1
     
−1
Tenemos que { √12  −1  , √1  1  , √1  −1 } es una bon de autovectores de R3 . Tomemos
0 6 2 3 1

√1 √1 −1
 

2 6 3
−1
P := 
 − √12 √1
6

3 .

0 √2
6
√1
3

Entonces
− 12 0 0
 

A=P  0 3
2 0 PT.
0 0 0

Como vimos arriba, si hacemos el cambio de variables x = P y, tenemos que

1 3
Q(x) = Q̃(y) = y T Λy = − y12 + y22 .
2 2


273
6. Formas Cuadraticas

6.3. Clasificación de formas cuadráticas


Definición. Dada una forma cuadrática Q : Rn → R decimos que:

Q es definida positiva si Q(x) > 0 para todo x ∈ Rn \ {0}.

Q es semidefinida positiva si Q(x) ≥ 0 para todo x ∈ Rn .

Q es definida negativa si Q(x) < 0 para todo x ∈ Rn \ {0}.

Q es semidefinida negativa si Q(x) ≤ 0 para todo x ∈ Rn .

Q es indefinida si no es ninguna de las anteriores. Es decir, existen x1 , x2 ∈ Rn tales que


Q(x1 ) > 0 y Q(x2 ) < 0.

Si expresamos la forma cuadrática

Q(x) = xT Ax

con A simétrica, entonces recordando lo que vimos en la Proposición 5.4.1, tenemos que:
Proposición 6.3.1. Sea Q una forma cuadrática en Rn donde Q(x) = xT Ax con A ∈ Rn×n
simétrica y sean λ1 , λ2 , · · · , λn ∈ R los autovalores de A. Entonces:

Q es definida positiva si y sólo si A es definida positiva si y sólo si λi > 0 para todo


i = 1, 2, · · · , n.

Q es semidefinida positiva si y sólo si A es semidefinida positiva si y sólo si λi ≥ 0 para todo


i = 1, 2, · · · , n.

Q es definida negativa si y sólo si A es definida negativa si y sólo si λi < 0 para todo


i = 1, 2, · · · , n.

Q es semidefinida negativa si y sólo si A es semidefinida negativa si y sólo si λi ≤ 0 para


todo i = 1, 2, · · · , n.

Q es indefinida si y sólo si A es indefinida si y sólo A tiene algún autovalor negativo y algún


autovalor positivo.

6.4. Conjuntos de nivel


Dada una forma cuadrática Q : Rn → R, para c ∈ R se define el conjunto de nivel c como

Nc (Q) = {x ∈ Rn : Q(x) = c}.

Si Q(x) = xT Ax con A = AT y diagonalizamos ortgonalmente a A de la forma A = P ΛP T ,


resulta más simple determinar qué tipo de conjunto es Nc (Q) empleando el cambio de variables
x = P y. En ese caso, tendremos que

Q(x) = Q̃(y) = y T Λy

con Λ diagonal. Para c ∈ R dado, tenemos que

Q(x) = c si y sólo si Q̃(y) = c.

Veremos a continuación que el conjunto de nivel Nc (Q) se obtiene rotando el conjunto de nivel
Nc (Q̃) en los ejes principales de A (determinados por las columnas ortonormales de la matriz P ).
En particular, ambos conjuntos de nivel tienen la misma forma geométrica.

274
6.4. Conjuntos de nivel

Ejercicio 6.2 a). Sea Q(x) = 9x21 + 3x22 − 8x1 x2 en R2 . Clasificar dicha forma cuadrática y graficar
sus conjuntos de nivel Nc (Q).

Dem. Tal como hicimos en los ejercicios anteriores, tenemos que


9 −4
 
Q(x) = x T
x.
−4 3

9 −4
 
Entonces si A = , tenemos que Q(x) = xT Ax con A simétrica.
−4 3
Ahora, diagonalizemos ortogonalmente A. Para eso, calculemos su polinomio característico, sus
autovalores y obtengamos una bon de autovectores de R2 . De hecho

χA (t) = det(A − tI) = (9 − t)(3 − t) − 16 = t2 − 12t + 11.

Entonces, los autovalores de A son λ1 = 1, λ2 = 11. Los autoespacios asociados son:


8 −4 1
   
nul(A − 1I) = nul( ) = gen{ },
−4 2 2
   
−2 −4 −2
nul(A − 11I) = nul( ) = gen{ }.
−4 −8 1
1 1
   
−2
Entonces { 5
√1
,√ } es una bon de R2 . Si tomamos
2 5 1
" #
√1 − √25
P = √2
5
√1
5 5

tenemos que
1 0
 
A=P PT.
0 11
Entonces, como los autovalores de A son ambos positivos, tenemos que A es definida positiva y
por lo tanto Q es definida positiva.
Por otra parte, con el cambio de variables x = P y, tenemos que

Q(x) = Q̃(y) = 1y12 + 11y22 .

Por lo tanto, dado c ∈ R tenemos que las conjuntos de nivel Nc (Q) son todos los x ∈ R2 tales que

Q(x) = 9x21 + 3x22 − 8x1 x2 = c.

Veamos 3 casos posibles:


Si c < 0, como Q es definida positiva, entonces

Nc (Q) = ∅.

Si c = 0, como Q es definida positiva, entonces

Nc (Q) = {0, 0}.

Si c > 0. Como Q(x) = c si y sólo si Q̃(y) = c, se sigue que x ∈ Nc (Q) si y sólo si


y = [y1 y2 ]T ∈ R2 cumple que
Q̃(y) = y12 + 11y22 = c,
ó equivalentemente (c > 0),
y2 y2
√1 2 + p 2c 2 = 1.
( c) ( 11 )

275
6. Formas Cuadraticas

Entonces, los conjuntos de nivel Nc (Q) = {x ∈ R2 : 9x21 + 3x22 − 8x1 x2 = c} (c > 0) son elipses
1

−2
en R2 en los nuevos ejes y1 , y2 determinados por los versores v1 := √15 y v2 := √15
2 1
que son las columnas de P y que son una rotación de un ángulo (positivo) de los ejes originales
x1 , x2 (ver Figura 6.1). 

Figura 6.1: Ejercicio 6.2 a)

Ejercicio 6.C (De Final). Sea h ·, · i : Rn × Rn → R el producto interno canónico en Rn y sea


A ∈ Rn×n . Demostrar que
h x, y iA := h Ax, y i
define un producto interno en Rn si y sólo si A es definida positiva.
Recordemos que A es definida positiva si A es simétrica, es decir A = AT y h Ax, x i > 0 para
todo x ∈ Rn \ {0}.
Dem. Como el producto interno canónico es lineal en la primera variable, para cualquier matriz
A ∈ Rn×n , la función
h x, y iA := h Ax, y i
es lineal en la primera variable. De hecho,

h x + z, y iA = h A(x + z), y i = h Ax + Az, y i = h Ax, y i + h Az, y i


= h x, y iA + h z, y iA para todo x, y, z ∈ Rn .

Y también tenemos que

h αx, y iA = h A(αx), y i = h αAx, y i = α h Ax, y i = α h x, y iA para todo x, y ∈ Rn , α ∈ R.

Veamos entonces, que h ·, · iA define un producto interno si y sólo si A es definida positiva.

276
6.4. Conjuntos de nivel

Supongamos que A es definida positiva, entonces por un lado tenemos que A = AT y usando
que el producto interno canónico es simétrico, tenemos que

h x, y iA = h Ax, y i = x, AT y = h x, Ay i = h Ay, x i = h y, x iA ,

donde usamos que siempre vale que h Ax, y i = x, AT y .



Entonces, h x, y iA = h y, x iA para todo x, y ∈ Rn . Finalmente, como A es definida positiva


tenemos que
h x, x iA = h Ax, x i > 0 para todo x 6= 0.
Entonces, como la función h ·, · iA es lineal en la primera variable, simétrica y cumple que
h x, x iA > 0 para todo x 6= 0, concluimos que h ·, · iA define un producto interno en Rn .
Recíprocamente, supongamos que la función h ·, · iA define un producto interno en Rn . Entonces,
en particular, tenemos que para todo x, y ∈ Rn , vale que h x, y iA = h y, x iA . Por lo tanto, usando
que el producto interno canónico es simétrico, se sigue que

h Ax, y i = h x, y iA = h y, x iA = h Ay, x i = h x, Ay i para todo x, y ∈ Rn . (6.2)

Recordemos que siempre vale que h Ax, y i = x, AT y . Entoces, usando la ecuación (6.2), tenemos

que
x, AT y = h Ax, y i = h x, Ay i ,

para todo x, y ∈ Rn . Entonces, usando la linealidad del producto interno canónico, tenemos que

x, (AT − A)y = x, AT y − h x, Ay i = 0 para todo x, y ∈ Rn .




Entonces, tomando x := (AT − A)y, tenemos que

(A − A)y, (AT − A)y = k(AT − A)yk2 = 0,



T

para todo y ∈ Rn . Como k · k es la norma inducida del producto interno canónico, se sigue que

(AT − A)y = 0 para todo y ∈ Rn .

Es decir, AT y = Ay para todo y ∈ Rn . Entonces concluimos que AT = A y A es simétrica.


Finalmente, como h ·, · iA define un producto interno en Rn , vale que

h Ax, x i = h x, x iA > 0

para todo x 6= 0. Entonces, como A es simétrica y h Ax, x i > 0 para todo x 6= 0, concluimos que A
es definida positiva. 

Ejercicio 6.D (De Final). Determinar los valores de k ∈ R (si existen) para los cuales la forma
cuadrática definida en R2 por
Q(x) = x21 + kx1 x2 + x22 ,
es definida positiva.

Dem. Observar que


1 k
 
Q(x) = x T 2 x.
k
2 1
1 k
 
Sea A := 2 . Entonces, claramente AT = A. Por la Proposición 6.3.1, Q es definida positiva
k
2 1
si y sólo si A es definida positiva, si y sólo si los autovalores de A son positivos.
El polinomio característico de A es

k2
χA (t) = (1 − t)2 − .
4

277
6. Formas Cuadraticas

Entonces, los autovalores de A son


|k| |k|
λ1 = 1 + > 0 y λ2 = 1 − .
2 2
Claramente λ1 es positivo para cualquier valor de k y queremos también que λ2 > 0. Entonces,
|k| < 2. Por lo tanto, A es definida positiva si y sólo |k| < 2 ó, equivalentemente, si −2 < k < 2.
También podemos resolver este ejercicio usando el Teorema 5.4.2. Dicho teorema afirma que A
es definida positiva si y sólo si el determinate de todas sus submatrices principales es positivo.
En este caso, tenemos dos submatrices principales: A(1) = [1] cuyo determinante es det(A(1) ) =
2 2
1 > 0 y A(2) = A cuyo determinante es det(A(2) ) = det(A) = 1 − k4 . Si imponemos que 1 − k4 > 0,
entonces, k 2 < 4 y, tomando raíz, nos queda que |k| < 2, ó equivalentemente, −2 < k < 2 y llegamos
al mismo resultado. 

6.5. Optimización de formas cuadráticas


El siguiente ejercicio nos va a permitir entender la demostración del Teorema de Rayleigh que
veremos luego.
Ejercicio 6.E. Sea Q : R4 → R la forma cuadrática definida por

Q(x) = 5x21 − 3x22 + 2x23 + 5x24 .

a) Hallar los valores máximos y mínimos de los cocientes de Rayleigh


Q(x)
, x 6= 0.
kxk2

b) Hallar el conjunto de todos los xM y xm ∈ R4 \ {0} tales que


Q(xM ) Q(x) Q(xm ) Q(x)
= máx y = mı́n .
kxM k2 x6=0 kxk2 kxm k2 x6=0 kxk2

c) Hallar el conjunto de todos los x̂M ∈ S3 y x̂m ∈ S3 tales que

Q(x̂M ) = máx Q(x) = máx Q(x) y Q(x̂m ) = mı́n Q(x) = mı́n Q(x).
x∈S3 kxk=1 x∈S3 kxk=1

Como Q no tiene productos cruzados nos va a resultar sencillo resolver el ejercicio. Luego
veremos cómo vamos a proceder en el caso en que Q tenga productos cruzados.
Dem. a) : Observar que, como −3x22 ≤ 5x22 y 2x23 ≤ 5x23 , tenemos que, para todo x ∈ R4 ,

Q(x) = 5x21 − 3x22 + 2x23 + 5x24 ≤ 5x21 + 5x22 + 5x23 + 5x24 = 5kxk2 .

Por otro lado, como −3x21 ≤ 5x21 , −3x23 ≤ 2x23 y −3x24 ≤ 5x24 , tenemos que, para todo x ∈ R4 ,

−3kxk2 = −3x21 − 3x22 − 3x23 − 3x24 ≤ Q(x) = 5x21 − 3x22 + 2x23 + 5x24 .

Por lo tanto,
−3kxk2 ≤ Q(x) ≤ 5kxk2 para todo x ∈ R4 .
Con lo cual, si x 6= 0, tenemos que
Q(x)
−3 ≤ ≤5 para todo x ∈ R4 \ {0}.
kxk2
Veamos entonces, que el máximo del cociente de Rayleigh es 5 y el mínimo del cociente de
Rayleigh es −3. Como ya vimos que 5 es una cota superior y −3 es una cota inferior del cociente de

278
6.5. Optimización de formas cuadráticas

Q(xM )
Rayleigh, sólo nos resta encontrar algún xM ∈ R4 \ {0} tal que kxM k2 = 5 y algún xm ∈ R4 \ {0}
Q(xm )
tal que kxm k2 = −3.
Q(xM )
Observar que xM := [1 0 0 0]T ∈ R4 \ {0}, Q(xM ) = 5 y kxM k = 1. Entonces kxM k2 =5y
concluimos que
Q(x)
máx = 5.
x6=0 kxk2

Q(xm )
Por otra parte, xm := [0 1 0 0]T ∈ R4 \ {0}, Q(xm ) = −3 y kxm k = 1. Entonces kxm k2 = −3 y
concluimos que
Q(x)
mı́n = −3.
x6=0 kxk2

Q(xM ) Q(x)
b) : Queremos hallar el conjunto de todos los xM ∈ R4 \ {0} tales que kxM k2 = máx 2 = 5.
x6=0 kxk
Planteamos para qué valores de x ∈ R4 tenemos que Q(x) = 5kxk2 y eso vale, si y sólo si,

Q(x) = 5x21 − 3x22 + 2x23 + 5x24 = 5kxk2 = 5x21 + 5x22 + 5x23 + 5x24 .

Entonces,
8x22 + 3x23 = 0.
Por lo tanto, x2 = x3 = 0. Entonces,

Q(x) = 5kxk2 si y sólo si x = [x1 0 0 x4 ] con x1 , x4 ∈ R

ó, equivalentemente, Q(x) = 5kxk2 si y sólo si x ∈ gen{[1 0 0 0]T , [0 0 0 1]T }.


Por lo tanto, si xM ∈ gen{[1 0 0 0]T , [0 0 0 1]T } \ {0} tenemos que

Q(xM ) Q(x)
= máx = 5.
kxM k2 x6=0 kxk2

Q(xm ) Q(x)
Para hallar el conjunto de todos los xm ∈ R4 \{0} tales que kxm k2 = mı́n 2 = −3, planteamos
x6=0 kxk
para qué valores de x ∈ R tenemos que Q(x) = −3kxk y eso vale, si y sólo si,
4 2

Q(x) = 5x21 − 3x22 + 2x23 + 5x24 = −3kxk2 = −3x21 − 3x22 − 3x23 − 3x24 .

Entonces,
8x21 + 5x23 + 8x24 = 0.
Por lo tanto, x2 = x3 = x4 = 0. Entonces,

Q(x) = −3kxk2 si y sólo si x = [0 x2 0 0] con x2 ∈ R

ó, equivalentemente Q(x) = −3kxk2 si y sólo si x ∈ gen{[0 1 0 0]T }.


Por lo tanto, si xm ∈ gen{[0 1 0 0]T } \ {0} tenemos que

Q(xm ) Q(x)
2
= mı́n = −3.
kxm k x6=0 kxk2

c) : En el item b), vimos que Q(x) = 5kxk2 si y sólo si x ∈ gen{[1 0 0 0]T , [0 0 0 1]T }. Si ahora
imponemos la restricción x ∈ S3 = {x ∈ R4 : kxk = 1}, tenemos que

máx Q(x) = máx Q(x) = 5


x∈S3 kxk=1

y los x̂M ∈ S3 tales que


Q(x̂M ) = máx Q(x) = máx Q(x) = 5
x∈S3 kxk=1

279
6. Formas Cuadraticas

son los x ∈ gen{[1 0 0 0]T , [0 0 0 1]T } tales que kxk = 1. Entonces, el máximo se alcanza en los
vectores x̂M = α[1 0 0 0]T + β[0 0 0 1]T con α, β ∈ R tales que (aplicando Pitágoras o haciendo la
cuenta)

1 = kxk2 = kα[1 0 0 0]T + β[0 0 0 1]T k2 = α2 k[1 0 0 0]T k2 + β 2 k[0 0 0 1]T k2 = α2 + β 2 .

Entonces, el máximo se alcanza en los vectores x̂M = α[1 0 0 0]T + β[0 0 0 1]T tales que α2 + β 2 = 1.
En el item c), vimos que Q(x) = −3kxk2 si y sólo si x ∈ gen{[0 1 0 0]T }. Si ahora imponemos
la restricción x ∈ S3 = {x ∈ R4 : kxk = 1}, tenemos que

mı́n Q(x) = mı́n Q(x) = −3


x∈S3 kxk=1

y los x̂m ∈ S3 tales que


Q(x̂m ) = mı́n Q(x) = mı́n Q(x) = −3
x∈S3 kxk=1

son los x ∈ gen{[0 1 0 0]T } tales que kxk = 1. Entonces, el mínimo se alcanza en los vectores
x̂m = α[0 1 0 0]T con α ∈ R tales que 1 = kxk = kα[0 1 0 0]T k = |α|k[0 1 0 0]T k = |α|. Entonces,
α = ±1 y, el mínimo se alcanza en los vectores x̂m = ±[0 1 0 0]T . 

Teorema 6.5.1 (Teorema de Rayleigh). Sea A ∈ Rn×n simétrica y Q(x) = xT Ax. Sean
λM y λm los autovalores máximo y mínimo de A respectivamente y sean SλM y Sλm los
autespacios asociados respectivos. Entonces:

λm kxk2 ≤ Q(x) ≤ λM kxk2 para todo x ∈ Rn . Además,

Q(x) = λm kxk2 si y sólo si x ∈ Sλm y Q(x) = λM kxk2 si y sólo si x ∈ SλM .

Lo vamos a demostrar de manera sencilla usando las ideas del Ejercicio 6.E.
Dem. Sea A = P ΛP T una descomposición ortogonal de A, que existe pues A es simétrica.
Supongamos que
λM · · · 0
 

Λ =  · · · ... · · · .
 

0 · · · λm
Donde λM = λ1 = · · · = λr > λr+1 ≥ · · · > λn−k+1 = · · · = λn = λm . Es decir, ordenamos los
autovalores de A de mayor a menor y suponemos que la multiplicidad algebraica (y geométrica) de
λM es r y la multiplicidad algebraica (y geométrica) de λm es k.
Entonces, si P = [v1 v2 · · · vn ], tendremos que

SλM = gen{v1 , · · · , vr } y Sλm = gen{vn−k+1 , · · · , vn }.

Si hacemos el cambio de variables x = P y, por un lado, como P es ortogonal, vale que

kxk = kP yk = kyk

y, por el otro lado,

Q(x) = (P y)T A(P y) = y T Λy := Q̃(y) = λ1 y12 + · · · + λn yn2


= λM y12 + · · · + λM yr2 + · · · + λm yn−k+1
2
+ · · · + λm yn2 .

Entonces, tenemos una expresión sin productos cruzados y podemos usar ideas similares a las del
Ejercicio 6.E. Entonces, para todo y ∈ Rn ,

λm kyk2 ≤ Q̃(y) ≤ λM kyk2 .

280
6.5. Optimización de formas cuadráticas

Usado que kxk = kyk, nos queda que, para todo x ∈ Rn ,

λm kxk2 = λm kyk2 ≤ Q̃(y) = Q(x) ≤ λM kyk2 = λM kxk2 .

Entonces, probamos que

λm kxk2 ≤ Q(x) ≤ λM kxk2 para todo x ∈ Rn .

Por otra parte, también usando ideas similares a las del Ejercicio 6.E, tenemos que

Q(x) = Q̃(y) = λM kyk2 = λM kxk2 ,

si y sólo si y ∈ gen{e1 , · · · , er } donde ei es el i-ésimo vector de la base canónica de Rn .


Entonces y = [a1 a2 · · · ar 0 · · · 0]T para ciertos a1 , · · · , ar ∈ R y, como x = P y =
[v1 · · · vr · · · vn−k+1 · · · vn ]y = a1 v1 + · · · + ar vr , nos queda que

Q(x) = λM kxk2 si y sólo si x ∈ gen{v1 , · · · , vr } = SλM .

De la misma manera, tenemos que

Q(x) = Q̃(y) = λm kyk2 = λm kxk2 ,

si y sólo si y ∈ gen{en−k+1 , · · · , en }. Entonces y = [0 · · · 0 an−k+1 · · · an ]T para ciertos


an−k+1 , · · · , an ∈ R y, como x = P y = [v1 · · · vr · · · vn−k+1 · · · vn ]y = an−k+1 vn−k+1 +· · ·+an vn ,
nos queda que

Q(x) = λm kxk2 si y sólo si x ∈ gen{vn−k+1 , · · · , vn } = Sλm .

A partir del Teorema de Rayleigh que acabamos de probar, es inmediato ver que:

Dada A ∈ Rn×n simétrica y Q(x) = xT Ax. Si λM y λm son los autovalores máximo y


mínimo de A respectivamente y SλM y Sλm los autespacios asociados respectivos. Entonces:

Q(x)
máx = λM y el máximo se alcanza en los x ∈ SλM \ {0}.
x6=0 kxk2
Q(x)
mı́n = λm y el máximo se alcanza en los x ∈ Sλm \ {0}.
x6=0 kxk2
En particular, máx Q(x) = λM y el máximo se alcanza en los x ∈ SλM tales que kxk = 1 y
kxk=1
mı́n Q(x) = λm y el mínimo se alcanza en los x ∈ Sλm tales que kxk = 1.
kxk=1

281
6. Formas Cuadraticas

Ejercicio 6.7. Sea Q : R3 → R la forma cuadrática definida por

Q(x) = 5x21 + 6x22 + 7x23 − 4x1 x2 − 4x2 x3 .

a) Hallar máx Q(x) y mı́n Q(x).


kxk=1 kxk=1

b) Verificar que para todo x ∈ R3 vale que 3kxk2 ≤ Q(x) ≤ 9kxk2 .


c) Caracterizar el conjunto de nivel N1 (Q) y, utilizando el resultado del inciso anterior, hallar
los puntos de N1 (Q) cuya distancia al origen sea mínima y aquellos cuya distancia al origen
sea máxima. ¿Qué valores tienen esas distancias?
5 −2 0
 

Observar que Q(x) = xT Ax, con A =  −2 6 −2  simétrica. El polinomio característico


0 −2 7
de A es χA (t) = −t3 + 18t2 − 99t+ 162 y sus raíces  son λ1 = 9, λ 2 = 6 y λ3 = 3. Por otra
−4 −2 0 −1
parte, Sλ1 =9 = nul(A − 9I) = nul(  −2 −3 −2 ) = gen{  2 }, Sλ2 =6 = nul(A − 6I) =
0 −2 −2 −2
−1 −2 0 2 −2 0
     
−2
nul(  −2 0 −2 ) + gen{  1 } y Sλ2 =3 = nul(A − 3I) = nul(  −2 3 −2 ) =
0 −2 1 2 0 −2 4
2 2
       
−1 −2
1  1  
gen{  2 }. Entonces, { 13  2  , 1 , 2 } es una bon de R3 . Tomamos
3 3
1 −2 2 1
−1 −2 2
 

P := 13  2 1 2  entonces det(P ) = 1 y una diagonalización ortogonal de A es


−2 2 1

9 0 0
 

A = P  0 6 0 PT.
0 0 3

Dem. a) : Usando la diagonalización ortogonal de A y el Teorema de Rayleigh, tenemos que

máx Q(x) = λM = 9 y mı́n Q(x) = λm = 3.


kxk=1 kxk=1

b) : Por el ítem a) tenemos que 3 ≤ Q(x) ≤ 9 para todo x ∈ R3 tal que kxk = 1. Es claro
que si x = 0 entonces 3kxk2 ≤ Q(x) ≤ 9kxk2 (pues todos los términos dan 0). Por otra parte, si
x ∈ R3 \ {0} y tomamos x̂ := kxk
x
vale que kx̂k = k kxk
x
k = 1. Entonces, 3 ≤ Q(x̂) ≤ 9 y usando la
propiedad (6.1), tenemos que Q(x) = Q(x̂kxk) = Q(x̂)kxk2 . Por lo tanto, para todo x ∈ R3 ,

3kxk2 ≤ Q(x) = Q(x̂)kxk2 ≤ 9kxk2 .

c) : El conjunto de nivel N1 (Q) es el conjunto N1 (Q) = {x ∈ R3 : Q(x) = 1}. Si hacemos


−1 −2 2

el cambio de variables x = P y, con P := 13  2 1 2  tenemos que Q(x) = 1 si y sólo si


−2 2 1
y12 y2 y2
Q̃(y) = 9y12 + 6y22 + 3y32 = 1. Podemos reescribir la ecuación anterior como + ( √12 )2 + ( √13 )2 = 1.
( 13 )2
6 3 
−1
Si tomamos los nuevos ejes rotados y1 , y2 , y3 determinados por los versores de R3 : v1 := 13  2  ,
−2
2
   
−2
v2 := 13  1  y v3 := 13  2  el conjunto de nivel N1 (Q) es un elipsoide con centro
2 1

282
6.5. Optimización de formas cuadráticas

en el origen de coordenadas y ejes coincidentes con los ejes y1 , y2 , y3 . Los valores 13 , √16 y √13
son las longitudes de los semiejes del elipsoide respecto de los
 ejes y1 , y2 , y3 , respectivamente.
1
3
Por lo tanto, en los nuevos ejes, los puntos ym := ±  0  son los puntos de N1 (Q) más
0  
−1
cercanos al origen. En la variable original, estos puntos son xm = P ym = ± 19  2  y el
  −2
−1
1
valor de la distancia mínima es kym k = kxm k = k ± 19  2  k = . De manera similar,
3
−2
0
 

los puntos yM := ±  0  son los puntos de N1 (Q) más alejados al origen. En la variable
√1
3
2
 

original, estos puntos son xM = P yM = ± √13 31  2  y el valor de la distancia máxima es


1
2
 

kyM k = kxM k = k ± 1
√  2  k = √1 . 
3 3
1 3

Ejercicio 6.8. Sea Q la forma cuadrática en R2 definida por Q(x) := xT (aI + bA)x, con a, b ∈ R
donde A es la matriz en base canónica de una proyección ortogonal de R2 sobre un subespacio
unidimensional.

a) Hallar los valores de a y b para que máx Q(x) = 5 y mı́n Q(x) = 2.


kxk=1 kxk=1

b) Para los valores hallados en el inciso anterior, y sabiendo que col(A) = {x ∈ R2 : 3x1 + 4x2 =
0}, graficar el conjunto {x ∈ R2 : Q(x) ≤ 3}.

Dem. a) : Vamos a llamar S al subespacio unidimensional de R3 sobre el que proyecta A.


Recordemos que si A es una proyección ortogonal (considerando el producto interno canónico)
entonces A = A2 = AT , ver ejemplos (3.a) y (3.b).
Más aún, vimos en el Ejercicio 4.M que los autovalores de A son λ1 = 1 con autoespacio
asociado S y λ2 = 0 con autoespacio asociado el núcleo de A que es S ⊥ .
Si llamamos B := aI + bA tenemos que Q(x) = xT Bx. Como A es simétrica y a, b ∈ R es claro
que B T = B. Entonces, podemos aplicar el Teorema de Rayleigh para concluir que

máx Q(x) = λM (B) = 5 y mı́n Q(x) = λm (B) = 2


kxk=1 kxk=1

donde λM (B) y λm (B) son los autovalores máximo y mínimo de B, respectivamente.


Aplicando las propiedades de autovalores y autovectores que vimos en 4.1, tenemos que los
autovalores de B son λ1 = a + b y λ2 = a (acá NO estamos ordenando los autovalores de
mayor a menor). Hagamos la cuenta de todas maneras: si v ∈ S tenemos Av = 1v, entonces
Bv = (aI + bA)v = av + bAv = av + bv = (a + b)v y entonces a + b es un autovalor de
B con autovector asociado v. De la misma manera, si w ∈ S ⊥ tenemos Aw = 0w, entonces
Bw = (aI + bA)w = aw + bAw = aw + b0 = aw y a es el otro autovalor de B con autovector
asociado w. Como B es una matriz de simétrica de 2 × 2, concluimos que los autovalores de B son
a + b con autoespacio asociado S y a con autoespacio asociado S ⊥ . Como no sabemos si a y b son
negativos, positivos o nulos, no podemos deducir si a + b ≥ a o si a ≥ a + b. Consideramos los
dos casos: Caso 1: supongamos que λM (B) = a + b = 5 y λm (B) = a = 2. Entonces, despejando
nos queda que a = 2 y b = 3. Por otra parte, Caso 2: supongamos que λM (B) = a = 5 y
λm (B) = a + b = 2. Entonces, despejando nos queda que a = 5 y b = −3.

283
6. Formas Cuadraticas

b) : Recordemos que col(A) es el subespacio sobre el que proyecta A que llamamos S. Es


4

decir, S = col(A) = {x ∈ R : 3x1 + 4x2 = 0} = gen{
2
}. Como vimos en el ítem a)
−3
4
 
los autovalores de B son λ1 = a + b con autoespacio asociado S = gen{ } y λ2 = a
−3
3 4 1 3
     
con autoespacio asociado S ⊥ = gen{ }. Entonces, { 15 , } es una bon de
4 −3 5 4
4 3
 
R2 . Tomamos P := 15 entonces det(P ) = 1 y una diagonalización ortogonal de B es
−3 4
a+b 0
 
B=P P T . Si hacemos el cambio de variables x = P y tenemos que Q(x) ≤ 3 si y
0 a
sólo si
Q̃(y) = (a + b)y12 + ay22 ≤ 3. (6.3)

Caso 1: a = 2 y b = 3. En este caso (6.3), nos queda Q̃(y) = 5y12 + 2y22 ≤ 3. El conjunto de
nivel{x ∈ R2 : Q(x) ≤ 3} es el contorno y el interior
 de una elipse
 en R en los nuevos ejes
2

4 3

y1 , y2 determinados por los versores v1 := 15 y v2 := 15 que son las columnas
−3 4
de P y que son una rotación de los ejes originales x1 , x2 (ver Figura 6.2).

Caso 2: a = 5 y b = −3. En este caso (6.3), nos queda Q̃(y) = 2y12 + 5y22 ≤ 3. El conjunto de
nivel{x ∈ R2 : Q(x) ≤ 3} es el contorno y el interior
 de una elipse
 en R en los nuevos ejes
2

4 3

y1 , y2 determinados por los versores v1 := 15 y v2 := 15 que son las columnas
−3 4
de P y que son una rotación de los ejes originales x1 , x2 (ver Figura 6.3).

Figura 6.2: Ejercicio 6.8) Caso 1

284
6.5. Optimización de formas cuadráticas

Figura 6.3: Ejercicio 6.8) Caso 2

Ejercicio 6.F (De Final). Sea h ·, · iA : R2 × R2 → R el producto interno definido por h x, y iA :=


y T Ax con
1 cos θ
 
A= ,
cos θ 1
donde θ ∈ (0, π).
a) Observar que QA (x) = h x, x iA es una forma cuadrática en R2 .
b) Hallar P ∈ R2×2 ortogonal con det(P ) = 1 tal que el cambio de variables x = P y transforme
QA en una forma cuadrática sin productos cruzados.
c) Determinar los ejes principales de la forma cuadrática QA .
d) Graficar el conjunto de nivel N1 (QA ) = {x ∈ R2 : QA (x) = 1}.
e) Determinar cómo son los conjuntos de nivel Nc (QA ) con c > 0.

Dem. a) : Observar en primer lugar que AT = A. Además, observar que tr(A) = 2 > 0 y
det(A) = 1 − cos θ2 = sin θ2 > 0. Entonces, si λ1 , λ2 ∈ R son los autovalores de A,
λ1 + λ2 = tr(A) > 0 y λ1 λ2 = det(A) > 0
y deducimos que λ1 > 0 y λ2 > 0. Por lo tanto, A es simétrica y sus autovalores son positivos.
Entonces, por la Proposición 6.3.1, A es definida positiva. Conclusión: por el Ejercicio 6.C, h ·, · iA
efectivamente resulta un producto interno y QA := h x, x iA es una forma cuadrática definida
positiva.
b) : Usando que tr(A) = 2 y det(A) = sin θ2 , haciendo la cuenta, tenemos que el polinomio
característico de A es
χA (t) = det(A − tI) = t2 − tr(A)t + det(A) = t2 − 2t + sin θ2 .
Entonces, como
∆ := tr(A)2 − 4 det(A) = 4 − 4 sin θ2 = 4(1 − sin θ2 ) = 4 cos θ2 > 0.

285
6. Formas Cuadraticas

Tenemos que los autovalores de A son


1  1 √ 
λ1,2 = tr(A) ± tr(A)2 − 4 det(A) = tr(A) ± ∆ .
p
2 2
Es decir: √ √
2+ ∆ 2 + 2 cos θ 2− ∆
λ1 = = = 1 + cos θ y λ2 = = 1 − cos θ.
2 2 2
Por lo tanto, el autoespacio asociado a λ1 es
− cos θ cos θ 1
   
nul(A − λ1 I) = nul(A − (1 + cos θ)I) = nul( ) = gen{ }.
cos θ − cos θ 1
De la misma manera, el autoespacio asociado a λ2 es
cos θ cos θ
   
−1
nul(A − λ2 I) = nul(A − (1 − cos θ)I) = nul( ) = gen{ }.
cos θ cos θ 1
Entonces
1 1 1
   
−1
{√ ,√ }
2 1 2 1
" #
√1 − √12
es una bon de R2 . Tomamos P := √1
2
√1
. Claramente det(P ) = 1 y A =
2 2
1 + cos θ 0
 
P PT.
0 1 − cos θ
c) : Los ejes principales de la forma cuadrática QA son los
 vectores unitarios de la bon de R
2

1 1
 
−1
formada por los autovectores de A: { √12 ,√ }.
1 2 1
d) : Si hacemos el cambiode variables x = P y, con P definida en el item b), usando que
1 + cos θ 0
A=P P T , tenemos que Q(x) = 1, si y sólo si
0 1 − cos θ

Q̃(y) = (1 + cos θ)y12 + (1 − cos θ)y22 = 1.

Podemos reescribir la ecuación anterior como


y12 y22
Q̃(y) = + = 1.
[√ 1
]2 [√ 1
]2
(1+cos θ) (1−cos θ)

Como θ ∈ (0, π) se ve que 1 + cos θ > 0 y 1 − cos θ > 0 (y ambos autovalores son distintos excepto
en el caso θ = π2 ).
Entonces, si θ ∈ (0, π) y θ =
6 π2 , el conjunto de nivel N1 (Q) = {x ∈ R2 : x21 +x22 +2 cos θx1x2 =1}
1
es una elipse en R2 en los nuevos ejes y1 , y2 determinados por los versores v1 := √12 y
1
 
−1
v2 := √12 } que son las columnas de P y que son una rotación de un ángulo (positivo) de
1
los ejes originales x1 , x2 (ver Figura 6.4). En el caso θ = π2 , el conjunto de nivel N1 (Q) es una
circunferencia de radio 1.
Vamos a graficar el conjunto de nivel N1 (Q) para 3 valores distintos de θ :
Gráfico 1: θ = π
3 (color verde). En este caso, nos queda el conjunto de nivel x21 + x22 + x1 x2 = 1
y2 y22
(en los ejes x1 , x2 ) ó √ 12 2 + [√2] 2
= 1 (en los ejes y1 , y2 ).
[ 3]

Gráfico 2: θ = π2 (color negro). En este caso, nos queda el conjunto de nivel x21 + x22 = 1 (en
los ejes x1 , x2 ) ó y12 + y22 = 1 (en los ejes y1 , y2 ). Observar que en realidad obtenemos una
circunferencia de radio 1.

286
6.5. Optimización de formas cuadráticas

Gráfico 3: θ = 2π
3 (color azul). En este caso, nos queda el conjunto de nivel x21 + x22 − x1 x2 = 1
y12 y2
(en los ejes x1 , x2 ) ó [√2] 2
+ √ 22 2 = 1 (en los ejes y1 , y2 ).
[ 3]

Figura 6.4: Ejercicio 6.F

e) : De la misma manera que hicimos en el item d, tenemos que Q(x) = c, si y sólo si

Q̃(y) = (1 + cos θ)y12 + (1 − cos θ)y22 = c.

Usando que c > 0 podemos reescribir la ecuación anterior como

y2 y2
Q̃(y) = q 1 + q 2 = 1.
[ (1+cos
c
θ) ]
2 [ (1−cos
c
θ) ]
2

Entonces, el conjunto de nivel N1 (Q) = {x ∈ R2 : x21 + x22 + 2 cosθx1 x2 = c} es unaelipseen R2


1 −1
en los nuevos ejes y1 , y2 determinados por los versores v1 := √12 y v2 := √12 } que
1 1
son las columnas de P y que son una rotación de un ángulo (positivo) de los ejes originales x1 , x2 .
Como vimos, en el caso θ = π2 , obtenemos una circunferencia de radio c. 

Ejercicio 6.9. Sea A ∈ R3×3 la matriz simétrica de traza nula tal que

nul(A − 2I) = {x ∈ R3 : x1 + x2 + x3 = 0},

y sea Q : R3 → R la forma cuadrática definida por Q(x) := xT Ax. Si x0 ∈ R3 es un vector cuya


1
 

distancia al subespacio gen{  1 } es 5, ¿qué valor debe tener la distancia de x0 al nul(A − 2I)
1
para que Q(x0 ) = 14?

287
6. Formas Cuadraticas

1 1

  

Dem. Notar que nul(A−2I) = gen{  −1  ,  1 } := Sλ=2 por lo tanto λ = 2 es un autovalor


0 −2
de A con multiplicidad geométrica 2. Más aún, como A es simétrica entonces es diagonalizable y
por lo tanto, la multiplicidad algebraica de λ = 2 también es 2. Por otra parte, como
0 = tr(A) = λ1 + λ2 + λ3 = 2 + 2 + λ3 ,
tenemos que λ = −4 es un autovalor de A de multiplicidad 1 con autoespacio asociado  el
1

complemento ortogonal de nul(A − 2I) que (afortunadamente) es Sλ=−4 := Sλ=2



= gen{  1 }.
1
Por lo tanto,
1 1 1
     
1  1 1
{√ −1  , √  1  , √  1 }
2 0 6 −2 3 1
1 1
   

es una bon de autovectores de R3 . Vamos a llamar v1 := √12  −1  v2 := √16  1  y


0 −2
1
 

v3 := √13  1  . Como x0 ∈ R3 , existen α, β, γ ∈ R tales que


1
x0 = αv1 + βv2 + γv3 .
Además, es claro que PSλ=−4 (x0 ) = γv3 y PSλ=2 (x0 ) = αv1 + βv2 . Entonces

1
 

25 = d(x0 , gen{  1 })2 = d(x0 , Sλ=−4 )2 = kx0 − PSλ=−4 (x0 )k2


1
= kαv1 + βv2 k2 = α2 + β 2 ,
donde usamos el Teorema de Pitágoras para la última igualdad.
Por otra parte, buscamos que Q(x0 ) = xT0 Ax0 = 14. Entonces, como Av1 = 2v1 , Av2 = 2v2 ,
Av3 = −4v3 y {v1 , v2 , v3 } es una bon de R3 , tenemos que
14 = Q(x0 ) = xT0 Ax0 = (αv1T + βv2T + γv3T )A(αv1 + βv2 + γv3 )
= (αv1T + βv2T + γv3T )(2αv1 + 2βv2 − 4γv3 ) = 2α2 + 2β 2 − 4γ 2 .

2(α2 +β 2 )−14
Entonces, γ 2 = 4 = 2×25−14
4 = 9. Finalmente, notar que
d(x0 , nul(A − 2I)) = d(x0 , Sλ=2 ) = kx0 − PSλ=2 (x0 )k = kγv3 k = |γ|.
Entonces, la distancia de x0 al nul(A − 2I) debe valer

d(x0 , nul(A − 2I)) = |γ| = 9 = 3.


Ejercicio 6.G (De Final). Decidir si la siguiente afirmación es verdadera o falsa: sean
2 −1 1 0
   
Q(x) = x T
x y R(x) = x T
x.
0 1 0 2
Entonces
máx Q(x) = máx R(x).
kxk=1 kxk=1

288
6.5. Optimización de formas cuadráticas

Dem. La afirmación es FALSA. Por el Teorema de Rayleigh, claramente

máx R(x) = 2,
kxk=1

1 0
 
esto es debido a que el máximo autovalor de la matriz simétrica (en particular diagonal) es
0 2
2 −1
 
2. Por otra parte, si llamamos C := entonces Q(x) = xT Cx. El polinomio característico
0 1
de C es
χC (t) = det(A − tI) = (2 − t)(1 − t).
Por lo tanto, los autovalores de C son λ1 = 2 y λ2 = 1. Sin embargo, como C claramente NO
es simétrica NO podemos aplicar el Teorema de Rayleigh. Para aplicar el Teorema de Rayleigh
necesitamos escribir a Q como Q(x) = xT Ax con A simétrica. Si recordamos lo que hicimos arriba,
vimos que tomando
C + CT 2 − 12
 
A := =
2 − 21 1
entonces Q(x) = xT Ax y ahora A es simétrica. Ahora sí podemos aplicar el Teorema de Rayleigh.
El polinomio característico de A es
1 7
χA (t) = (2 − t)(1 − t) − = t2 − 3t +
4 4
√ √
y sus raíces son λ1 = 3+ 2
2 y λ2 = Por lo tanto, por el Teorema de Rayleigh,
3− 2
2 .

3+ 2
máx Q(x) = 6= 2 = máx R(x)
kxk=1 2 kxk=1

y concluimos que la afirmación es FALSA. 

Ejercicio 6.H (De Final). Sea B ∈ R3×3 simétrica con autovalores −2, −1, 1. Hallar todos los r ∈ R
tales que
−2 ≤ xT (B + rI)x ≤ 16 para todo x ∈ R3 tal que kxk = 2.

Dem. Sea Q(x) := xT Ax donde A := B + rI. Como B es simétrica y r ∈ R, entonces A también


es simétrica. De hecho

AT = (B + rI)T = B T + (rI)T = B + rI = A.

Por otra parte, si λ ∈ R es un autovalor de B, entonces Bv = λv, para cierto v ∈ R3 \ {0}.


Entonces, como
Av = (B + rI)v = Bv + rv = λv + rv = (λ + r)v,
tenemos que λ + r es un autovalor de A con el mismo autovector asociado.
Por lo tanto, los autovalores de A (ordenados de mayor a menor) son: λ1 = 1 + r, λ2 = −1 + r y
λ3 = −2 + r. Sean λM = 1 + r y λm = −2 + r el mayor y menor autovalor de A respectivamente y
sean SλM y Sλm los autoespacios asociados correspondientes. Entonces, por el Teorema de Rayleigh,

λm kxk2 ≤ Q(x) ≤ λM kxk2 para todo x ∈ R3

y Q(x) = λm kxk2 si y sólo si x ∈ Sλm y Q(x) = λM kxk2 si y sólo si x ∈ SλM . Entonces, es


inmediato ver que

4λm ≤ Q(x) ≤ 4λM para todo x ∈ R3 tal que kxk = 2

y Q(x) = 4λm si y sólo si x ∈ Sλm y kxk = 2 y Q(x) = 4λM si y sólo si x ∈ SλM y kxk = 2. Por lo
tanto,
mı́n Q(x) = 4λm = 4(−2 + r) y máx Q(x) = 4λM = 4(1 + r).
kxk=2 kxk=2

289
6. Formas Cuadraticas

Si Q(x) = xT Ax = xT (B + rI)x ≤ 16 para todo x ∈ R3 tal que kxk = 2, entonces 16 es una cota
superior del conjunto {Q(x) : x ∈ R3 con kxk = 2}. Entonces, el máximo de dicho conjunto es
menor o igual a esa cota superior y por lo tanto,

máx Q(x) = 4λM = 4(1 + r) ≤ 16


kxk=2

y entonces, tenemos que r ≤ 16


4 − 1 = 3.
De la misma manera, si −2 ≤ xT (B + rI)x = xT Ax = Q(x) para todo x ∈ R3 tal que kxk = 2,
entonces −2 es una cota inferior del conjunto {Q(x) : x ∈ R3 con kxk = 2}. Entonces, el mínimo
de dicho conjunto es mayor o igual a esa cota inferior y por lo tanto,

−2 ≤ mı́n Q(x) = 4λm = 4(−2 + r)


kxk=2

y entonces, tenemos que − 21 + 2 = 3


2 ≤ r. Por lo tanto, 3
2 ≤ r ≤ 3. 

6.6. Optimización de formas cuadráticas con restricciones definidas


positivas
En lo que sigue, buscamos maximizar o minimizar una forma cudrática Q(x) = xT Ax (con A
simétrica) sujeta a la restricción R(x) = 1, donde R(x) = xT Bx es una forma cuadrática con B
simétrica y definida positiva.
Queremos resolver
máx Q(x) y mı́n Q(x).
R(x)=1 R(x)=1

Si R(x) = xT x = kxk2 , entonces estamos en los casos que ya analizamos y que sabemos resolver
usando el Teorema de Rayleigh. La idea entonces es, a partir de algún cambio de variables
conveniente, trasformar la restricción R(x) = 1 en una restricción de la forma z T z = 1 y luego usar
lo que ya sabemos en las nuevas variables.
Para aplicar la idea anterior B debe ser necesariamente definida positiva. De hecho,
supongamos que existe una matriz inversible F ∈ Rn×n tal que con el cambio de variables
z = F x, transformamos la restricción R(x) = 1 en una restricción de la forma z T z = 1. Entonces,
por un lado x = F −1 z y por el otro lado,

R(x) = xT Bx = z T (F −1 )T BF −1 z.

Si queremos que z T (F −1 )T BF −1 z = z T z para todo z ∈ Rn . Entonces,

z T ((F −1 )T BF −1 − I)z = z T (F −1 )T BF −1 z − z T z = 0 para todo z ∈ Rn .

Entonces, eso implica (meditar por qué) que

(F −1 )T BF −1 = I.

Si ahora multiplicamos la ecuación anterior a izquierda por F T y a derecha por F, recordando que
(F −1 )T = (F T )−1 , tenemos que

B = F T [(F −1 )T BF −1 ]F = F T IF = F T F.

Entonces, para cada x ∈ Rn tenemos que

h Bx, x i = F T F x, x = h F x, F x i = kF xk2 ≥ 0,

y entonces B tiene que ser semidefinida positiva. Y además, como queremos que F sea inversible,
tenemos que nul(F ) = {0}. Entonces,

h Bx, x i = 0 = kF xk2

290
6.6. Optimización de formas cuadráticas con restricciones definidas positivas

si y sólo si F x = 0 si y sólo si x ∈ nul(F ) = {0}. Por lo tanto, B tiene que ser necesariamente
definida positiva. Si B no cumple esa condición, no tendremos esperanzas de encontrar un cambio
de variables que transforme la restricción R(x) = 1 en una restricción de la forma z T z = 1.

Ahora sí, supongamos que B ∈ Rn×n es definida positiva. Entonces, B es simétrica, sus
autovalores son todos  positivos y existe Q ∈ R
n×n
ortogonal, tal que B = QΛQT , donde
µ1 · · · 0

Λ =  · · · . . . · · ·  es la matriz con todos los autovalores positivos de B.


 

0 ··· µn
Sea  
1/2
µ1 ··· 0
F := Q 
 ..  T
 ··· . ··· Q .

1/2
0 ··· µn
Entonces, esa es una diagonalización ortogonal de F por cómo la definimos. Es más, por definición,
los autovalores de F son la raíz cuadrada de los autovalores de B. Por lo tanto, F es simétrica y
tiene todos autovalores positivos (no nulos). Es decir, F es inversible y definida positiva y además
F2 = FF = FFT = FTF
   
1/2 1/2
µ ··· 0 µ1 ··· 0
 1 . ..
= Q ··· .. · · · · · ·  Q = QΛQ = B.
 T   T T
 Q Q
  ··· . 
1/2 1/2
0 ··· µn 0 ··· µn
La matriz F es un buen candidato para el cambio de variables que buscamos. Entonces, hagamos
el cambio de variables z = F x, (x = F −1 z). Entonces, como B = F 2 = F T F = F F T , tenemos que
R(x) = xT Bx = xT F T F x = (F x)T (F x) = z T z y
Q(x) = xT Ax = (F −1 z)T A(F −1 z) = z T (F −1 )T AF −1 z = z T (F −1 AF −1 )z.
Entonces, usando el Teorema de Rayleigh, tenemos que
máx Q(x) = máx z T (F −1 AF −1 )z = λM (F −1 AF −1 ),
R(x)=1 z T z=1

donde λM (F −1 AF −1 ) es el autovalor máximo de la matriz simétrica F −1 AF −1 . Por el mismo


teorema, tenemos que el máximo se alcanza en los x = F −1 z con z ∈ SλM (F −1 AF −1 ) tales que
kzk = 1.
De manera análoga, tenemos que
mı́n Q(x) = mı́n z T (F −1 AF −1 )z = λm (F −1 AF −1 ),
R(x)=1 z T z=1

donde λm (F −1 AF −1 ) es el autovalor mínimo de la matriz simétrica F −1 AF −1 . Por el mismo


teorema, tenemos que el mínimo se alcanza en los x = F −1 z con z ∈ Sλm (F −1 AF −1 ) tales que
kzk = 1.

Para evitar hacer todas las cuentas que implicaría el cálculo de los autovalores y autoespacios
de la matriz F −1 AF −1 , en lo que sigue veremos una manera simple de hallar λM (F −1 AF −1 ),
λm (F −1 AF −1 ), SλM (F −1 AF −1 ) y Sλm (F −1 AF −1 ) .

Con la notación que usamos arriba, valen las siguientes observaciones:

1. λ es un autovalor de F −1 AF −1 si y sólo si λ es una raíz de det(A − tB).


2. Sea λ un autovalor de F −1 AF −1 . Entonces x = F −1 z con z ∈ Sλ si y sólo si
x ∈ nul(A − λB).

291
6. Formas Cuadraticas

Probemos estas observaciones.


1. : Recordemos que B = F 2 , entonces

F −1 BF −1 = F −1 F F F −1 = I.

Por lo tanto,

F −1 AF −1 − λI = F −1 AF −1 − λF −1 BF −1 = F −1 (A − λB)F −1 .

Entonces, λ es un autovalor de F −1 AF −1 si y sólo si

0 = det(F −1 AF −1 − λI) = det(F −1 (A − λB)F −1 )


= det(F ) det(A − λB) det(F −1 ) = det(A − λB)

si y sólo si λ es una raíz de det(A − tB).


2. : Sea λ un autovalor de F −1 AF −1 y supongamos que x = F −1 z con z ∈ Sλ , entonces
(F AF −1 )z = λz. Por lo tanto, AF −1 z = F (F −1 AF −1 )z = F λz = λF z y
−1

(A − λB)x = (A − λB)F −1 z = AF −1 z − λBF −1 z = λF z − λF F F −1 = λF z − λF z = 0,

entonces x ∈ nul(A − λB).


Recíprocamente, supongamos que x ∈ nul(A − λB) entonces (A − λB)x = 0, ó equivalentemente,
Ax = λBx = λF F x. Entonces

F −1 Ax = λF −1 F F x = λF x.

Sea z := F x, entonces x = F −1 z y

(F −1 AF −1 )z = F −1 Ax = λF x = λz.

Por lo tanto λ es un autovalor de F −1 AF −1 , z ∈ Sλ y x = F −1 z.

Vamos a aplicar estas herramientas en el siguiente ejercicio:


Ejercicio 6.12. Sea Q : R2 → R las forma cuadrática en R2 definida por

Q(x) := x21 + x22 + x1 x2 .

a) Observar que Q es definida positiva y hallar un cambio de variables x = M y tal que


Q̃(y) = Q(M y) = kyk2 .

b) Hallar, si existen, el máximo y el mínimo de Q(x) sujetos a la restricción R(x) :=


9x21 + 3x22 − 8x1 x2 = 1 y determinar los vectores que los realizan.

1 1
 
Dem. a) : Observar que Q(x) = xT Ax, con A = 2 . El polinomio característico de A
1
2 1
es χA (t) = (1 − t)2 − 41 , cuyas raíces son 32 y 12 (ambas positivas). Por lo tanto, A es definida
positiva (también se puede probar que A es definida positiva viendo que el determinante de las
submatrices principales de A
 son ambos positivos).Por otra parte, los autoespacios correspondientes
1 1 −1
 
−1
son Sλ= 32 = gen{ 2
√1
} y Sλ= 12 = gen{ 2
√1
}. Entonces, si P := 2
√1
, tal
1 1 1 1
como vimos arriba, podemos definir
 q 
3
2 0
G := P  q PT.
0 1
2

292
6.6. Optimización de formas cuadráticas con restricciones definidas positivas

Por definición G es simétrica e inversible. Más aún, GT G = GG = A. Tomemos


" q #
2
0
M := G = P
−1 3 √ PT,
0 2

notar que GM = M G = I. Entonces, si consideramos el cambio de variables x = M y, tenemos que

Q̃(y) = Q(M y) = y T M T AM y = y T M T GT GM y = y T (GM )T (GM )y = y T y = kyk2 .

9 −4
 
b) : Observar que R(x) = xT Bx con B = . El polinomio característico de B es
−4 3
χB (t) = (9 − t)(3 − t) − 16, cuyas raíces son λ1 = 11 y λ2 = 1 (ambas positivas). Por lo tanto, B
es definida positiva, entonces la restricción R también es una forma cuadrática definida positiva
y podemos aplicar lo que vimos arriba. Recordar que probamos que si B = F F, con F ∈ R2×2
definida positiva, entonces

máx Q(x) = λM (F −1 AF −1 ) y mı́n Q(x) = λm (F −1 AF −1 )


R(x)=1 R(x)=1

donde λM (F −1 AF −1 ) y λm (F −1 AF −1 ) son el máximo y mínimo autovalor de F −1 AF −1


respectivamente. También vimos que λ es una autovalor de F −1 AF −1 si y sólo si λ es una
raíz de det(A − tB). Busquemos entonces las raíces de

1 12 9 −4 1 − 9t 21 + 4t
     
det(A − tB) = det( 1 −t ) = det( 1 )
2 1 −4 3 2 + 4t 1 − 3t
1 1
= 27t2 − 12t + 1 − ( + 4t)2 = 27t2 − 12t + 1 − 16t2 − − 4t
2 4
3
= 11t − 16t + .
2
4
√ √
Las ráices de det(A − tB) son λ1 = 16+22 223 = λM (F −1 AF −1 ) y λ2 = 16− 223
22 =
λm (F −1 AF −1 ). Entonces,
√ √
16 + 223 16 − 223
máx Q(x) = y mı́n Q(x) = .
R(x)=1 22 R(x)=1 22

b) : Vimos que los x ∈ R2 tales que R(x) = 1 y que maximizan Q son los x = F −1 z con
z ∈ SλM (F −1 AF −1 ) tales que kzk = 1. También vimos que x = F −1 z con z ∈ SλM (F −1 AF −1 ) si y
sólo si x ∈ nul(A − λM (F −1 AF −1 )B). Calculemos

16 + 223
nul(A − λM (F AF )B) = nul(A −
−1 −1
B)
22
" √ √ # √
−122−9 223 75+4 223
75 + 4 √223
 
= 22
√ 22√ = gen{ }.
75+4 223
22
−26−3 223
22
122 + 9 223

Entonces, el conjunto de
√ todos
 los x ∈ R tales que R(x) = 1 y que maximizan Q son los
2
√ x de la
75 + 4 √223 75 + 4 √223

forma x = α con α ∈ R tales que R(x) = 1. Llamemos v := ,
122 + 9 223 122 + 9 223
como

1 = R(x) = R(αv) = α2 R(v),

tenemos que α = ± R(v)1 1/2 y el conjunto de todos los x ∈ R2 tales que R(x) = 1 y que maximizan
Q, es el conjunto de dos puntos:
1 1
{ 1/2
v, − v}.
R(v) R(v)1/2

293
6. Formas Cuadraticas

c) : Vimos que los x ∈ R2 tales que R(x) = 1 y que minimizan Q son los x = F −1 z con
z ∈ Sλm (F −1 AF −1 ) tales que kzk = 1. También vimos que x = F −1 z con z ∈ Sλm (F −1 AF −1 ) si y
sólo si x ∈ nul(A − λm (F −1 AF −1 )B). Calculemos

16 − 223
nul(A − λm (F AF )B) = nul(A −
−1 −1
B)
22
" √ √ # √
−122+9 223 75−4 223
75 − 4 √223
 
= 22
√ 22√ = gen{ }.
75−4 223
22
−26+3 223
22
122 − 9 223

Entonces el conjunto de
√ todos los x ∈ R tales que R(x) = 1 y que minimizanQ son los
2
√ x de la
75 − 4 √223 75 − 4 √223

forma x = α con α ∈ R tales que R(x) = 1. Llamemos w := ,
122 − 9 223 122 − 9 223
como

1 = R(x) = R(αw) = α2 R(w),

tenemos que α = ± R(w) 1


1/2 y el conjunto de todos los x ∈ R
2
tales que R(x) = 1 y que minimizan
Q, es el conjunto de dos puntos:
1 1
{ w, − w}.
R(w)1/2 R(w)1/2


En el próximo ejercicio, vamos a resolver un problema de minimización con una restricción


que no es definida positiva. Por lo tanto, no podremos aplicar las herramientas que vimos hasta
ahora. Sin embargo, como la función a minimizar es Q1 (x) = kxk2 (que veremos es una función
relativamente sencilla) podremos resolver el ejercicio geométricamente.
El siguiente ejercicio es similar al Ejercicio 6.11.
Ejercicio 6.I. Hallar si existen, el máximo y el mínimo y (los puntos donde se alcanzan) de la forma
cuadrática Q1 : R2 → R, Q1 (x) = kxk2 , sujeto a la restricción

Q2 (x) = 2x21 − 6x22 + 6x1 x2 = 1.

2 3
 
Dem. Observar que Q2 (x) = x Bx, con B :=
T
. El polinomio característico de B es
3 −6

χB (t) = (2 − t)(−6 − t) − 6 = t2 + 4t − 21.

Entonces, los autovalores de B son λ1 = 3 y λ2 = −7. Por lo tanto B es indefinida y NO podemos


aplicar la técnica que usamos en el Ejercicio 6.12.
Sin embargo, como la forma cuadrática a optimizar es Q1 (x) = kxk2 no todo está perdido.
Imaginemos que graficamos en R2 la restricción Q2 (x) = 1 que es el gráfico del conjunto de nivel
c = 1 para la forma cuadrática indefinida Q2 . Si podemos observar cuáles puntos de dicho gráfico se
encuentran más cercanos al origen es decir al punto [0 0]T ∈ R2 , entonces es claro que esos puntos
van a minimizar la función kxk, luego (si no se entiende la próxima igualdad demostrarla) tenemos
que
( mı́n kxk)2 = mı́n kxk2 = mı́n Q1 (x).
Q2 (x)=1 Q2 (x)=1 Q2 (x)=1

Lo mismo podremos pensar para los puntos más alejados del origen y el máximo que nos interesa.
Entonces, para graficar el conjunto de nivel Q2 (x) = 1, diagonalizemos ortogonalmente a la
matriz B. Ya vimos que λ1 = 3 y λ2 = −7 son sus autovalores y los autoespacios asociados son:

−1 3 3
   
nul(B − 3I) = nul( ) = gen{ },
3 −9 1

294
6.6. Optimización de formas cuadráticas con restricciones definidas positivas

9 3
   
−1
nul(B + 7I) = nul( ) = gen{ }.
3 1 3
" #
3 1 √3 − √110
   
−1
Entonces, { √110 ,√ } es una bon de R y si tomamos P =
2 10 ,
1 10 3 √1
10
√3
10
entonces det(P ) = 1 y una diagonalización ortogonal de B es

3 0
 
B=P PT.
0 −7

Por lo tanto, con el cambio de variables x = P y, nos queda Q(x) = Q̃(y) = 3y12 − 7y22 . Entonces
Q2 (x) = 1 si y sólo 3y12 − 7y22 = 1, ó equivalentemente,

y12 y22
− = 1.
[ √13 ]2 [ √17 ]2

Por lo tanto el conjunto de nivel Q2 (x)= 1 es una hipérbola en R2 en los nuevos ejes y1 , y2
3

−1
determinados por los versores v1 := √110 y v2 := √110 que son las columnas de P y
1 3
que son una rotación de un ángulo (positivo) de los ejes originales x1 , x2 . Ver Figura 6.5.

Figura 6.5: Ejercicio 6.C

Como se puede observar, los puntos del conjunto de nivel Q2 (x) = 1 (queson los puntos  de la
√1 √1

hipérbola de color verde) más cercanos al origen, son los puntos ym1 = 3 e ym2 = − 3
0 0
(en los ejes y1 , y2 ). Por lo tanto, usando el cambio de variables x = P y, tenemos que, los puntos
más cercanos al origen son
" #  " # " #
√3 √1 √3 −3
− √1
 √
xm1 = P ym1 = √1
10
√3
10 3 = 30
√1
y xm2 = P ym2 = −1
30 .
10 10
0 30

30

295
6. Formas Cuadraticas

Entonces

1 1
mı́n Q1 (x) = mı́n kxk2 = ( mı́n kxk)2 = kxm k2 = kym k2 = ( √ )2 =
Q2 (x)=1 Q2 (x)=1 Q2 (x)=1 3 3
" # " #
√3 −3

y dicho mínimo, como acabamos de ver, se alcanza en los puntos xm1 = 30
√1
y xm2 = −1

30 .
30 30
Por último, es claro que no existe el máximo de kxk2 restringido a Q2 (x) = 1. 

Tal como hicimos en el Ejercicio 6.I, podemos determinar gráficamente (si existen)
mı́n Q1 (x) y máx Q1 (x) y los puntos donde se alcanzan esos extremos, para cualquier
Q2 (x)=1 Q2 (x)=1
forma cuadrática Q2 (sin importar si es definida positiva) pero cuando Q1 es una forma
cuadrática muy particular, por ejemplo Q1 (x) = kxk2 o formas cuadráticas similares.

Veamos otro ejemplo:


Ejercicio 6.J. Hallar si existen, el máximo y el mínimo y (los puntos donde se alcanzan) de la
forma cuadrática Q1 : R2 → R, Q1 (x) = 5kxk2 , sujeto a la restricción

Q2 (x) = 2x21 − 6x22 + 6x1 x2 = 1.

Dem. Notar que


5 ( mı́n kxk)2 = mı́n 5kxk2 = mı́n Q1 (x).
Q2 (x)=1 Q2 (x)=1 Q2 (x)=1

Lo mismo podremos pensar para los puntos más alejados del origen y el máximo que nos interesa.
Por lo tanto, operando de manera similar al Ejercicio 6.I, tenemos que

1 5
mı́n Q1 (x) = mı́n 5kxk2 = 5( mı́n kxk)2 = 5kxm k2 = 5kym k2 = 5( √ )2 =
Q2 (x)=1 Q2 (x)=1 Q2 (x)=1 3 3
" # " #
√3 −3

y dicho mínimo, se alcanza en los puntos xm1 = 30
√1
y xm2 = −1

30 .
30 30
Por último, es claro que no existe el máximo de 5kxk2 restringido a Q2 (x) = 1. 

Ejercicio 6.13. Sea Q : R2 → R la forma cuadrática definida por Q(x) := ax21 + ax22 + 2bx1 x2 ,
donde a, b ∈ R.

a) Hallar y graficar el conjunto de todos los pares (a, b) para los cuales Q es definida positiva.

b) Hallar y graficar el conjunto de todos los pares (a, b) para los cuales

mı́n Q(x) = 0 y máx Q(x) = 4.


kxk2 =1 2kxk =1

c) Determinar los valores de a y b para los cuales existe un cambio de variables ortogonal x = P y
tal que Q̃(y) := Q(P y) = 4y12 + 9y22 .

d) Para a = 52 y b = 32 hallar los puntos de la curva de nivel Q(x) = 1 más cercanos al origen.
¿Qué puede decirse de los más lejanos?

e) Para a = 32 y b = 52 hallar los puntos de la curva de nivel Q(x) = 1 más cercanos al origen.
¿Qué puede decirse de los más lejanos?

296
6.6. Optimización de formas cuadráticas con restricciones definidas positivas

 
a b
Dem. a) : Notar que Q(x) = x Ax, con A := T
. Por lo tanto, tal como vimos en el
b a
Teorema 5.4.2, A es definida positiva si y sólo si el determinate de todas sus submatrices principales
es positivo. En este caso, tenemos dos submatrices principales: A(1) = [a] cuyo determinante es
det(A(1) ) = a y A(2) = A cuyo determinante es det(A(2) ) = det(A) = a2 − b2 . Entonces A es
definida positiva, si y sólo si a > 0 y a2 > b2 . Entonces, tomando raíz en la última desigualdad y
usando que a > 0, tenemos que |a| = a > |b|. Por lo tanto, A es definida positiva, si y sólo a > 0 y
−a < b < a.
b) : El polinomio característico de A es χA (t) = (a − t)2 − b2 , cuyas raíces son λ1 = a + b y
λ2 = a − b. Veamos distintos casos:

Caso 1: b>0. En este caso, a + b > a − b, el mayor autovalor de A es a + b y el menor


es a − b. Por lo tanto, por el Teorema de Rayleigh, mı́n
2
Q(x) = a − b. Si buscamos que
kxk =1
mı́n
2
Q(x) = a − b = 0, tenemos que a = b. De la misma manera, máx
2
Q(x) = a + b. Si
kxk =1 kxk =1
buscamos que mı́n
2
Q(x) = a + b = 4. Despejando, nos queda que 2b = 4, por lo tanto b = 2
kxk =1
y a = 2.

Caso 2: b<0. En este caso, a − b > a + b, el mayor autovalor de A es a − b y el menor


es a + b. Por lo tanto, por el Teorema de Rayleigh, mı́n
2
Q(x) = a + b. Si buscamos que
kxk =1
mı́n
2
Q(x) = a + b = 0, tenemos que a = −b. De la misma manera, máx
2
Q(x) = a − b. Si
kxk =1 kxk =1
buscamos que mı́n
2
Q(x) = a − b = 4. Despejando, nos queda que −2b = 4, por lo tanto
kxk =1
b = −2 y a = 2.

Caso 3: b=0. En este caso, a − b = a + b = a y por lo tanto mı́n


2
Q(x) = máx
2
Q(x) = a.
kxk =1 kxk =1
Si buscamos que mı́n
2
Q(x) = 0, tenemos que a = 0. De la misma manera, si buscamos que
kxk =1
mı́n
2
Q(x) = a = 4. Entonces a = 4. Lo que es absurdo y este caso no puede suceder.
kxk =1

Conclusión mı́n
2
Q(x) = 0 y máx
2
Q(x) = 4 si y sólo si (a, b) ∈ {(2, 2), (2, −2)}.
kxk =1 kxk =1
c) : Notar que existe un cambio de variables ortogonal x = P y tal que Q̃(y) := Q(P y) = 4y12 +9y22
si y sólo si
4 0
 
Q(P y) = y T
y = Q(x) = y T P T AP y.
0 9
Entonces
4 0 4 0
     
y (
T
− P AP )y =
T
y, ( − P AP )y
T
=0
0 9 0 9

4 0 4 0
   
para todo y ∈ R . Por lo tanto P AP =
2 T
o lo que es equivalente, A = P PT.
0 9 0 9
Es decir, los autovalores de A son λ1 = 4 y λ2 = 9. Entonces, tal como hicimos en b) tenemos que
analizar 3 casos recordando que los autovalores de A son a + b y a − b. Entonces:

Caso 1: b>0. En este caso, a + b > a − b, el mayor autovalor de A es a + b y el menor


es a − b. Por lo tanto, por el Teorema de Rayleigh, mı́n
2
Q(x) = a − b = 4. De la misma
kxk =1
manera, máx
2
Q(x) = a + b = 9. Despejando, nos queda que a = 13
2 y b = 25 .
kxk =1

Caso 2: b<0. En este caso, a − b > a + b, el mayor autovalor de A es a − b y el menor


es a + b. Por lo tanto, por el Teorema de Rayleigh, mı́n
2
Q(x) = a + b = 4. De la misma
kxk =1
manera, máx
2
Q(x) = a − b = 9. Despejando, nos queda que a = 13
2 y b = − 25 .
kxk =1

297
6. Formas Cuadraticas

Caso 3: b=0. En este caso A tiene sólo 1 autovalor doble λ = a − b = a + b = a y por lo


tanto no existen valores de a y b tales que los autovalores de A sean 4 y 9.

Conclusión, existe un cambio de variables ortogonal x = P y tal que Q̃(y) := Q(P y) = 4y12 + 9y22 si
y sólo si (a, b) ∈ {( 13
2 , 2 ), ( 2 , 2 )}.
5 13 −5

d) : Si a = 2 y b = 2 entonces los autovalores de A sonλM = a + b = 4 y λm = a − b = 1 y los


5 3

1 −1
autoespacios asociados son SλM = nul(A−4I) = gen{ } y Sλm = nul(A−I) = gen{ }.
1 1
1 1 1 −1
     
−1
Entonces { √12 ,√ } es una bon de R2 . Si tomamos P = √12 tenemos
1 2 1 1 1
4 0

que det(P ) = 1 y A = P P T . En este caso, con el cambio de variables x = P y, vale que
0 1

y12
1 = Q(x) = Q̃(y) = 4y12 + 1y22 = + y22 .
( 12 )2

1
 
En los nuevos ejes rotados y1 , y2 determinados por los versores de R2 : v1 := √12 y
  1
−1
v2 := √12 el conjunto de nivel N1 (Q) = {x ∈ R2 : Q(x) = 1} es una elipse con centro en el
1
origen de coordenadas 1 y ejes coincidentes con los ejes y1 , y2 , ver Figura 6.6. En los nuevos ejes, los
puntos ym := ± 2 son los puntos de N1 (Q) más cercanos al origen. En la variable original,
0
1
 
estos puntos son xm = P ym = ± 2√ 1
y el valor de la distancia mínima es kym k = kxm k =
2 1
1 1 0
   
k ± 2√1
k = . De manera similar, los puntos y := ± son los puntos de N1 (Q) más
2 1 2
M
1
 
−1
alejados del origen. En la variable original, estos puntos son xM = P yM = ± 2 √1
y el valor
1
 
−1
de la distancia máxima es kym k = kxm k = k ± √12 k = 1.
1
e) : Si a = 32 y b = 52 entonces los autovalores de A son λM = a + b = 4 y λm = a − b = −1 y los
1 −1
autoespacios asociados son SλM = nul(A−4I) = gen{ } y Sλm = nul(A+I) = gen{ }.
1 1
1 1 1 −1
     
−1
Entonces { √12 ,√ } es una bon de R2 . Si tomamos P = √12 tenemos
1  2 1 1 1
4 0

que det(P ) = 1 y A = P P T . En este caso, con el cambio de variables x = P y, vale que
0 −1

y12
1 = Q(x) = Q̃(y) = 4y12 − 1y22 = − y22 .
( 12 )2

1
 
En los nuevos ejes rotados y1 , y2 determinados por los versores de R : v1 := 2
y
√1
2 1
 
−1
v2 := √12 el conjunto de nivel N1 (Q) = {x ∈ R2 : Q(x) = 1} es una hipérbola, ver
1
 1 
Figura 6.7. Por lo tanto, en los nuevos ejes, los puntos ym := ± 2 son los puntos de N1 (Q)
0
1
 
más cercanos al origen. En la variable original, estos puntos son xm = P ym = ± 2√1
y el
2 1
1 1
 
valor de la distancia mínima es kym k = kxm k = k ± 2√1
k = . Cómo se puede observar en
2 1 2
la Figura 6.7, el conjunto no posee máximo (no está acotado superiormente). 

298
6.6. Optimización de formas cuadráticas con restricciones definidas positivas

Figura 6.6: Ejercicio 6.13 c)

Figura 6.7: Ejercicio 6.13 d)

299
Bibliografía

[1] Grossman S., Álgebra lineal con aplicaciones, Mac Graw-Hill, 3era. Edición, 1990.
[2] Hoffman K., Kunze R., Álgebra Lineal, Prentice Hall, 1984.
[3] Jeronimo G., Sabia J., Tesauri S., Álgebra Lineal, Departamento de Matemática -
FCEyN - Universidad de Buenos Aires, 2008.
[4] Maltsev A.I., Fundamentos de Álgebra Lineal, MIR, 1978.
[5] Mancilla Aguilar J.L., Apuntes sobre Álgebra Lineal, Departamento de Matemática -
FIUBA - Universidad de Buenos Aires.

301

También podría gustarte