Apuntesalyg

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 200

ÁLGEBRA LINEAL Y GEOMETRÍA

Laureano González Vega y Cecilia Valero Revenga


Departamento de Matemáticas, Estadı́stica y Computación
Universidad de Cantabria
Curso 201 –20
Índice

I Lecciones 1

1 Espacios Vectoriales 3
1.1 Definición de Espacio Vectorial. Primeros ejemplos. . . . . . . . . . . . . . . . . . . . . 3
1.1.1 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Subespacios Vectoriales. Combinaciones lineales. . . . . . . . . . . . . . . . . . . . . . 5
1.2.1 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3 Independencia lineal. Bases. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.1 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4 Suma e intersección de subespacios. Suma directa . . . . . . . . . . . . . . . . . . . . . 18
1.4.1 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.5 Problemas de Espacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

2 Aplicaciones Lineales y Matrices 31


2.1 Definición de Aplicación Lineal. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.1.1 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.2 Núcleo e imagen. Fórmula de las dimensiones . . . . . . . . . . . . . . . . . . . . . . . 34
2.2.1 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.3 Tipos de Aplicaciones Lineales. Isomorfismos. . . . . . . . . . . . . . . . . . . . . . . . 38
2.3.1 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.4 Matriz asociada a una aplicación lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.4.1 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.5 Cambios de base y matrices equivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.5.1 Cambios de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.5.2 M 0 = QM P . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2.5.3 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.6 Problemas de Aplicaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

3 La Teorı́a del Endomorfismo 69


3.1 Autovalores y autovectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
3.1.1 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.2 El polinomio mı́nimo de un endomorfismo . . . . . . . . . . . . . . . . . . . . . . . . . 80
3.2.1 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
3.3 Subespacios invariantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
3.3.1 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
3.4 Endomorfismos nilpotentes. Forma canónica de Jordan . . . . . . . . . . . . . . . . . . 90
3.4.1 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
3.5 Cálculo aproximado de autovalores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
3.6 Problemas de la Teorı́a del Endomorfismo . . . . . . . . . . . . . . . . . . . . . . . . . 99

iii
iv ÍNDICE

4 Geometrı́a Euclı́dea 115


4.1 Producto escalar y ortogonalidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
4.1.1 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
4.2 Proyección ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
4.3 Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
4.3.1 Aproximación por mı́nimos cuadrados . . . . . . . . . . . . . . . . . . . . . . . 125
4.3.2 Resolución de sistemas de ecuaciones lineales sobredimensionados . . . . . . . . 126
4.4 Isometrı́as en espacios vectoriales euclı́deos . . . . . . . . . . . . . . . . . . . . . . . . 126
4.4.1 Definición y primeras propiedades . . . . . . . . . . . . . . . . . . . . . . . . . 127
4.4.2 Transformaciones ortogonales en un espacio de dimensión 2 . . . . . . . . . . . 128
4.4.3 Isometrı́as en espacios vectoriales euclı́deos. . . . . . . . . . . . . . . . . . . . . 130
4.4.4 Transformaciones ortogonales en un espacio de dimensión n . . . . . . . . . . . 133
4.5 Espacio Afı́n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
4.5.1 Sistemas de referencia y cambio de sistema de referencia . . . . . . . . . . . . 139
4.5.2 Aplicaciones Afines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
4.6 Estudio de algunas aplicaciones afines particulares . . . . . . . . . . . . . . . . . . . . 144
4.6.1 Proyecciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
4.6.2 Simetrı́as . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
4.6.3 Traslaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
4.6.4 Homotecias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
4.6.5 Giros en X = R2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
4.7 Cónicas y Cuádricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
4.7.1 Cónicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
4.7.2 Cuádricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
4.8 Problemas de Geometrı́a Euclı́dea . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158

II Cuestionarios 171

Cuestionario 173
Parte I

Lecciones

1
Lección 1

Espacios Vectoriales

1.1 Definición de Espacio Vectorial. Primeros ejemplos.


En todo lo que sigue K denotará uno de los cuerpos Q, R ó C.

Definición 1.1.1
Sea K un cuerpo y V un conjunto no vacı́o. Se dice que V es un K–espacio vectorial si existen dos
operaciones
+:V ⇥V !V ·:K⇥V !V
verificando las siguientes propiedades (siendo u, v, w elementos cualesquiera de V y a, b elementos
cualesquiera de K; 1 denota el elemento neutro del producto en K):
• (u + v) + w = u + (v + w); u + v = v + u;

• Existe un elemento 0 en V tal que u + 0 = u

• Para cada u en V existe w en V tal que u + w = 0;

• a · (u + v) = a · u + a · v; (a + b) · u = a · u + b · u;

• a · (b · u) = (ab) · u; 1 · u = u.

Los elementos de V se denominan vectores y los elementos de K escalares.

Figura 1.1: Operaciones con vectores

Proposición 1.1.1
Si V es un K–espacio vectorial entonces se verifican las siguientes propiedades (siendo v un elemento
cualquiera de V y a un elemento cualquiera de K):
• 0 · v = 0; a · 0 = 0; ( a) · v = a · ( v) = (a · v);

• Si a · v = 0 entonces a = 0 ó v = 0.
4 LECCIÓN 1. ESPACIOS VECTORIALES

Ejemplo 1.1.1
En las lineas siguientes aparecen ejemplos de espacios vectoriales que serán utilizados con frecuencia.

• El conjunto R2 de las parejas de números reales con las operaciones:

(x1 , x2 ) + (y1 , y2 ) = (x1 + y1 , x2 + y2 ) a · (x1 , x2 ) = (ax1 , ax2 )

es un R–espacio vectorial.

• Si K es un cuerpo cualquiera entonces el conjunto Kn (las n-uplas con coordenadas en K) con


las operaciones:
(x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn )
a · (x1 , . . . , xn ) = (ax1 , . . . , axn )
es un K–espacio vectorial.

• Si K es un cuerpo cualquiera entonces el conjunto Mn,m (K) de las matrices con n filas y m
columnas y entradas en K es un K–espacio vectorial.

• Si K es un cuerpo cualquiera entonces el conjunto K[X] de los polinomios en la variable X y


coeficientes en K es un K–espacio vectorial. También es un K–espacio vectorial el conjunto Kn [x]
cuyos elementos son los polinomios en K[x] cuyo grado es menor o igual que n.

• Sea V el conjunto de todas las aplicaciones de R en R. Si f y g son dos elementos cualesquiera


de V y ↵ un número real cualquiera, se definen f + g y ↵ · f de la siguiente forma:

(f + g)(x) = f (x) + g(x) y (↵ · f )(x) = ↵ · f (x)

donde x denota un número real arbitrario.


El conjunto V con las operaciones suma y producto por escalares ası́ definidas es un R-espacio
vectorial, llamado R-espacio vectorial de las funciones reales de variable real.

1.1.1 Ejercicios
Ejercicio 1.1.1.1
Escribir cuatro ejemplos de espacios vectoriales, señalando el conjunto de elementos sobre el que se
define la suma (V ), el conjunto de números utilizado para definir el producto por escalares (K), la
operación suma (+) y la operación producto (·K ).

Ejercicio 1.1.1.2
En los distintos casos que se presentan a continuación, y sabiendo que se trabaja en el R-espacio
vectorial R6 , sustituir los · · · por los valores que permiten obtener las igualdades señaladas.

1. ( 1, 4, 2, 0, 0, 1) + 3(1, 0, 0, 2, 1, 1) + ( 1)(0, 0, 0, 1, 0, 0) =

(· · · , · · · , · · · , · · · , · · · , · · ·)

2. · · · ( 1, 4, 2, 0, 0, 0) + 3(1, 0, 0, · · · , 4, 4) = (0, · · · , · · · , 15, · · · , · · ·)

3. 0(· · · , · · · , · · · , · · · , · · · , · · ·) = (0, 0, 0, 0, 0, 0).

4. (x, y, z, t, r, s) + (· · · , · · · , · · · , · · · , · · · , · · ·) = (x, y, z, t, r, s)
1.2. SUBESPACIOS VECTORIALES. COMBINACIONES LINEALES. 5

Ejercicio 1.1.1.3
En el R-espacio vectorial M2⇥3 (R) de las matrices de tamaño 2 ⇥ 3 (dos filas y tres columnas) con
coeficientes reales se consideran los siguientes elementos:
✓ ◆ ✓ ◆
1 2 3 1 2 3
A= B=
3 2 1 3 2 1
✓ ◆ ✓ ◆
1 0 0 2 2 3
C= D=
1 1 1 4 3 2
Señalar, justificando la respuesta, cuáles de las afirmaciones siguientes son correctas.

1. La matriz B es la opuesta de la matriz A y A + ( B) + 2C = 2D.

2. Existen números reales ↵ y ambos no nulos tales que ↵A = D.

3. Si ↵B + C = D, entonces = ↵ = 1.
1
Determina el vector v = 3A B + C + 2D, ası́ como un vector w tal que v + 3w = A.
2

1.2 Subespacios Vectoriales. Combinaciones lineales.


Definición 1.2.1
Se dice que un subconjunto no vacı́o U de un K–espacio vectorial V es un subespacio vectorial si U
con las operaciones de V es también un K–espacio vectorial.

Los subespacios vectoriales admiten la siguiente caracterización.

Proposición 1.2.1
Un subconjunto no vacı́o U de un K–espacio vectorial V es un subespacio vectorial si y sólo si para
todo a1 y a2 en K y para todo u1 y u2 en U se tiene:

a1 u1 + a2 u2 2 U.

Ejemplo 1.2.1
Se muestran a continuación algunos ejemplos de subconjuntos de un espacio vectorial que son (o no)
subespacios vectoriales.

• El conjunto de los vectores (x, y) en R2 verificando x + 2y = 1 no es un subespacio vectorial


de R2 como R–espacio vectorial. Sı́ es subespacio vectorial el conjunto de los vectores (x, y)
verificando x + 2y = 0.

• El conjunto de los vectores (x, y, z) en R3 verificando que x + y + z = 1 no es un subespacio


vectorial de R3 como R-espacio vectorial.

• El conjunto de los vectores (x, y, z) en R3 verificando que x + y + z = 0 es un subespacio vectorial


de R3 como R-espacio vectorial.

• El conjunto de las matrices diagonales con 5 filas y 5 columnas es un subespacio vectorial de


M5,5 (R) como R-espacio vectorial.

• El conjunto de los polinomios en K[x] de grado menor o igual que 3 es un subespacio vectorial
de K[x] como K-espacio vectorial.
6 LECCIÓN 1. ESPACIOS VECTORIALES

Figura 1.2: No todas los subconjuntos de R2 son subespacios

• El conjunto de los polinomios en K[x] de grado igual a 3 no es un subespacio vectorial de K[x]


como K-espacio vectorial.

• El conjunto U = {(x, y, z) 2 Q3 : x < 0} no es un subespacio vectorial del Q-espacio vectorial


Q3 .

• En el R-espacio vectorial V = {f : R ! R : f es aplicación}, el conjunto W formado por aquellas


aplicaciones de V que verifican 2f (0) = f (1) es un subespacio vectorial de V .

Con el fin de construir de forma sencilla subespacios vectoriales se introduce a continuación la


definición de combinación lineal. Esto permitirá establecer la definición de subespacio generado por
una familia de vectores.

Definición 1.2.2
Sea V un K–espacio vectorial y u, u1 , . . . , um vectores de V . Se dice que u es una combinación lineal
de los vectores u1 , . . . , um si existen a1 , . . . , am en K tal que

u = a 1 u1 + a1 u2 + . . . + am um

Es inmediato que si u es combinación lineal de los vectores u1 , . . . , um , y cada uno de éstos es combi-
nación lineal de los vectores w1 , . . . , wl , entonces u es combinación linel de los vectores w1 , . . . , wl .

Definición 1.2.3
Sea V un K–espacio vectorial y S = {u1 , . . . , um } una familia de vectores de V . Se define hSi como el
subconjunto de V formado por todos aquellos vectores de V que son combinación lineal de los vectores
u1 , . . . , u m .

Observar que:
1. Puesto que la combinación lineal de dos elementos en hSi es también una combinación lineal
de los vectores de hSi, de acuerdo con la proposición 1.2.1, se tiene que hSi es un subespacio
vectorial de V .

2. Se tiene asimismo que hSi coincide con la intersección de todos los subespacios de V que contienen
aS
1.2. SUBESPACIOS VECTORIALES. COMBINACIONES LINEALES. 7

3. hSi es el subespacio vectorial de V más pequeño de todos aquellos que contienen a S en el sentido
siguiente. Si U es un subespacio de V tal que S ✓ U entonces hSi ✓ U .

Ejemplo 1.2.2
Se muestran a continuación dos ejemplos de subespacios generados por un conjunto de vectores.

1. En el R-espacio vectorial R2 , si S1 = {(1, 1)}, hS1 i representa la bisectriz del primer y tercer
cuadrante. Para S2 = {(1, 0)}, hS2 i representa el eje de abcisas; y si S3 = {(1, 1), (1, 0)},
entonces hS3 i = R2 .

Figura 1.3: Combinaciones lineales de elementos de R2

2. Si en el R-espacio vectorial M3 (R) de las matrices cuadradas de orden 3 se consideran los


subconjuntos
0 1 0 1 0 1 0 1
1 0 0 1 0 0 0 0 0 0 0 0
@
S1 = { 0 1 0 } A @ A
S2 = { 0 0 0 , 0 1 @ A @
0 , 0 0 0 A}
0 0 1 0 0 0 0 0 0 0 0 1

entonces hS1 i es el conjunto de matrices escalares (matrices diagonales con todos los elementos
de la diagonal principal iguales) y hS2 i es el conjunto de matrices diagonales.

Todos los espacios vectoriales que vamos a considerar a continuación van a tener en común la
propiedad de estar generados por un número finito de vectores: diremos que S = {u1 , . . . , um } es un
sistema de generadores de un K–espacio vectorial V si V = hSi. A los espacios vectoriales que
verifiquen esta propiedad se les denominará espacios vectoriales de tipo finito.

• Los K-espacios vectoriales Kn , Mn,m (K) y Kn [x] son de tipo finito.

• K[x] como K–espacio vectorial no es de tipo finito.

• No es de tipo finito el R-espacio vectorial V = {f : R ! R : f es aplicación}.

Salvo que se indique explı́citamente lo contrario, en todo lo que sigue, espacio vectorial denotará
espacio vectorial de tipo finito.
8 LECCIÓN 1. ESPACIOS VECTORIALES

Figura 1.4: Dos formas diferentes de expresar v como combinación lineal de v1 , v2 , v3

La noción de sistema generador sirve para motivar la introducción del concepto de vectores lineal-
mente independientes, objeto de la siguiente sección.

Es fácil comprobar si consideramos V = R2 como R–espacio vectorial, la familia S = {v1 =


(1, 0), v2 = (1, 1), v3 = (1, 1)} es un sistema de generadores de V . Por ejemplo, el vector v = (0, 1)
puede expresarse como combinación lineal de los vectores de S de la siguiente forma:

v = (0, 1) = 1 · (1, 0) + ( 1) · (1, 1) + 0 · (1, 1) = v1 v2

Pero también
⇣ 1⌘ 1 1
v = (0, 1) = 0 · (1, 0) + · (1, 1) + · (1, 1) = ( v2 + v3 )
2 2 2
Las gráficas de la figura anterior ilustran este hecho.

La búsqueda de la unicidad, i.e. una única forma de representación, en la escritura de un vector


como combinación lineal de aquellos que forman un sistema de generadores es lo que conduce, primero
a la noción de vectores linealmente independientes y, segundo, al concepto de base.

1.2.1 Ejercicios
Ejercicio 1.2.1.1
Se consideran los siguientes vectores del R-espacio vectorial R4 :

v1 = (1, 1, 1, 0), v2 = (1, 2, 0, 1), v3 = (1, 0, 1, 2)

w1 = (3, 1, 1, 4), w2 = (2, 3, 4, 2), w3 = (0, 1, 1, 1)

1. Escribir tres combinaciones lineales distintas de los vectores w1 , w2 , w3 (que denotaremos por
u1 , u2 y u3 ).

2. Expresar w1 , w2 y w3 como combinación lineal de v1 , v2 y v3 .

3. Expresar los vectores u1 , u2 y u3 dados en el primer apartado como combinación lineal de v1 ,


v2 y v3 .
1.2. SUBESPACIOS VECTORIALES. COMBINACIONES LINEALES. 9

4. ¿Es verdadera o falsa la siguiente afirmación?: ”Si v = (x, y, z, t) 2 R4 es combinación lineal de


w1 , w2 y w3 , entonces v es combinación lineal de v1 , v2 y v3 .

Ejercicio 1.2.1.2
En el R-espacio vectorial R4 se considera el conjunto

U = {↵(1, 1, 1, 1) + (1, 1, 1, 1) : ↵, 2 R}.

Completa cada una de las frases siguientes.

1. U es el conjunto de todas las combinaciones lineales de los vectores ..........

2. U es un subespacio porque si u1 , u2 2 U , entonces ..............

3. U es el subespacio generado por ......................

4. El vector u = (1, 1, 0, 0) pertenece a U porque ..................

5. El vector u = (1, 1, 1, 0) no pertenece a U porque ..................

Responde a cada una de las cuestiones siguientes:

a) Si S es un subespacio de R4 tal que (1, 1, 1, 1) 2 S y (1, 1, 1, 1) 2 S, ¿es cierto que U ⇢ S?

b) Si W = { (1, 1, 1, 1) + (2, 2, 2, 2) : , 2 R}, ¿es cierto que W ⇢ U ?

c) Si T = { (1, 1, 0, 0) + (0, 0, 1, 1) + ✏( 1, 1, 3, 3) : , , ✏ 2 R}, ¿es cierto que T = U ?

Ejercicio 1.2.1.3
En el R-espacio vectorial R4 define un subespacio U generado por tres vectores, tal que W =
{ (1, 1, 1, 1) + (2, 2, 0, 0) : , 2 R} sea un subespacio de U .

Ejercicio 1.2.1.4
En el R-espacio vectorial R4 se consideran los vectores y subespacios siguientes:

v1 = (1, 1, 1, 0), v2 = (1, 1, 0, 1), v3 = (1, 0, 1, 1), v4 = (0, 1, 1, 1),

S1 = h{v1 }i, S2 = h{v1 , v2 }i, S3 = h{v1 , v2 , v3 }i, S4 = h{v1 , v2 , v3 , v4 }i.

1. Escribir tres vectores distintos de cada uno de los subespacios S1 , S2 , S3 , S4 .

2. Justificar la gráfica anterior.

3. Escribir dos vectores de S2 que no estén en S1 , dos vectores de S3 que no estén en S2 , y dos
vectores de S4 que no estén en S3 .

4. Si Bc = {e1 , e2 , e3 , e4 } es la base canónica de R4 , se puede expresar cada ei como combinación


lineal de v1 , v2 , v3 , v4 ?

5. ¿Se puede afirmar que R4 = h{v1 , v2 , v3 , v4 }i

Ejercicio 1.2.1.5
Se consideran las siguientes familias de vectores del R-espacio vectorial R4 :

C = {(1, 1, 1, 1), (1, 1, 1, 0)} y S = h{(1, 1, 1, 1), (1, 1, 1, 0)}i


10 LECCIÓN 1. ESPACIOS VECTORIALES

1. Indicar la cantidad de vectores que hay en C y en S.


2. Comprobar que C no es un subespacio de R4 , y que S sı́ lo es.
3. Dar un vector de S que no pertenezca a C. ¿Hay algún vector de C que no esté en S?
4. ¿Se puede decir que C es un sistema generador de S?
Ejercicio 1.2.1.6
Sea R el cuerpo de los números reales. En el R-espacio vectorial R2 se consideran los siguientes
conjuntos.
U = {(x, y) 2 R2 : 3x y 0}
W = {(x, y) 2 R2 : x 2, y  0}
2
T = {(x, y) 2 R : 5x 2y = 0}
Si ↵ 2 R, definimos ↵U = {↵u : u 2 U }; análogamente se define ↵W y ↵T . Además llamamos
U ⇤ = {↵u : u 2 U ↵ 2 R}; de forma similar T ⇤, W ⇤.
1. Representa gráficamente U , W , T , ( 1) · U , 3 · W y 5 · T .
2. Representa gráficamente U ⇤, W ⇤, T ⇤.
3. ¿Quiénes de los conjuntos U , W y T son subespacios de R2 ?
Ejercicio 1.2.1.7
Sea R el cuerpo de los números reales. ¿Cuáles de los siguientes subconjuntos del R-espacio vectorial
R3 son subespacios vectoriales?
a) R = {(x, y, z) 2 R3 : 3x 8y = 0}.
b) S = {(x, y, z) 2 R3 : x  0, y = 2}.
c) T = {(x, y, z) 2 R3 : x 2 Z ó x 2 R+ }.
d) U = {(x, y, z) 2 R3 : x2 + y 2 = 1}.
d) W = {(x, y, z) 2 R3 : x, y, z 2 Q}.
Representa gráficamente los conjuntos definidos en los apartados anteriores. Ilustra también las re-
spuestas dadas.
Ejercicio 1.2.1.8
Sea Q el cuerpo de los números racionales. Define dos subconjuntos U y W del Q-espacio vectorial
V = Q2 tales que U sea subespacio de V y W no lo sea.
Ejercicio 1.2.1.9
Un productor de té comercializa cinco mezclas (M1, ..., M5) de tres tipos diferentes de té (T1, T2,
T3). La composición de 50 grs. de cada mezcla está dada por la siguiente tabla.
T1 T2 T3
0 1
M 1 10 20 20
M2B B 15 10 25 C
C
M3B B 12 16 22 C
C
M 4 @ 5 30 15 A
M 5 20 12 18
¿Cuáles de las mezclas M3,M4 y M5 pueden ser obtenidas de las mezclas M1 y M2?
1.3. INDEPENDENCIA LINEAL. BASES. 11

Ejercicio 1.2.1.10
Se considera el R-espacio vectorial R4 . Determina en cada caso los valores de x y de y, si es posible,
para que:

1. (3, 2, x, y) 2 h{(1, 4, 5, 2), (1, 2, 3, 1)}i.

2. (x, x + 1, y, y + 1) 2 h{(1, 3, 0, 2)}i.

3. (x, x 1, y, y + 1) 2 h{(1, 3, 0, 2)}i.

Ejercicio 1.2.1.11
¿Cuáles de los siguientes conjuntos son subespacios del R-espacio vectorial R3 [X]?

1. {p(X) 2 R3 [X] : p0 (X) = 3}

2. {X 2 + 1, X}

3. {p(X) 2 R3 [X] : p(0) = 0}

4. {↵X : ↵ 2 R}

Ejercicio 1.2.1.12
Se considera el R-espacio vectorial R3 y los siguientes subespacios de R3 .

U = h{(1, 4, 5, ), (1, 2, 3)}i

W = {↵(1, 1, 0) + (1, 2, 3) : ↵, 2 R}

1. Da un subespacio T de R3 tal que T 6= {~0}, T ⇢ U y T ⇢ W .

2. Da un subespacio S de R3 tal que U ⇢ S y W ⇢ S.

3. Siendo S el subespacio dado en el apartado anterior, ¿es cierto que S = R3 ?

1.3 Independencia lineal. Bases.


Definición 1.3.1
Sea V un K–espacio vectorial y u1 , . . . , um vectores de V . Se dice que los vectores u1 , . . . , um son
linealmente independientes (o que la familia {u1 , . . . , um } es libre) si se verifica la siguiente condición:

↵ 1 u1 + ↵ 2 u2 + . . . + ↵ m um = 0 =) ↵1 = 0, ↵2 = 0, . . . , ↵m = 0

En otras palabras, los vectores u1 , . . . , um son linealmente independientes si y sólo si la única forma
de escribir el vector 0 como combinación lineal de los vectores u1 , . . . , um es aquélla en la que todos
los escalares involucrados son iguales a 0.

Ejemplo 1.3.1
12 LECCIÓN 1. ESPACIOS VECTORIALES

• Los vectores (1, 1) y (1, 1) de R2 como R-espacio vectorial son linealmente independientes
puesto que:

↵1 + ↵2 = 0
↵1 (1, 1) + ↵2 (1, 1) = (0, 0) =) =) ↵1 = 0, ↵2 = 0
↵1 ↵2 = 0

En cambio, y dentro del mismo espacio vectorial, los vectores (1, 1), (1, 1) y (1, 0) no son
linealmente independientes puesto que:
1 1
(0, 0) = 0(1, 1) + 0(1, 1) + 0(1, 0) = (1, 1) + (1, 1) + ( 1)(1, 0)
2 2

• En el R-espacio vectorial R3 [X] de los polinomios de coeficientes reales de grado menor o igual que
3, los vectores 1, X, X 3 son linealmente independientes. También son linealmente independientes
los vectores 1 X y X 2 , y son linealmente dependientes los vectores 1 X, X + X 2 , 2, 3X 2 . Esta
última afirmación queda justificada mediante la siguiente igualdad.
3
3X 2 3(X 2 + X) 3(1 X) 2=0
2

• En el R-espacio vectorial V = {f : R ! R : f es aplicación} las funciones f (x) = cos(x), g(x) =


sen(x), h(x) = x son linealmente independientes.
Supongamos que ↵f + g + h es la aplicación nula. Por tanto,

↵cos(x) + sen(x) + x = 0 para todo número real x.

En particular, si x = 0, se deduce que ↵ = 0 y se tiene

sen(x) + x = 0 para todo número real x.

Si se hace x = ⇡, se obtiene = 0, y en consecuencia

sen(x) = 0 para todo número real x.



Para x = , es obligado que sea 0.
2
p p
• En el Q-espacio vectorial R la p familia {1, 2} es libre. Si en la combinación ↵ · 1 + · 2 = 0
con ↵, 2 Q se tuviese 6= 0, 2 podrı́a escribirse como cociente de dos números racionales, y
por tanto serı́a racional. Al ser falsa esta conclusión, debe ser = 0, y entonces ↵ = 0.
p
Si R se considera como R–espacio
p vectorial,
p es inmediato que la familia {1, 2} es ligada puesto
que se puede escribir ( 2) · 1 + 1 · 2 = 0.
p p
Una situación análoga se tiene para la familia {1, 2, 3}.

Si los vectores u1 , . . . , um no son linealmente independientes diremos que son linealmente de-
pendientes o que {u1 , . . . , um } es una familia ligada.
La siguiente proposición recoge un conjunto de propiedades de la independencia lineal que seran
muy útiles en todo lo que sigue.

Proposición 1.3.1
Sea V un K–espacio vectorial y S = {u1 , . . . , um } una familia de vectores en V .
1.3. INDEPENDENCIA LINEAL. BASES. 13

1. Si 0 2 S entonces S es una familia ligada.

2. Si en S hay dos vectores repetidos entonces S es una familia ligada.

3. Si S es una familia libre entonces, para todo i, S {ui } es una familia libre.

4. Si S es una familia ligada y w es un vector cualquiera de V entonces S [ {w} es una familia


ligada.

5. S es una familia ligada si y sólo si existe un vector ui en S que es combinación lineal de los
vectores de S {ui }.

6. Si S es una familia libre y w 62 hSi entonces S [ {w} es una familia libre.

7. u1 y u2 son linealmente dependientes si y sólo si existe ↵ 2 K tal que u1 = ↵u2

El siguiente teorema muestra como, en los espacios vectoriales de tipo finito, las familias libres
tienen a lo sumo tantos elementos como el número de vectores en cualquier sistema de generadores
del espacio vectorial considerado.

Teorema 1.3.1
Sea V un K–espacio vectorial y S = {u1 , . . . , un } una familia de vectores en V tal que V = hSi. Si
T = {w1 , . . . , wm } es una familia libre de vectores en V entonces m  n.

Aplicando este teorema es inmediato deducir que:

• En Kn , como K-espacio vectorial, las familias libres de vectores tienen a lo sumo n elementos.

• En Mn,m (K), como K-espacio vectorial, las familias libres de vectores tienen a lo sumo nm
elementos.

• En Kn [x], como K-espacio vectorial, las familias libres de vectores tienen a lo sumo n + 1
elementos.

• En {(x, y, z) 2 R3 : x + y + z = 0}, como R-espacio vectorial, las familias libres de vectores


tienen a lo sumo 3 elementos.

• En {A 2 Mn,n (K) : A es simétrica}, como K-espacio vectorial, las familias libres de vectores
tienen a lo sumo n(n + 1)/2 elementos.

La noción fundamental de esta sección es el concepto de base. De acuerdo con lo ya reseñado al


final de la sección anterior, el principal defecto de los sistemas generadores se encuentra en la falta de
unicidad a la hora de representar un vector como combinación lineal de los vectores de los mismos.
Este problema se resuelve exigiendo la independencia lineal a los vectores en el sistema generador.

Definición 1.3.2
Sea V un K–espacio vectorial y S = {u1 , . . . , un } una familia de vectores en V . Se dice que S es una
base de V si S es una familia libre y S es un sistema de generadores de V .

Proposición 1.3.2
Sea V un K–espacio vectorial y S = {u1 , . . . , un } una familia de vectores en V . La familia S es una
base de V si y sólo si todo vector de V se escribe, de forma única, como combinación lineal de los
vectores de S.
14 LECCIÓN 1. ESPACIOS VECTORIALES

Sobre el concepto dado a continuación se insistirá en lecciones posteriores, pero lo visto en el


resultado anterior permite introducirlo aquı́:

Definición 1.3.3
Sea V un K–espacio vectorial y B = {u1 , . . . , un } una base de V . Por la proposición precedente, se
sabe que la forma de escribir un vector cualquiera v 2 V como

v = ↵ 1 u1 + ↵ 2 u2 + . . . + ↵ n un

es única. Tal unicidad permite establecer esta nueva definición.


La n-upla (↵1 , ↵2 , · · · , ↵n ) 2 Kn recibe el nombre de coordenadas de v respecto de la base B.

A la vista de todo lo anterior se debe indicar aquı́ que, si bien la definición de base se ha realizado
para un conjunto de vectores, a partir de ahora el orden en el que se escriben los vectores en una base
es importante puesto que ese orden marca quienes han de ser las coordenadas de un vector respecto
de una base. Asi, si {u1 , u2 } es una base de un espacio vectorial V y las coordenadas de un vector v
son (↵1 , ↵2 ) entonces {u2 , u1 } también es una base de V y las coordenadas de v respecto de esta base
son (↵2 , ↵1 ).
Para cada uno los ejemplos de espacios vectoriales que hemos estado manejando hasta ahora, existe
una “base canónica”, una base que es especialmente sencilla de describir y respecto de la cuál es fácil
expresar cualquier vector:

• En Kn , como K-espacio vectorial:


1 en lugar i)
z }| {
B = {e1 , . . . , en } donde ei = (0, · · · , 0, 1, 0, · · · , 0) 8i

• En Mn,m (K), como K-espacio vectorial:


00 ··· 0 ··· ··· 01
. .. ..
B .. . .C
B C
B = {A11 , . . . , Anm } donde Aij = B
B 0. · · · 1 ··· ··· 0C
@ .. .. .. C
. .A
0 ··· 0 ··· ··· 0

• En Kn [x], como K-espacio vectorial:

B = {1, x, x2 , . . . , xn 1
, xn }

A continuación se muestran, entre otras propiedades, que todo espacio vectorial de tipo finito tiene,
al menos, una base, que dos bases distintas de un mismo espacio vectorial tienen siempre el mismo
número de elementos (lo cual conduce al concepto de dimensión) y que toda familia libre de vectores
puede extenderse a una base.

Teorema 1.3.2
Sea V un K–espacio vectorial de tipo finito y S = {u1 , . . . , um } un sistema de generadores de V .
Entonces existe un subconjunto T de S tal que T es una base de V .

Corolario 1.3.1
Todo espacio vectorial de tipo finito tiene una base.
1.3. INDEPENDENCIA LINEAL. BASES. 15

Sea V un K–espacio vectorial y S1 = {u1 , . . . , um } y S2 = {w1 , . . . , wn } bases de V . Aplicando


el teorema 1.3.1 a S1 como sistema generador de V y a S2 como familia libre se obtiene que n 
m. Recı́procamente, intercambiando los papeles de S1 y S2 , obtenemos m  n. Con esto queda
demostrado el siguiente teorema, que motiva la definición de dimensión de un espacio vectorial de tipo
finito.

Teorema 1.3.3
En un K-espacio vectorial de tipo finito V todas las bases poseen el mismo número de elementos. Se
define, por ello, la dimensión de V , dim(V ), como el número de elementos en una base cualquiera
de V .

Ası́, como K–espacios vectoriales, se tiene que dim(Kn ) = n, dim(Mn,m (K)) = nm y dim(Kn [x]) =
n + 1.
La siguiente proposición, de nuevo consecuencia del teorema 1.3.1, muestra cómo el conocimiento
de la dimensión de un espacio vectorial simplifica la caracterización de sus bases.

Proposición 1.3.3
Sea V un K-espacio vectorial de tipo finito y dim(V ) = n.

1. Si V = h{u1 , . . . , um }i entonces n  m.

2. Si u1 , . . . , um son linealmente independientes entonces m  n.

3. Si V = h{u1 , . . . , un }i entonces {u1 , . . . , un } es una base de V .

4. Si u1 , . . . , un son linealmente independientes entonces {u1 , . . . , un } es una base de V .

De acuerdo con los apartados 2 y 3 de la proposición anterior si un conjunto de m vectores de


V linealmente independientes no es una base de V entonces m < dim(V ). El Teorema de la Base
Incompleta muestra cómo esta familia de vectores puede extenderse a una base de V .

Teorema 1.3.4 (Teorema de la Base Incompleta)


Sea V un K-espacio vectorial y B = {v1 , . . . , vn } una base de V . Si w1 , . . . , wm son vectores de V
linealmente independientes entonces existen n m vectores, vi1 . . . , vin m , en B tal que la familia
{w1 , . . . , wm , vi1 . . . , vin m } es una base de V .

Es una consecuencia obvia que los subespacio de un espacios vectorial de tipo finito también son de
tipo finito. Además, como consecuencia inmediata del Teorema de la Base Incompleta (teorema 1.3.4)
se tiene que la dimensión de un subespacio siempre es menor o igual que la dimensión del espacio
vectorial en el que se encuentra. Todo esto se recoge en la siguiente proposición.

Proposición 1.3.4
Sea V un K-espacio vectorial y U un subespacio vectorial de V . Entonces U es un K–espacio vectorial
de tipo finito y, además, dim(U )  dim(V ). Si dim(U ) = dim(V ), entonces U = V .

1.3.1 Ejercicios
Ejercicio 1.3.1.1
Sean v1 = (0, 1, 1, 0) y v2 = (1, 0, 0, 1) dos vectores de R4 .

1. Demostrar que v1 y v2 son linealmente independientes.


16 LECCIÓN 1. ESPACIOS VECTORIALES

2. Sea S el subespacio generado por v1 y v2 , ¿es cierto que S = {(a, b, b, a) : a, b 2 R}?

3. Dar un vector w que no esté en S y probar que {v1 , v2 , , w} es una parte libre de R4 .

4. Sea T el subespacio generado por el conjunto de vectores {v1 , v2 , w} del apartado anterior. Hallar
un vector u no perteneciente a T y probar que R4 = h{v1 , v2 , w, u}i.

Ejercicio 1.3.1.2
Sea G el siguiente conjunto de vectores del R-espacio vectorial R4 :

G = {v1 = (1, 1, 0, 1), v2 = (1, 1, 2, 1), v3 = (1, 0, 1, 1), v4 = (4, 1, 5, 4)}

1. Comprobar que G es ligada, y eliminar de G el menor número de vectores posible para llegar a
una familia libre L.

2. ¿Es cierto que hGi = hLi?

3. ¿Cuál es el número máximo de vectores linealmente independientes que hay en hLi?

4. Añade a L cuantos vectores sean necesarios para llegar a una familia libre F tal que R4 = hF i

Ejercicio 1.3.1.3
Sea C el cuerpo de los números complejos y R el de los reales. Se consideran los espacios vectoriales
siguientes:
(C2 , +, ·C ) (C2 , +, ·R )

1. Comprobar que (1 i)(1 + i, 2i) + ( 2)(1, i + 1) = (0, 0)

2. En (C2 , +, ·C ), ¿los vectores (1 + i, 2i) y (1, i + 1) son linealmente independientes? ¿Por qué?

3. En (C2 , +, ·R ), ¿los vectores (1 + i, 2i) y (1, i + 1) son linealmente independientes? ¿Por qué?

Ejercicio 1.3.1.4
En R2 se consideran los conjuntos de vectores:

B = {(0, 1), (2, 1)} y B 0 = {(2, 2), (2, 1)}

1. Probar que B es base de R2 .

2. Escribir, si es posible, cada vector de B en función de B 0 .

3. ¿Si v es combinación lineal de B, v es combinación lineal de B 0 ?

4. ¿Es B 0 sistema generador de R2 ? ¿Es B 0 base de R2 ?

5. Dar una representación gráfica de B y de B 0 y de la forma de expresar el vector v = (3, 4) en


función de cada una de esas familias de vectores.

Ejercicio 1.3.1.5
En R2 se considera el siguiente conjunto de vectores:

G = {(x, y) 2 R2 : 3  x  1, y = 1}

1. ¿Es G es subespacio de R2 ?
1.3. INDEPENDENCIA LINEAL. BASES. 17

2. Demostrar que los vectores v1 = ( 3, 1) y v2 = (1, 1) forman una base de R2 .

3. Expresar cada vector de G en función de B = {v1 , v2 }. Representar gráficamente este resultado.

4. ¿Serı́a correcto decir que B es una base de G?

Ejercicio 1.3.1.6
En R3 se consideran los conjuntos de vectores:

B = {(0, 0, 1), (0, 2, 1), (3, 2, 1)} y B 0 = {(2, 1, 0), (0, 2, 1), (2, 0, 1)}

1. Probar que B es base de R3 .

2. Escribir, si es posible, cada vector de B en función de B 0 .

3. ¿Si v es combinación lineal de B, v es combinación lineal de B 0 ?

4. ¿Es B 0 sistema generador de R3 ? ¿Es B 0 base de R3 ?

Ejercicio 1.3.1.7
Sea V el R-espacio vectorial M2⇥3 (R) de las matrices de tamaño 2 ⇥ 3 con coeficientes reales, y sea
U el siguiente subespacio de V
✓ ◆
a11 a12 a13
U ={ : a11 + a12 = 0, a21 + a22 a23 = 0, a13 = 0}.
a21 a22 a23

1. Escribir tres elementos (concretos) M1 , M2 , M3 de U que sean linealmente independientes.

2. ¿Todo vector de U se puede expresar de la forma


✓ ◆ ✓ ◆ ✓ ◆
1 1 0 0 0 0 0 0 0
↵ + + ?
0 0 0 1 0 1 0 1 1

3. ¿Es posible añadir a las matrices M1 , M2 , M3 dadas en el primer apartado un cuarto elemento
M4 2 U tal que la familia {M1 , M2 , M3 , M4 } sea libre? Dar dos bases distintas de U .

4. ¿Es posible añadir a las matrices M1 , M2 , M3 dadas en el primer apartado un cuarto elemento
M4 2 V tal que la familia {M1 , M2 , M3 , M4 } sea libre (en V )?

5. Hallar vectores M4 , M5 , M6 de V tales que {M1 , M2 , M3 , M4 , M5 , M6 } sea base de V .

Ejercicio 1.3.1.8
Sea V = R3 [X] es conjunto de polinomios con coeficientes reales de grado menor o igual que 3. Dar
dos bases B y B 0 diferentes de V y expresar cada vector de B como combinación lineal de los vectores
de B 0 y recı́procamente.

Ejercicio 1.3.1.9
¿Cuáles son las coordenadas del vector v = (1, 2, 3, 4) 2 R4 respecto de la base B = {v1 .v2 , v3 , v4 }
siendo v1 = (4, 3, 2, 1), v2 = (3, 2, 1, 0), v3 = (2, 1, 0, 0), v4 = (1, 0, 0, 0).

Ejercicio 1.3.1.10
Sean V un K-espacio vectorial y L = {v1 , v2 , · · · , v40 } una parte libre de V . ¿Cuáles de las afirmaciones
siguientes son verdaderas?
18 LECCIÓN 1. ESPACIOS VECTORIALES

1. dim(V ) 40

2. Si L es sistema generador, entonces dim(V )= 40

3. dim(V )= 40

4. Existe S ⇢ L tal que S es sistema generador de V

Ejercicio 1.3.1.11
Sean V un K-espacio vectorial y sea S = {v1 , v2 , · · · , v6 } un sistema generador de V . ¿Cuáles de las
afirmaciones siguientes son verdaderas?

1. dim(V ) 6

2. Si S parte libre, entonces dim(V )= 6

3. dim(V )> 6

Ejercicio 1.3.1.12
Se considera el R-espacio vectorial V = R4 . ¿Cuáles de los siguientes subespacios de V tienen di-
mensión 2?

1. T1 = h{(1, 1, 1, 0), ( 1, 2, 3, 1)}i

2. T2 = h{(1, 1, 0, 1), ( 1, 2, 3, 0), (0, 3, 3, 1)}i

3. T3 = {(x, y, z, t) 2 V : 2x y = 0, z + 2t = 0}

4. T4 = {(x, y, z, t) 2 V : 2x y + z + 2t = 0}

1.4 Suma e intersección de subespacios. Suma directa


Si V es un K–espacio vectorial y U1 y U2 son subespacios vectoriales de V es muy fácil demostrar,
usando la proposición 1.2.1, que la intersección de U1 y U2 , es decir U1 \ U2 , es un subespacio vectorial
de V . Análogamente se obtiene el mismo resultado para la intersección de una familia cualquiera de
subespacios de V .
Sin embargo para la unión de subespacios no es posible asegurar un resultado análogo, como
muestra el siguiente ejemplo en el R-espacio vectorial R2 :

U1 = h{u1 = (1, 1)}i, U2 = h{u2 = (1, 1)}i

u1 = (1, 1) 2 U1 [ U2 , u2 = (1, 1) 2 U1 [ U2 , u1 + u2 = (2, 0) 62 U1 [ U2


Este comportamiento de la unión de subespacios es lo que motiva la definición del subespacio suma
de U1 y U2 como
U1 + U2 = hU1 [ U2 i
esto es, como el más pequeño de los subespacios de V que contienen a U1 [ U2 . Si U1 y U2 son de tipo
finito se tiene, de acuerdo con la definición de subespacio suma, que:

U1 = h{w1 , . . . , ws }i, U2 = h{v1 , . . . , vt }i =) U1 + U2 = h{w1 , . . . , wm , v1 , . . . , vt }i

A continuación se muestra la razón por la que a este nuevo subespacio se le denomina subespacio
suma: todo vector en U1 + U2 es suma de un vector en U1 y de otro vector en U2 .
1.4. SUMA E INTERSECCIÓN DE SUBESPACIOS. SUMA DIRECTA 19

Figura 1.5: Combinación lineal de vectores de U1 [ U2 que no está en U1 [ U2

Proposición 1.4.1
Sea V un K-espacio vectorial y U1 y U2 subespacios vectoriales de V . Entonces:

U1 + U2 = {v1 + v2 : v1 2 U1 , v2 2 U2 }

Análogamente para s subespacios de V se tiene:

U1 + U2 + . . . + Us = hU1 [ U2 [ . . . [ Us i

y es muy sencillo demostrar:

U1 + U2 + . . . + Us = {v1 + v2 + . . . + vs : v1 2 U1 , v2 2 U2 . . . , vs 2 Us }

De la definición de U1 + U2 se deduce claramente que siempre se verifica la siguiente desigualdad

dim(U1 + U2 )  dim(U1 ) + dim(U2 )

ya que la unión de dos bases B1 y B2 de U1 y U2 nos proporciona, a lo sumo, un sistema de generadores


de U1 + U2 . No es difı́cil probar la siguiente equivalencia

B1 [ B2 base de U1 + U2 () U1 \ U2 = {0}

que también puede expresarse como

dim(U1 + U2 ) = dim(U1 ) + dim(U2 ) () U1 \ U2 = {0}

equivalencia que motiva la definición de suma directa de dos subespacios y la introducción de la


fórmula de Grasmann que proporciona la relación existente entre las dimensiones de los subespacios
U1 , U2 , U1 + U2 y U1 \ U2 .

Definición 1.4.1
Sea V un K-espacio vectorial y U1 y U2 subespacios vectoriales de V . Se dice que la suma de U1 y U2 ,
U1 + U2 , es directa si U1 \ U2 = {0}. En tal caso escribiremos U1 + U2 = U1 U2
20 LECCIÓN 1. ESPACIOS VECTORIALES

Teorema 1.4.1 (Fórmula de Grasmann)


Sea V un K-espacio vectorial y U1 y U2 subespacios vectoriales de V . Entonces:

dim(U1 + U2 ) = dim(U1 ) + dim(U2 ) dim(U1 \ U2 )

Ya hemos mostrado que la suma de dos subespacios es directa si y sólo si la unión de las bases de
los subespacios es una base del subespacio. La siguiente proposición muestra como refinar el resultado
de la proposición 1.4.1 que describı́a de forma precisa los elementos del subespacio U1 + U2 .

Proposición 1.4.2
Sea V un K-espacio vectorial y U1 y U2 subespacios vectoriales de V . Las siguientes afirmaciones son
equivalentes:
1. La suma de U1 y U2 es directa.

2. La unión de dos bases cualesquiera de U1 y U2 es una base de U1 + U2 .

3. Todo vector de U1 + U2 se escribe, de forma única, como suma de un vector en U1 y de un


vector en U2 .

Se finaliza el capı́tulo generalizando todo lo anterior al caso de la suma de más de dos sube-
spacios. Para ello se nota en primer lugar que si se quieren mantener las propiedades 2 y 3 de la
proposición anterior no se puede definir la suma directa de s subespacios mediante condiciones sobre
sus intersecciones. Si en R3 , como R–espacio vectorial, se consideran los subespacios

U1 = h{(1, 0, 0), (0, 0, 1)}i, U2 = h{(0, 1, 0)}i, U3 = h{(1, 1, 0)}i,

se tiene
U1 \ U2 \ U3 = U1 \ U2 = U2 \ U3 = U1 \ U3 = {0}
pero ni la unión de sus bases no es una base de U1 + U2 + U3 , ni todo vector de U1 + U2 + U3 se escribe
de forma única como suma de un vector en U1 , de un vector en U2 y de un vector en U3 :

(0, 0, 0) = (0, 0, 0) + (0, 0, 0) + (0, 0, 0) = (1, 0, 0) + (0, 1, 0) + ( 1, 1, 0)

Definición 1.4.2
Sea V un K-espacio vectorial y U1 , . . . , Us subespacios vectoriales de V . Se dice que la suma de
U1 , . . . , Us es directa, y escribiremos U1 . . . Us , si todo vector de U1 + . . . + Us se escribe, de forma
única, como suma de un vector en U1 , de un vector en U2 , . . . , y de un vector en Us .

Proposición 1.4.3
Sea V un K-espacio vectorial y U1 , . . . , Us subespacios vectoriales de V . Las siguientes afirmaciones
son equivalentes:
1. La suma de U1 , . . . , Us es directa.

2. La unión de s bases cualesquiera de U1 , . . . , Us es una base de U1 + . . . + Us .

Notar finalmente que si la suma U1 + . . . + Us es directa entonces la intersección de cualquier


número de subespacios en {U1 , . . . , Us } es igual a {0}.

Ejemplo 1.4.1
1.4. SUMA E INTERSECCIÓN DE SUBESPACIOS. SUMA DIRECTA 21

• Sea M el conjunto de matrices 2 ⇥ 3 con coeficientes reales, y U y W los subespacios siguientes.


✓ ◆
a11 a12 a13
U = {M = 2 M : 2a11 + a22 = a23 }
a21 a22 a23
0 1
1 2 ✓ ◆
0 0
W = {M 2 M : M @ 1 1A = }
0 0
0 0
Es fácil deducir que una base de U es
✓ ◆ ✓ ◆ ✓ ◆ ✓ ◆ ✓ ◆
1 0 0 0 1 0 0 0 1 0 0 0 0 0 0
BU = { , , , , }
0 0 2 0 0 0 0 0 0 1 0 0 0 1 1
y una base de W es ✓ ◆ ✓ ◆
0 0 1 0 0 0
BW ={ , }
0 0 0 0 0 1
Utilizando las bases obtenidas uno puede comprobar que
✓ ◆
0 0 1
U \ W =< { >
0 0 0
De la fórmula de las dimensiones, se deduce que U + W = M.
• Se considera el R-espacio vectorial V = R6 , y los siguientes subespacios de V :
U = {(x, y, z, r, s, t) 2 R6 : x + y + z = 0, r + s + t = 0}
W = {(x, y, z, r, s, t) 2 R6 : x y = 0, x z = 0, r s = 0, r t = 0}
Puesto que un vector v = (x, y, z, r, s, t) 2 U \ W si y sólo si
x + y + z = 0, r + s + t = 0, x y = 0, x z = 0, r s = 0, r t=0
podemos deducir que el único vetor que está en U \ W es el vector nulo.
Una base de U es
BU = {(1, 1, 0, 0, 0, 0), (1, 0, 1, 0, 0, 0), (0, 0, 0, 1, 1, 0), (0, 0, 0, 1, 0, 1)}
Una base de W es
BW = {(1, 1, 1, 0, 0, 0), (0, 0, 0, 1, 1, 1)}
La fórmula de Grasmann nos asegura que la dimensión de U + W es 6, y que dicho subespacio
es por tanto todo R6 . Como U \ W = {0}, R6 = U W .
• En el R-espacio vectorial R4 se consideran los subespacios
W = {(x, y, z, t) 2 R4 : x + y + z = 0, t = 0}
U = {(2a, a + b, a + 3b, 0) : a, b 2 R}
Un vector v que esté tanto en U como en W , verificará 2a + ( a + b) + ( a + 3b) = 0, y se
tendrá que
v 2 U \ W () v = a(2, 1, 1, 0)
esto es, U \ W =< {(2, 1, 1)} >. Para hallar una base de U + W consideramos una de
U \ W y la ampliamos sucesivamente a una de U y a una de W . Ası́ una base de U + W es
B = {((2, 1, 1), (0, 1, 1, 0), (0, 1, 3)}.
22 LECCIÓN 1. ESPACIOS VECTORIALES

1.4.1 Ejercicios
Ejercicio 1.4.1.1
Se consideran los vectores de R3 siguientes v1 = (2, 4, 6), v2 = ( 1, 2, 1), v3 = ( 8, 8, 16) y
v4 = (6, 4, 10).

1. ¿Es la familia de vectores anterior libre? ¿Es base de R3 ?

2. ¿Se puede obtener una base de R3 eliminando alguno de los vectores vi ? ¿Es el vector (1, 0, 0)
combinación lineal de la familia (v1 , v2 , v3 , v4 )?

3. Sea S = h{v1 , v2 , v3 , v4 }i. Determina un subespacio T de R3 tal que R3 = S T.

Ejercicio 1.4.1.2
Sean U y W los subespacios de R4 siguientes:

U = {(x, y, z, t) 2 R4 : x + 2y + 3z = 0, 3y + 2z + t = 0}

W = h{( 4, 1, 1, 0), ( 1, 0, 0, 5)}i

1. Demostrar que BU = {( 2, 1, 0, 3), ( 3, 0, 1, 2)} es una base de U .

2. Hallar una base de W .

3. Sea v un vector de R4 de la forma ( 4↵ , ↵, ↵, 5 ) tal que ↵ = 0. ¿Puede decirse que


v 2 U \ W?

4. Deducir que U \ W = h{( 5, 1, 1, 5)}i.

5. Hallar una base de U + W , pero antes de obtenerla determinar dim(U + W ).

Ejercicio 1.4.1.3
Se considera el R-espacio vectorial V = R3 y los siguientes subespacios

U = h{(1, 1, 2), (3, 4, 0)}i, W = {(x, y, z) 2 V : x = 0, 6y + z = 0}

¿Cuáles de las siguientes afirmaciones son verdaderas?

1. U \ W = {~0}

2. W ⇢ U

3. U + W = R3

4. U = W

Ejercicio 1.4.1.4
En el R-espacio vectorial R5

1. Dar una base de R5 distinta de la base canónica.

2. Dar dos subespacios U y W de R5 tales que dim(U ) = 2, dim(W ) = 3 y U \ W 6= {0}.

3. Hallar una base de U + W .

4. Hallar un subespacio T de R5 tal que (U + W ) T = R5 .


1.4. SUMA E INTERSECCIÓN DE SUBESPACIOS. SUMA DIRECTA 23

Ejercicio 1.4.1.5
Sea U el siguiente subespacio de R5 :

U = {(x, y, z, t, u) 2 R5 : x + y + z = 0, t + u = 0}.

¿Cuáles de los subespacios Wi siguientes satisfacen la condición

U W i = R5 ?

1. W1 = {(x, y, z, t, u) 2 R5 : x + y + z + t + u = 0}.

2. W2 = h{(1, 0, 2, 1, 0), (0, 1, 0, 3, 4)}i.

3. W3 = {(x, y, z, t, u) 2 R5 : x + 2y = 0, z = u = 0}.

Ejercicio 1.4.1.6
Sea U el siguiente subespacio del R-espacio vectorial R4 :

U = {(x, y, z, t) 2 R4 : x + 2y = 0, 3z t = 0}.

¿Cuáles de las afirmaciones siguientes son ciertas?

1. Si W1 = h{(1, 1, 1, 1)}i, entonces la suma de U y W1 es directa: U W1 .

2. Si W2 = h{( 2, 1, 1, 3)}i, entonces W2 está contenido en U : W2 ⇢ U .

3. W3 = {(x, y, z, t) 2 R4 : x + 2y = 0}, entonces U \ W3 = U .

4. W4 = {(x, y, z, t) 2 R4 : x + y + z = 0, t = 0}, entonces U W 4 = R4 .

Ejercicio 1.4.1.7
En el R-espacio vectorial V = R5 se consideran los siguientes subespacios

U = h{(1, 1, 1, 0, 0), (0, 0, 1, 0, 0), (0, 0, 0, 1, 1)}i

W = {(x, y, z, t, u) 2 V : x + 2y 3u = 0, 2y t u = 0, x + y z t = 0}

1. Determinar bases de U \ W y U + W .

2. ¿Es U + W = V ? En caso negativo, dar un subespacio T de V tal que V = (U + W ) T

3. Sea v = (x, y, z, t, u) un vector cualquiera de V . Determinar las coordenadas de v respecto de la


siguiente base de V .

BV = {(1, 1, 1, 1, 1), (0, 0, 1, 0, 0), (0, 0, 0, 1, 1), (3, 0, 4, 1, 1), (0, 0, 0, 0, 1)}

Ejercicio 1.4.1.8
Sea U y W los siguientes subespacios del espacio vectorial real R454 :

U = {(x1 , x2 , . . . , x454 ) 2 R454 : x1 + x2 + . . . + x454 = 0}

W = {(x1 , x2 , . . . , x454 ) 2 R454 : x1 = x2 = . . . = x454 }


T = {(x1 , x2 , . . . , x454 ) 2 R454 : x1 + x2 = 0, xi = 0 i = 3, 4, . . . , 454}
24 LECCIÓN 1. ESPACIOS VECTORIALES

1. Halla bases de U , W y T .

2. Comprueba que dim U + dim W = 454 = dim R454 . ¿Es cierto que R454 = U W?

3. Comprueba que dim U + dim T = 454 = dim R454 . ¿Puede decirse que R454 = U T ? ¿Quién
es U \ T ?

4. Expresa todo vector de R454 como suma de un vector de U y de un vector de W .

Ejercicio 1.4.1.9
Se considera el R-espacio vectorial V = R4 , y sea U el siguiente subespacio de V :

U = {(x, y, z, t) 2 R4 : 2x + y 3z = 0}

¿Cuáles de las afirmaciones dadas a a continuación son verdaderas?

1. h{(1, 2, 0, 0), (0, 3, 1.0)}i es base de U .

2. U tiene dimensión 3.

3. W = {(x, y, z, t) 2 R4 : x + y z = 0, x 2z = 0} es un subespacio de U .

4. No existe un subespacio T de R4 tal que U W = R4 .


1.5. PROBLEMAS DE ESPACIOS VECTORIALES 25

1.5 Problemas de Espacios Vectoriales


Problema 1.5.1
Sea Q el cuerpo de los números racionales. ¿Cúales de los siguientes subconjuntos del Q–espacio
vectorial Q3 son subespacios vectoriales?

a) R = {(x, y, z) 2 Q3 : 3x 8y = 0}.

b) S = {(x, y, z) 2 Q3 : 3x 8y = 4}.

c) T = {(x, y, z) 2 Q3 : x 2 Z+ ó x 2 Q }.

Problema 1.5.2
Sea V un K-espacio vectorial no nulo, donde K = Q, R o C.

a) Demuestra que V posee un no


¯ infinito de vectores.
b) Sea {u, v} una familia libre de vectores de V y a, b 2 K con b 6= 0. Prueba que la familia
{bu, au + v} es también libre.

c) Sean u, v, w vectores de V linealmente independientes Prueba que también u+v, u v, u 2v +w


son linealmente independientes.

d) Para V = R3 y K = R, estudia si cada uno de los conjuntos de vectores siguientes es un sistema


libre o un sistema dependiente:

S = {(3, 1, 1), (1, 3, 1), (1, 1, 3)}

T = {(3, 2, 1), (1, 3, 2), ( 1, 2, 3)}

e) Para V = C3 y K = C, estudia si cada uno de los conjuntos de vectores siguientes es linealmente


dependiente o independiente:

S = {(1, 0, i), (0, i, 1), (i, 1, 1 + i)}

T = {(1, i, i), (0, 1, 1 + 2i), (1, 1 + i, 1)}

Problema 1.5.3
Prueba que la familia {1 + X, X + X 2 , 1 + X 2 } es un sistema generador libre de

Q2 [X] = {p(X) 2 Q[X] : grado(p(X))  2}

Escribe 3 + 2X + 5X 2 como combinación lineal de la familia anterior.

Problema 1.5.4
Decir, razonadamente, si es verdadera o falsa cada una de las afirmaciones siguientes.
26 LECCIÓN 1. ESPACIOS VECTORIALES

1. Se considera el siguiente conjunto de vectores de R3

S = {(1, 1, 1), (1, a2 + 1, a + 1), (1, a2 + 1, 2a)} con a 2 R .

Entonces para todo a 2 R se verifica que la dimensión del subespacio generado por S es mayor
que 1.

2. En el C-espacio vectorial C2 el conjunto de vectores {(1, i), (i, 1)} es base.

3. En el R-espacio vectorial R3 existen vectores v1 , v2 , v3 linealmente dependientes tal que v1 , v2


son linealmente independientes, v1 , v3 son linealmente independientes, ası́ como también lo son
v 2 , v3 .

Problema 1.5.5
Dı́ razonadamente si es verdadera o falsa cada una de las afirmaciones siguientes:
En un espacio vectorial

a) Todo vector es combinación lineal, de forma única, de un sistema generador.

b) Todo vector es combinación lineal, de forma única, de una familia libre.

c) Si un vector es combinación lineal de una familia libre, los coeficientes son únicos.

Problema 1.5.6
Demuestra que en el R - espacio vectorial R3 ninguno de los vectores v1 = ( 1, 1, 1), v2 (0, 0, 1)
depende linealmente de S = {w = (1, 1, 0)}. ¿Es w combinación lineal de los vectores v1 y v2 ?
Dı́ si es verdadera o falsa la afirmación siguiente:

Aunque ninguno de los vectores v1 , v2 , . . . , vp dependa linealmente de un sistema S =


{w1 , w2 , . . . , wq }, puede ocurrir que alguna combinación lineal de aquellos dependa lineal-
mente de S.

Problema 1.5.7
Sean u y v dos vectores distintos de un K - espacio vectorial V . Analiza si algunos de los vectores
(2 + ↵)u + (3 ↵)v con ↵ 2 K pueden ser iguales. ¿ Es S = {(2 + ↵)u + (3 ↵)v : ↵ 2 K} un subespacio
vectorial de V ?

Problema 1.5.8
En el R - espacio vectorial R4 [X] se consideran los conjuntos de vectores siguientes: S = {2 X, 1 +
X 2 , X + X 3 } y T = {1, X 2 }.

• Prueba que S y T son libres y que todo vector de T es linealmente independiente de S.


1.5. PROBLEMAS DE ESPACIOS VECTORIALES 27

• Establece una combinación lineal nula de los vectores {2 X, 1 + X 2 , X + X 3 , 1, X 2 } en la que


no todos los escalares de la misma sean cero.

• Dı́ si es verdadera o falsa la afirmación siguiente:

Si en un K - espacio vectorial V , S = {v1 , v2 , . . . , vp } y T = {w1 , w2 , . . . , wq } son sis-


temas libres y todo vector de T es linealmente independiente de S entonces el conjunto
S [ T es un sistema libre.

Problema 1.5.9
Considera los siguientes subconjuntos de R4

S = {(5, 2, 3, 4), (1, 0, 1, 0), (7, 3, 5, 6)}

T1 = {(1, 0, 0, 0), (1, 1, 1, 1), (1, 1, 1, 1), (1, 2, 3, 4)}


5 13 5 7
T2 = {(6, , 4, 5), (11, 3, 1, 6), ( , , , 5), ( 3, 1, 1, 2)}
2 2 2 2
1. Determina una base B del subespacio generado por S.

2. Extiende el conjunto B hallado anteriormente a una base de R4 añadiendo, si es posible, vectores


de T1 .

3. Realiza el mismo ejercicio que en el apartado anterior pero teniendo en cuenta T2 .

Problema 1.5.10
Sea V el R–espacio vectorial de los polinomios con coeficientes reales de grado menor o igual que 3.
En V se consideran los siguientes subconjuntos:

W = {p(X) 2 V : p0 (0) = 0} y T = {p(X) 2 V : p00 (1) = 0}

donde p0 (X) y p00 (X) representan, respectivamente, la derivada primera y la derivada segunda del
polinomio p(X).
a) Demuestra que W y T son subespacios vectoriales de V .

b) Determina bases de W y T , ası́ como del subespacio W \ T .

c) Determina, si existe, una base de un subespacio U tal que U (W \ T ) = V .

Problema 1.5.11
Se considera el R–espacio vectorial V = R5 .
a) Da un subespacio vectorial U de V de dimensión 2.

b) Da dos subespacios distintos W y W 0 de V tales que V = W U y V = W0 U.


28 LECCIÓN 1. ESPACIOS VECTORIALES

c) Para los subespacios que hayas dado en b), determina W \ W 0 .

d) ¿En algún caso hubieras podido encontrar subespacios W y W 0 con las condiciones de b) y
W \ W 0 = {0}?

Problema 1.5.12
En R3 se considera la base canónica {e1 , e2 , e3 }, y los subespacios W = h{e1 , e2 }i, W 0 = h{e3 }i y
W 00 = h{e2 + e3 }i.

a) Prueba que R3 = W + W 0 + W 00 y W \ W 0 = W \ W 00 = W 0 \ W 00 = {0}.

b) ¿Es R3 = W W0 W 00 ?

Problema 1.5.13
En el R-espacio vectorial R4 se consideran dos subespacios U y W tales que dim U = r 1 y
dim W = s 1. Determinar todos los posibles valores de r y de s para que la suma U + W pueda ser
directa.

Problema 1.5.14
Considera los subespacios de R3 siguientes.

S = h{(1, 1, 2), (1, 1, 3)}i y T = {(a, 3a 2b, a + b) : a, b 2 R}

Determina bases de S, T , S \ T y S + T . ¿Es R3 = S T?

Problema 1.5.15
18 Sea V un espacio vectorial n-dimensional y W y W 0 dos subespacios de V .

• Supuesto que W \ W 0 = {0}

1. Demuestra que existe un subespacio U tal que V = U + W . Dicho subespacio U , ¿es único?
2. ¿Existe un subespacio U tal que V = W U y W0 ⇢ U?
3. ¿Existe un subespacio W 00 tal que V = W W0 W 00 ?

• Si V = W + W 0 . Prueba que V = W W 0 si y sólo si dim V = dim W + dim W 0 .

Problema 1.5.16
Sea Mn (R) el R–espacio vectorial de matrices n ⇥ n con coeficientes reales.

a) Demuestra que el conjunto W formado por todas las matrices (aij ) tales que aij = 0 para i > j
es un subespacio de Mn (R).
1.5. PROBLEMAS DE ESPACIOS VECTORIALES 29

b) Admitiendo que W 0 = {(aij ) 2 Mn (R) : aij = 0 si i < j} es un subespacio, describe el


subespacio W \ W 0 , y determina bases y dimensión de W , W 0 y W \ W 0 ’.

Problema 1.5.17
En el R-espacio vectorial Rn [X] (conjunto de polinomios de coeficientes reales de grado menor o igual
a n) se considera el subconjunto

B = {p0 (X), p1 (X), p2 (X), . . . , pn (X)}

donde el grado de pi (X) es i para i = 0, 1, 2, . . . , n. Demuestra que B es una base de Rn [X].

Problema 1.5.18
En R4 se consideran los siguientes subespacios

U = {(x, y, z, t) 2 R4 : x 2y + z = 0, z + 3t = 0}

W = {(2a, a + 4b, 0, c + b) 2 R4 : a, b, c 2 R}
Determina bases y dimensión de los mismos. ¿Es R4 = U + W ?

Problema 1.5.19
Sea V un K–espacio vectorial. Dı́ si es verdadera o falsa cada de las afirmaciones siguientes.

a) Si V = U W T , v 62 U W , entonces v 2 T .

b) Si dim V = 2n, entonces es posible encontrar subespacios U y W de V , ambos de dimensión n


y tales que V = U W .

c) Si dim V = 6, y U y W son ambos de dimensión 3, entonces V = U W.

d) Si U y W son subespacios de V tales que dim U + dim W > dim V , entonces U \ W 6= 0.

Problema 1.5.20
Sean los subespacios de R3 y R4 , respectivamente, dados por las condiciones:
8 8
<x + y = 0 <x y + z + t = 0
(A) y + z = 0 (B) x y + 4z = 0
: :
2x + 3y + z = 0 5x + 6y z + t = 0

Determina las bases de dichos subespacios.

Problema 1.5.21
Se consideran los vectores de R3 siguientes v1 = (2, 4, 6), v2 = ( 1, 2, 1), v3 = ( 8, 8, 16) y
v4 = (6, 4, 10).
30 LECCIÓN 1. ESPACIOS VECTORIALES

a) ¿Es la familia de vectores anterior libre? ¿Es base de R3 ?

b) ¿Se puede obtener una base de R3 eliminando alguno de los vectores vi ? ¿Es el vector (1, 0, 0)
combinación lineal de la familia (v1 , v2 , v3 , v4 )?

c) Sea S = h{v1 , v2 , v3 , v4 }i. Determina un subespacio T de R3 tal que R3 = S T.

Problema 1.5.22
Una matriz 3 ⇥ 3 con coeficientes reales
0 1
a1 a2 a3
@ b1 b2 b3 A
c1 c2 c3

se dice que es un cuadrado mágico si la suma de todos los términos de cada una de las filas y de cada
una de las columnas es un mismo número s.

1. Reescribe las condiciones para un cuadrado mágico como un sistema de ocho ecuaciones en
función de s, ai , bi , ci con 1  i  3, y aplica el algoritmo de Gauss a dicho sistema.

2. Prueba que 3b2 = s.

3. Reemplaza las estrellas por números para convertir la siguiente matriz en un cuadrado mágico.
0 1
? 1 ?
@? ? ?A
2 ? 4

4. Demuestra que los cuadrados mágicos forman un subespacio del R–espacio vectorial de las matri-
ces reales 3 ⇥ 3. Prueba que una base de dicho subespacio está dada por las matrices siguientes.
0 1 0 1 0 1
1 1 1 1 1 0 0 1 1
@1 1 1A @ 1 0 1 A @ 1 0 1 A
1 1 1 0 1 1 1 1 0

5. Probar que toda matriz 0 1


a1 a2 a3
@? ? ?A
? ? ?
puede convertirse en un cuadrado mágico. ¿Hay una única forma de hacer ésto?
Lección 2

Aplicaciones Lineales y Matrices

En la lección anterior se han introducido los términos y propiedades relativas al concepto de espacio
vectorial. En ésta se estudian las aplicaciones ligadas a ellos: las aplicaciones lineales, también llamadas
homomorfismos de espacios vectoriales. El significado del término homomorfismo proporciona una
primera idea de lo que se pretende con este estudio: ¿qué se puede decir de aquellas aplicaciones en
las que la suma de dos vectores se transforma en la suma de sus transformados, y el doble, la mitad,
. . . de un vector se transforma en el doble, la mitad, . . . de su transformado?; ¿qué fenomenos, en
principio al menos, se manifiestan de forma lineal?, ¿reconoce alguno de ellos el lector?

2.1 Definición de Aplicación Lineal. Ejemplos


Definición 2.1.1
Sean V y W dos K–espacios vectoriales, y f : V ! W una aplicación. Se dice que f es un homomor-
fismo de espacios vectoriales o una aplicación lineal si se verifica la siguiente condición cualesquiera
que sean los elementos a1 , a2 de K y v1 , v2 de V :
f (a1 v1 + a2 v2 ) = a1 f (v1 ) + a2 f (v2 ).
Es fácil probar que la condición de la definición anterior equivale a que se verifiquen simultáneamente:
f (v1 + v2 ) = f (v1 ) + f (v2 ) y f (av) = af (v)
cualesquiera que sean v1 , v2 , y v en V y a en K.
Cuando V = W , la aplicación lineal recibe el nombre de endomorfismo de V .
Ejemplo 2.1.1
A continuación se muestran una serie de aplicaciones entre espacios vectoriales, de las cuáles unas son
lineales y otras no.
• La aplicación f : R3 ! R2 definida por f (x, y, z) = (2x, 3x z) es una aplicación lineal. Las
lı́neas siguiente muestran la prueba de esta afirmación.
Sean v1 = (x1 , y1 , z1 ) y v2 = (x2 , y2 , z2 ) vectores de R3 y a1 , a2 números reales cualesquiera.
f (a1 v1 + a2 v2 ) = f (a1 x1 + a2 x2 , a1 y1 + a2 y2 , a1 z1 + a2 z2 ) =
= (2(a1 x1 + a2 x2 ), 3(a1 x1 + a2 x2 ) (a1 z1 + a2 z2 )) =
= (2a1 x1 + 2a2 x2 , 3a1 x1 a1 z1 + 3a2 x2 a 2 z2 ) =
= (2a1 x1 , a1 (3x1 z1 )) + (2a2 x2 , a2 (3x2 z2 )) =
= a1 (2x1 , 3x1 z1 ) + a2 (2x2 , 3x2 z2 ) = a1 f (v1 ) + a2 f (v2 )

31
32 LECCIÓN 2. APLICACIONES LINEALES Y MATRICES

• La aplicación f : R3 ! R4 definida por

f (x, y, z) = (2x, 3x z, 2y + z, x + y + z)

es una aplicación lineal.

• La aplicación f : Rn ! Rm definida por f (x1 , . . . , xn ) = (y1 , . . . , ym ) donde


n
X
yi = aik xk
k=1

para i = 1, . . . , m es una aplicación lineal.

• La aplicación f : R3 [X] ! R3 [X] que a cada polinomio le asocia su derivada es una aplicación
lineal.

• La aplicación f : R3 [X] ! R6 [X] que a cada polinomio le asocia su cuadrado no es una aplicación
lineal. Para justificar esta afirmación basta comprobar que f (X+1) 6= f (X)+f (1): X 2 +2X+1 6=
x2 + 1

• Si U y W son subespacios de V tales que V = U W entonces la aplicación de V en U que a


cada vector v = u + w con u 2 U y w 2 W , le asocia el vector u es una aplicación lineal, llamada
proyección de V sobre U (en la dirección de W ). A lo largo de este texto, dicha aplicación se
denotará habitualmente por pU,W .
Un ejemplo de esta situación se muestra a continuación. Sea V = R3 , U = h{u1 = (1, 1, 1), u2 =
(2, 1, 0)}i y W = h{w = (0, 1, 4)}i. En este caso, cada vector v = (x, y, z) 2 V se escribe como
combinación lineal de u1 , u2 y w en la forma
2x + 4y z 3x 4y + z ( x 2y + 3z)
v = (x, y, z) = u1 + u2 + w
| 5 {z 10 } 10
en U

de donde se deduce que pU,W : R3 ! U está definida por


2x + 4y z 3x 4y + z
pU,W (v) = pU,W (x, y, z) = u1 + u2 =
5 10
⇣ 2x + 4y z 3x 4y + z 2x + 4y z 3x 4y + z 2x + 4y z⌘
= +2 , ,
5 10 5 10 5
¿Quién será pW,U (v)?
La figura siguiente muestra el significado de la
⇣ proyección desde un punto de vista gráfico. Se
1 8⌘
muestra el efecto de pU,W sobre el vector v = 2, , .
2 3
• Si M es el espacio vectorial de las matrices cuadradas 3 ⇥ 3 con coeficientes reales, la aplicación
de M en R que a cada matriz le asocia el producto de los elementos de su diagonal principal no
es lineal.

• Si M es el espacio vectorial de las matrices cuadradas n ⇥ n con coeficientes reales, la aplicación


de M en R que a cada matriz le asocia la suma de los elementos de su diagonal principal (su
traza) es lineal.

Proposición 2.1.1
Sea f : V ! W una aplicación lineal. Se tiene entonces:
2.1. DEFINICIÓN DE APLICACIÓN LINEAL. EJEMPLOS 33

Figura 2.1: Proyección del vector v sobre U en la dirección de W

1. f (0) = 0 y f ( v) = f (v) cualquiera que sea v 2 V .


⇣X
r ⌘ Xr
2. f ak v k = ak f (vk ).
k=1 k=1

3. Toda familia de vectores de V linealmente dependiente se transforma en una familia de vectores


de W linealmente dependiente.

4. Si g : W ! U es una aplicación lineal entonces la aplicación g f : V ! U también es una


aplicación lineal.

Demostración.

1. Puesto que 0 + 0 = 0 y f es homomorfismo, se tiene la expresión f (0) = f (0 + 0) = f (0) + f (0),


de la que se deduce la primera igualdad.
Por otro lado
n f (v) + f ( v) o
f (v + ( v)) = =) f ( v) = f (v)
f (0) = 0

4. (g f )(a1 v1 + a2 v2 ) = g(f (a1 v1 + a2 v2 )) = g(a1 f (v1 ) + a2 f (v2 )) =


= a1 g(f (v1 )) + a2 g(f (v2 )) = a1 (g f )(v1 ) + a2 (g f )(v2 )

La prueba del resto de las propiedades se deja como ejercicio para el lector.

2.1.1 Ejercicios
Ejercicio 2.1.1.1
Define tres aplicaciones f, g, h de R3 en R2 tales que f y g sean lineales y h no lo sea.
34 LECCIÓN 2. APLICACIONES LINEALES Y MATRICES

Ejercicio 2.1.1.2
Se considera la base de R3 siguiente

B = {v1 = (1, 1, 1), v2 = (1, 1, 1), v3 = ( 2, 0, 3)}

y sea f : R3 ! R2 la aplicación que a cada vector v de R3 le asigna el vector w = f (v) = (a, b) donde
a y b son la primera y la segunda coordenada de v respecto de la base B

1. Determinar la imagen por f del vector v = (1, 3, 5) 2 R3

2. Demostrar que f es lineal

3. Determinar el conjunto de vectores de R3 cuya imagen es el vector (0, 0) 2 R2 .

4. Completar la siguiente expresión

f (x, y, z) = (......, ......)

Ejercicio 2.1.1.3
Sea f : R3 ! R2 una aplicación. Señalar qué condiciones de las siguientes (consideradas una a una,
por separado) bastarı́an para afirmar que f no es lineal.

1. f (0, 0, 0) = (1, 0)

2. f (1, 2, 1) = (1, 2), f (1, 0, 1) = (0, 0), f (2, 2, 2) = (2, 2)

3. f ((x, y, z) + (x0 , y 0 , z 0 )) = f (x, y, z) + f (x0 , y 0 , z 0 )

4. f (4, 2, 0) = (1, 1) = f (2, 1, 0).

2.2 Núcleo e imagen. Fórmula de las dimensiones


Del concepto de aplicación lineal surgen dos subespacios de especial relevancia, cuyo estudio es el
objeto de esta sección.

Proposición 2.2.1
Sea f : V ! W una aplicación lineal. Los conjuntos

1. Núcleo de f :
ker(f ) = {v 2 V : f (v) = 0}

2. Imagen de f :
im(f ) = {f (v) : v 2 V }

son subespacios vectoriales de V y de W respectivamente.

La demostración de cada uno de los apartados de la proposición anterior no entraña ninguna dificultad
por lo que se deja como ejercicio para el lector.

Los siguientes ejemplos ilustran los conceptos anteriores. Sólo en el primero de ellos se justifica la
afirmación realizada, se pide al lector que trate de justificar el resto.
2.2. NÚCLEO E IMAGEN. FÓRMULA DE LAS DIMENSIONES 35

Ejemplo 2.2.1

• Si f : R3 ! R2 es la aplicación lineal definida por f (x, y, z) = (2x, 3x z) entonces ker(f ) =


h{(0, 1, 0)}i y im(f ) = R2 . Justifiquemos esa afirmación:

ker(f ) = {(x, y, z) 2 R3 : f (x, y, z) = (0, 0)} =


= {(x, y, z) 2 R3 : (2x, 3x z) = (0, 0)} =
{(x, y, z) 2 R3 : 2x = 0 ^ 3x z = 0}
= {(x, y, z) 2 R3 : x = 0 ^ z = 0} = {(0, y, 0) 2 R3 : y 2 R} = h{(0, 1, 0)}i
Para todo elemento w = (↵, ) 2 R2 es posible hallar un elemento v = (x, y, z) 2 R3 tal que
1 3
f (v) = w, de lo que se deduce que im(f ) = R2 : basta hacer x = ↵, y = 0, z = ↵ .
2 2
• Si f : R3 ! R4 es la aplicación definida por f (x, y, z) = (2x, 3x z, 2y + z, x + y + z) entonces
ker(f ) = {~0} y im(f ) = h{(2, 3, 0, 1), (0, 0, 2, 1), (0, 1, 1, 1)}i.

• Si f : R3 [X] ! R3 [X] es la aplicación lineal que a cada polinomio le asocia su derivada entonces
ker(f ) = h{1}i y im(f ) = R2 [X].

• Si U y W son subespacios de V tales que V = U W , y f es la aplicación lineal de V en U


que a cada vector v = u + w con u 2 U y w 2 W , le asocia el vector u entonces ker(f ) = W y
im(f ) = U .

• Si M es el espacio vectorial de las matrices cuadradas n ⇥ n con coeficientes reales, y f la


aplicación de M en R que a cada matriz le asocia su traza entonces im(f ) = R. Si Aij denota
la matriz de M que tiene un 1 en el lugar ij, y 0 en todos los demós lugares entonces ker(f ) =
h{Aij : i, j = 1, . . . , n; i 6= j} [ {A11 Aii : i = 2, . . . , n}i. ¿Qué dimensión tiene ker(f )?

Definición 2.2.1
Sea f : V ! W una aplicación lineal. La dimensión de im(f ) se denomina rango de la aplicación
lineal f .

¿Cuál es el rango de cada una de las aplicaciones lineales en los ejemplos anteriores?
La siguiente proposición afirma que para calcular la imagen y el rango de una aplicación lineal
f : V ! W es suficiente determinar las imágenes de los vectores de un sistema generador de V .

Proposición 2.2.2
Sea f : V ! W una aplicación lineal. Si {v1 , v2 , . . . , vr } es un sistema generador de V entonces el
conjunto S = {f (v1 ), f (v2 ), . . . , f (vr )} es un sistema generador de im(f ).

La demostración de lo anterior se apoya en el hecho de que cualquier vector f (v) de im(f ) se puede
expresar, por ser f lineal, como combinación lineal de los vectores de S

f (v) = f (↵1 v1 + ↵2 v2 + . . . + ↵r vr ) = ↵1 f (v1 ) + ↵2 f (v2 ) + . . . + ↵r f (vr ).

Utilizando los ejemplos anteriores se puede comprobar que se verifica que la suma de las dimensiones
de los espacio núcleo e imagen coincide con la dimensión del espacio inicial. Este hecho no es una
mera coincidencia, corresponde a un resultado que se conoce como Fórmula de las dimensiones y que
se recoge en el siguiente enunciado.
36 LECCIÓN 2. APLICACIONES LINEALES Y MATRICES

Teorema 2.2.1
Sea f : V ! W una aplicación lineal. Entonces

dim ker(f ) + dim im(f ) = dim V

El resultado anterior puede probarse viendo que

• Si ker(f ) = {0}, entonces {f (v1 ), f (v2 ), . . . , f (vn )} es base de im(f ) cuando {v1 , v2 , . . ., vn } es
una base de V .
Teniendo en cuenta la proposición 2.2.2 sólo falta probar que los vectores señalados son lineal-
mente independientes.

↵1 f (v1 ) + ↵2 f (v2 ) + . . . + ↵r f (vr ) = f (↵1 v1 + ↵2 v2 + . . . + ↵r vr ) = 0 =)

=) ↵1 v1 + ↵2 v2 + . . . + ↵r vr 2 ker(f ) = {0} =)
=) ↵1 v1 + ↵2 v2 + . . . + ↵r vr = 0 =) ↵1 = . . . = ↵r = 0

• Si ker(f ) 6= {0}, y {v1 , v2 , . . . , vr , vr+1 , . . . , vn } es una base de V donde {v1 , v2 , . . . , vr } es una


base de ker(f ), entonces {f (vr+1 ), . . . , f (vn )} es una base de im(f ).
Por razones análogas a las anteriores no es necesario probar que el conjunto referido es sis-
tema generador de im(f ), y para probar la independencia se tiene en cuenta que ker(f ) \
h{vr+1 , . . . , vn }i = {0}.

2.2.1 Ejercicios

Ejercicio 2.2.1.1
Determina el núcleo y la imagen de la aplicación del ejercicio 2.1.1.2

Ejercicio 2.2.1.2
Sea f : R3 ! R2 una aplicación lineal tal que (1, 1, 1) y (1, 0, 1) son vectores que están en ker(f ).
Justificar cada una de las afirmaciones siguientes.

1. El vector ↵(1, 1, 1) + (1, 0, 1) pertenece a ker(f ) cualesquiera que sean ↵, 2 R.

2. Si f (1, 1, 1) = (0, 0), entonces f (v) = (0, 0) 8v 2 R3 .

3. Si w = (1, 1, 3)+↵(1, 1, 1)+ (1, 0, 1), entonces f (w) = f (1, 1, 3), cualesquiera que sean ↵, 2 R.

4. Si dim(ker(f )) = 2 y v1 , v2 son vectores tales que f (v1 ) = f (v2 ), entonces v1 v2 = ↵(1, 1, 1) +


(1, 0, 1) para algún ↵ y algún en R.

Ejercicio 2.2.1.3
Sea f : R3 ! R2 una aplicación lineal tal que im(f ) = h{(1, 1)}i y ker(f ) = h{(1, 1, 1), (1, 0, 1)}i.
Probar cada una de las condiciones siguientes.

1. Si v es un vector de R3 que no pertenece a ker(f ), entonces f (v) = (↵, ↵) para algún número
real ↵ 6= 0.

2. Si v1 , v2 son vectores de R3 que no pertenecen a ker(f ), entonces existen números reales a, b tales
que av1 + bv2 2 ker(f ).
2.2. NÚCLEO E IMAGEN. FÓRMULA DE LAS DIMENSIONES 37

Ejercicio 2.2.1.4
Sea f : R3 ! R2 la aplicación lineal definida por

f (x, y, z) = (x + y, x z).

Sean Bc = {e1 , e2 , e3 } y B 0 c = {e01 , e02 } las bases canónicas de R3 y R2 respectivamente.

1. Sea v 2 R3 . ¿Es f (v) combinación lineal de f (e1 ), f (e2 ), f (e3 )? ¿El conjunto {f (e1 ), f (e2 ), f (e3 )}
es un sistema generador de im(f )?

2. Comprobar que {f (e1 ), f (e2 )} es una base de im(f ) y determinar una base de ker(f ),

3. ¿Existe algún vector v 2 R3 tal que f (v) = (1, 5)?

4. Sea g : R2 ! R2 la aplicación lineal definida por g(x, y) = (x + y, x + y). Demostrar que


g f : R3 ! R2 está definida por (g f )(x, y, z) = (2x + y z, 2x + y z) y deducir que
dim(ker(g f )) = 2. ¿Es cierto que im(g f ) ⇢ im(f )?

5. Hallar una base de ker(g f ) y comprobar que ker(g f ) ⇢ ker(f )

6. ¿Existe algún vector v 2 R3 tal que (g f )(v) = (1, 5)?

Ejercicio 2.2.1.5
Realiza cada uno de los siguientes ejercicios.

1. Demuestra que R3 = U W siendo

U =< {(1, 2, 1)} > y W =< {(1, 0, 1), (1, 1, 0)} >

2. Expresa el vector v = (2, 1, 0) 2 R3 como combinación lineal de (1, 2, 1), (1, 0, 1), y (1, 1, 0).
Determina vectores u 2 U y w 2 W tales que v = u + w.

3. Expresa el vector v = (x, y, z) 2 R3 como combinación lineal de (1, 2, 1), (1, 0, 1), y (1, 1, 0).
Determina vectores u 2 U y w 2 W tales que v = u + w.

4. Expresa en función de x, y, z la imagen de un vector v = (x, y, z) de R3 por la aplicación


pU,W : R3 ! R3 donde pU,W es la proyección sobre U en dirección W .

5. Demuestra que la aplicación

f : R4 ! R3 tal que f (x, y, z, t) = (2x + 2y, x + y, z)

es lineal.

6. Determina im(f ) y ker(f ) donde f es la aplicación del apartado anterior.

7. Completa: La aplicación
pU,W f: .... ! ....
está definida por (pU,W f )(..............) = (..............)

Ejercicio 2.2.1.6
Sean f1 , f2 , f3 y f4 los endomorfismos de R4 definidos por

• f1 (x, y, z, t) = (z + t, 0, y, y)
38 LECCIÓN 2. APLICACIONES LINEALES Y MATRICES

• f2 (x, y, z, t) = (x y + t, x y + t, x y + t, 0)

• f3 (x, y, z, t) = (x + y + 2t, 2x + z + 3t, x + y + 2t, 2x z + t)

• f4 (x, y, z, t) = (z + t, z + t, x + y, x + y)

1. Determina los subespacios núcleo e imagen para cada una de las aplicaciones anteriores.

2. Usa algunos de los sı́mbolos 2, ⇢, , \, [, 6= y = para completar las expresiones siguientes, con
el objetivo de establecer la relación que existe entre el subespacio núcleo y el subespacio imagen
de cada uno de los endomorfismos anteriores.

ker(f1 ) · · · im(f1 ) · · · {~0} ker(f2 ) · · · im(f2 )

ker(f3 ) · · · im(f3 ) ker(f4 ) · · · im(f4 ) · · · {~0}

3. Define un endomorfismo f5 de R4 tal que dim(ker(f5 ))=1, dim(im(f5 ))=3 y ker(f5 ) \ im(f ) =
{~0}.

Ejercicio 2.2.1.7
Decir, razonadamente, si es verdadera o falsa cada una de las afirmaciones siguientes.
1. Si f es endomorfismo de V tal que ker(f ) = im(f ), entonces dim(V ) es número par.

2. Ninguna aplicación lineal de R2 [X] en R4 tiene rango 4.

3. Si existe una aplicación lineal f de R4 en Rn [X] tal que ker(f ) = {~0}, entonces n 3.

Ejercicio 2.2.1.8
Sea f un endomorfismo del R-espacio vectorial R3 del que se sabe
• Im (f ) ⇢ Ker(f )

• f (1, 1, 2) = (1, 1, 0)

• f ( 1, 3, 0) = f (2, 0, 2)

1. Determinar bases de Im (f ) y Ker(f ) respectivamente.

2. Demostrar que B = {v1 = (1, 1, 0), v2 = ( 3, 3, 2), v3 = (1, 1, 2)} es una base de R3 . ¿Hay
alguna peculiaridad en los vectores que forman la base anterior?

3. Determinar las coordenadas de un vector v = (x, y, z) 2 R3 respecto de la base B. Completar


f (x, y, z) = (..., ..., ...).

2.3 Tipos de Aplicaciones Lineales. Isomorfismos.


Entre las aplicaciones lineales que se pueden establecer de un espacio vectorial en otro, desempeñan
un papel destacado áquellas que son inyectivas, por ser las que “transportan la forma” del espacio
inicial al espacio imagen. Si además el espacio imagen coincide con el espacio final, el espacio inicial
y el final son “idénticos desde el punto de vista estructural, como espacios vectoriales.

Definición 2.3.1
Sea f : V ! W una aplicación lineal.
2.3. TIPOS DE APLICACIONES LINEALES. ISOMORFISMOS. 39

1. Se dice que f es inyectiva si ker(f ) = {0}.

2. Se dice que f es sobreyectiva si im(f ) = W .

3. Se dice que f es un isomorfismo si es biyectiva, es decir, si es simultaneamente inyectiva y


sobreyectiva.

De acuerdo con la Fórmula de las Dimensiones y las pautas dadas para su demostración, se pueden
establecer las siguientes equivalencias.

f es inyectiva () dim V = dim im(f ) = rango(f ) ()


() f transforma una base de V en una base de im(f )

La serie anterior de equivalencias permite abordar el estudio de la inyectividad o no inyectividad de


una aplicación lineal por distintas vı́as como se muestra en los siguientes ejemplos.

Ejemplo 2.3.1

• Sea f : R3 ! R4 la aplicación lineal definida por f (x, y, z) = (x + y, y, y z, x + z). Dicha


aplicación es inyectiva puesto que las imágenes de los vectores de la base canónica de R3 son

f (1, 0, 0) = (1, 0, 0, 1), f (0, 1, 0) = (1, 1, 1, 0), f (0, 0, 1) = (0, 0, 1, 1)

vectores linealmente independientes de R4 .

• También se puede mostrar que la aplicación anterior es inyectiva resolviendo el sistema lineal
homogóneo

x + y = 0, y=0
y z = 0, x+z =0

que es el que determina ker(f ).

• Sea f : R2 [X] ! R2 [X] la aplicación lineal definida por f (p(X)) = p(0) + p(1)X + p(2)X 2 .

ker(f ) = {p(X) 2 R2 [X] : p(0) = 0, p(1) = 0, p(2) = 0}

Ası́ pues, ker(f ) está formado por aquellos polinomios de grado menor o igual a 2 que tienen por
raı́ces a los números 0, 1 y 2. El único polinomio de R2 [X] con tres raı́ces es el polinomio nulo.
Por tanto ker(f ) = {0} y f es inyectiva. La fórmula de las dimensiones nos permite deducir que
f es sobreyectiva, y por tanto un isomorfismo.

• Sea M el R–espacio vectorial de las matrices reales n ⇥ n con todos los elementos de la diagonal
principal nulos. Se considera la aplicación lineal f : M ! R2 con f (M ) = (a, b) donde a es
la suma de los elementos de M que están por debajo de la diagonal principal y b la suma de
los elementos de M que están por encima de la diagonal principal. Esta aplicación lineal es
sobreyectiva, y es inyectiva si y sólo si n = 2.

En uno de los ejemplos anteriores se establece una aplicación inyectiva entre espacios vectoriales
de igual dimensión, y esto ha permitido concluir que dicha aplicación es también sobreyectiva. Este
hecho es general y se recoge en una de las afirmaciones de la siguiente proposición.
40 LECCIÓN 2. APLICACIONES LINEALES Y MATRICES

Proposición 2.3.1
Sean V y W dos K–espacios vectoriales.

1. La composición de dos aplicaciones inyectivas es inyectiva. La composición de dos aplicaciones


sobreyectivas es sobreyectiva. La composición de dos isomorfismos es isomorfismo.

2. Si f : V ! W es una aplicación lineal inyectiva o sobreyectiva y dim V = dim W , f es un


isomorfismo.

3. Si f : V ! W es un isomorfismo entonces dim V = dim W .

4. Si f : V ! W es isomorfismo entonces f 1 : W ! V es un isomorfismo.

5. Sea B = {v1 , v2 , . . . , vn } una base del K–espacio vectorial V . Cada vector v 2 V se expresa de
forma única en función de B: v = a1 v1 + a2 v2 + . . . + an vn , y el elemento (a1 , a2 , . . . , an ) de
Kn recibe el nombre de coordenadas de v respecto B. Si f : V ! Kn es la aplicación que a
cada vector de V le asigna sus coordenadas respecto B entonces f es un isomorfismo, llamado
isomorfismo coordenado respecto de B.

6. Si V y W tienen la misma dimensión entonces se puede establecer entre ellos un isomorfismo,


esto es, son isomorfos.

Ejemplo 2.3.2
En los tres ejemplos que siguen se muestran algunos de los aspectos señalados en la proposición
anterior.

• En el R–espacio vectorial R2 [X] el polinonio 3 + 2X tiene coordenadas (3, 2, 0) respecto de la


base canónica BC = {1, X, X 2 }, tiene coordenadas (2, 0, 3) respecto de la base B = {X, X 2 , 1},
y (6, 4, 4) son las coordenadas del polinomio respecto de la base B 0 = { 12 + X, X + X 2 , X 2 }

• Ninguna aplicación lineal de Rn en Rn [X] es biyectiva puesto que las dimensiones de tales
espacios son n y n + 1 respectivamente.
✓ ◆
a 0
• Sea M el R–espacio vectorial de las matrices de la forma con a, b, c 2 R. Los R–espacios
b c
vectoriales R2 [X] y M son isomorfos pues ambos son de dimensión 3. La aplicación lineal

f: R2 [X] ! ✓ M ◆
a 0
a + bX + cX 2 7!
b c

es un isomorfismo. Se puede comprobar que f = C1 1 C, donde C es la aplicación coordenada


de R2 [X] cuando se considera la base {1, X, X 2 } y C1 1 es la inversa de la aplicación coordenada
de M cuando se considera la base
✓ ◆ ✓ ◆ ✓ ◆
1 0 0 0 0 0
{ , , }.
0 0 1 0 0 1

2.3.1 Ejercicios

Ejercicio 2.3.1.1
Sea M2⇥2 (R) el R-espacio vectorial de las matrices cuadradas de tamaño 2 ⇥ 2 con coeficientes reales,
y R2 [X] el R-espacio vectorial de los polinomios de grado menor o igual a 2.
2.3. TIPOS DE APLICACIONES LINEALES. ISOMORFISMOS. 41

1. Decir las dimensiones de ambos espacios vectoriales. ¿Son dichos espacios isomorfos?

2. Sea f : R2 [X] ! M2⇥2 (R) la aplicación lineal


✓ que 2
◆ a cada polinomio p(X) = a + bX + cX le
a b
asocia la matriz M = f (a + bX + cX 2 ) = . Demostrar que f es inyectiva.
c 0

3. Siendo f la aplicación del apartado anterior, ¿es posible encontrar dos polinomios p1 (X) y p2 (X)
tales que sus imágenes pertenezcan a un mismo subespacio generado por una matriz A?

4. ¿Serı́a posible definir una aplicación g : R2 [X] ! M2⇥2 (R) que fuera sobreyectiva?

Ejercicio 2.3.1.2
Definir, si es posible, una aplicación lineal de R3 en R2 [X] que sea isomorfismo.

Ejercicio 2.3.1.3
Sea f : V ! W una aplicación lineal.

1. Demostrar que si f es inyectiva, las imágenes de cualesquiera dos elementos distintos de V son
distintas.

2. Demostrar que si las imágenes de cualesquiera dos elementos distintos de V son distintas, en-
tonces f es inyectiva.

3. Sea el caso V = R4 , W = R2 [X] y f la aplicación que a cada vector v = (a, b, c, d) de V = R4 le


asigna el polinomio f (a, b, c, d) = (a + b)X 2 + (c + d) de W = R2 [X].

(a) Utilizando la fórmula de las dimensiones, probar que f no es inyectiva.


(b) Determinar ker(f ).
(c) Dar un conjunto infinito C de vectores de V tal que si v 2 C, entonces f (v) = f (1, 2, 3, 4)

Ejercicio 2.3.1.4
Sean f : V ! W y g : W ! U dos aplicaciones lineales.

1. Demostrar que ker(f ) ⇢ ker(g f ), y deducir que si g f es inyectiva, entonces f es inyectiva.

2. Demostrar que im(g f ) ⇢ im(g), y deducir que si g f es sobreyectiva, entonces g es sobreyectiva.

3. Sean : V ! W y i : W ! V con i = 1, 2 tres aplicaciones lineales tales que 1 = IW y


2 = IV . Demostrar que las dmensiones de V y W son iguales y que las tres aplicaciones son
isomorfismos.

Ejercicio 2.3.1.5
Sean f : R4 ! R3 y g : R3 ! R4 aplicaciones lineales y se sabe que

• (g f )(1, 1, 2, 2) = (g f )( 1, 0, 1, 1)

• dim(ker(g f ))=1

Determinar una base de ker(f ) y el rango de f .


42 LECCIÓN 2. APLICACIONES LINEALES Y MATRICES

2.4 Matriz asociada a una aplicación lineal


En esta sección, se estudian esencialmente las relaciones existentes entre las coordenadas de un vector
y las coordenadas de su imagen por una aplicación lineal, una vez que se han fijado sendas bases en
los espacios inicial y final de la aplicación considerada. Esto permitirá asociar, de forma natural, una
matriz a la aplicación lineal.
Antes de establecer las relaciones antes indicadas, se muestra bajo qué condiciones queda deter-
minada (de forma única) una aplicación lineal. Se ha visto anteriormente que si f : V ! W es una
aplicación lineal y {v1 , v2 , . . . , vr } es un sistema generador de V , en cuanto se conocen los vectores
f (vi ) con i = 1, . . . , r, se puede conocer la imagen de cualquier vector de V . En la siguiente proposición
se muestra bajo qué condiciones el recı́proco también es cierto: en el caso de asociar elementos de
W a una base de V , queda determinada unı́vocamente una aplicación lineal f : V ! W que
verifica las condiciones impuestas.
Proposición 2.4.1
Sean V y W dos K–espacios vectoriales, B = {v1 , v2 , . . . , vn } una base de V y {w1 , w2 , . . . , wn } una fa-
milia cualquiera de vectores de W (donde eventualmente algunos vectores pueden coincidir). Entonces
existe una y sólo una aplicación lineal f : V ! W tal que
f (v1 ) = w1 , f (v2 ) = w2 , . . . , f (vn ) = wn
Si se desea que la aplicación a construir sea lineal y f (vi ) = wi para i = 1, 2, . . . , n, es obligado
que f (v) sea a1 w1 + a2 w2 + . . . + an wn si v = a1 v1 + a2 v2 + . . . + an vn (de ahı́ también la unicidad).
Es inmediato ver que la aplicación f ası́ definida es lineal.
Ejemplo 2.4.1
¿Cuál es la imagen de un vector cualquiera de R3 [X] por la aplicación lineal f : R3 [X] ! R2 tal que
f (1) = (0, 0), f (X) = (1, 0), f (X 2 ) = (2, 2) y f (X 3 ) = (3, 6)?
Si g : R3 [X] ! R2 es la aplicación lineal definida por g(p(X)) = (p0 (1), p00 (1)), ¿podemos afirmar que
f y g son iguales?
Sean V y W dos K–espacios vectoriales, BV = {v1 , v2 , . . . , vn } y BW = {w1 , w2 , . . . , wm } bases de
V y W respectivamente, y f : V ! W una aplicación lineal. Sean (x1 , x2 , . . . , xn ) las coordenadas
de v 2 V respecto de la base BV , y (y1 , y2 , . . . , ym ) las coordenadas de f (v) 2 W respecto de la base
BW . La relación existente entre (x1 , x2 , . . . , xn ) y (y1 , y2 , . . . , ym ) se obtiene mediante los siguientes
argumentos:
• Por un lado se tiene f (v) = y1 w1 + y2 w2 + . . . + ym wm .
• Por otro lado f (v) = f (x1 v1 + x2 v2 + . . . + xn vn ) = x1 f (v1 ) + x2 f (v2 ) + . . . + xn f (vn ). Si f (vi ),
para i = 1, . . . , n, se escribe en función de BW se tendrá
m
X
f (vi ) = a1i w1 + a2i w2 + . . . + ami wm = aji wj
j=1

• Tras llevar ésto a la igualdad anterior, agrupar términos en los que aparece el mismo vector wj
y utilizar la unicidad de expresión de un vector en función de una base, se llega a las siguientes
ecuaciones:
y1 = a11 x1 + a12 x2 + . . . + a1n xn
y2 = a21 x1 + a22 x2 + . . . + a2n xn
.. ..
. .
ym = am1 x1 + am2 x2 + . . . + amn xn
2.4. MATRIZ ASOCIADA A UNA APLICACIÓN LINEAL 43

conocidas como ecuaciones de f respecto de las bases BV y BW .

El sistema de ecuaciones anterior puede escribirse en forma matricial:


0 1 0 1 0 1
y1 a11 a12 . . . . . . a1n x1
B y2 C B a21 a22 . . . . . . a2n C B x2 C
B C B .. C B C
B .. C B .. .. C B . C
B . C=B . . . C · B .. C
B . C B . .. .. C B . C
@ .. A @ .. . . A @ .. A
ym am1 am2 . . . . . . amn xn

Esta ecuación recibe el nombre de ecuación matricial de f respecto de las bases BV y BW y la


matriz (aij ) de dicha ecuación se denomina matriz de la aplicación lineal respecto de las bases
BV y BW y la denotaremos por MBV ,BW (f ).
Los siguientes ejemplos muestran el cálculo explı́cito de la matriz asociada a una aplicación lineal
respecto un par de bases.

Ejemplo 2.4.2

• Si v1 = (1, 1, 1, 1), v2 = (1, 1, 1, 1), v3 = (1, 1, 1, 1), v4 = (1, 1, 1, 1) y f : R4 ! R3 es la


aplicación lineal definida por

f (v1 ) = (1, 1, 1), f (v2 ) = (1, 1, 1)

f (v3 ) = (1, 1, 1), f (v4 ) = ( 1, 1, 1)


entonces 0 1
1 1 1 1
MB,BC (f ) = @ 1 1 1 1A
1 1 1 1
considerando en R4 la base B = {v1 , v2 , v3 , v4 } y en R3 la base canónica BC . Si en R4 y en R3
consideramos las bases canónicas, teniendo en cuenta que

– la base canónica de R4 en función de B se expresa


1 1 1 1
e1 = (v1 + v4 ), e2 = (v3 v4 ), e3 = (v2 v3 ), e4 = (v1 v2 )
2 2 2 2

– cada f (vi ) está expresado en la base canónica de R3


– f es lineal

entonces la matriz asociada a f respecto dichas bases es


0 1
0 1 0 0
@0 0 1 0A.
0 0 0 1

• Sea g : R3 [X] ! R2 la aplicación definida por g(p(X)) = (p0 (1), p00 (1)). Es inmediato que g es
lineal; la matriz asociada a g respecto de las bases canónicas de ambos espacios es
✓ ◆
0 1 2 3
0 0 2 6
44 LECCIÓN 2. APLICACIONES LINEALES Y MATRICES
✓◆
a 0
• Sea M el R-espacio vectorial de las matrices de la forma con a, b, c 2 R y f : R2 [X] !
✓ b ◆c
a 0
M la aplicación lineal definida por f (a + bX + cX 2 ) = . ¿Cuál es la matriz asociada a
b c
esta aplicación cuando en ambos subespacios se considera la base canónica?

Todo este proceso nos permite, una vez fijadas bases de los espacios inicial y final, asociar a cada
aplicación lineal una matriz, que por otra parte, como muestra la siguiente proposición, la determina
puesto que el proceso es reversible.

Proposición 2.4.2
Dados K–espacios vectoriales V y W en los que se consideran bases BV = {v1 , v2 , . . . , vn } y BW =
{w1 , w2 , . . . , wm } respectivamente, y una matriz M = (aij ) de tamaño m ⇥ n, existe una aplicación
lineal (y sólo una) f : V ! W tal que MBV ,BW (f ) = M .

Para definir la aplicación lineal cuya existencia asegura la proposición anterior sólo hay que con-
siderar como aplicación f la definida por:
m
X
f (vi ) = a1i w1 + a2i w2 + . . . + ami wm = aji wj
j=1

De este hecho resulta que habitualmente se identifique aplicación lineal y matriz, y que enunciados
como el siguiente sean habituales.

Sea A la aplicación lineal de R3 en R3 [X] definida por


0 1
0 0 0
B1 0 0C
A=B @2 1 0A
C

3 2 1

¿Cuáles son las imágenes de los vectores (0, 1, 0) y (1, 2, 3) por esta aplicación?

Ese mismo enunciado se podrı́a haber expresado ası́:

Sea f : R3 ! R3 [X] la aplicación lineal que respecto de las bases canónicas está definida
por la matriz 0 1
0 0 0
B1 0 0C
A=B @2 1 0A
C

3 2 1
¿Quién es f (0, 1, 0)? ¿Y f (1, 2, 3)?

El proceso realizado hasta aquı́ nos permite identificar el conjunto de las aplicaciones lineales entre
dos espacios vectoriales con el espacio vectorial de las matrices (con las dimensiones apropiadas) como
muestra el siguiente teorema.

Teorema 2.4.1
Sean V y W K–espacios vectoriales y BV y BW bases de V y W respectivamente. Denotemos por L
el conjunto de las aplicaciones lineales de V en W , y por M el K–espacio vectorial de las matrices
m ⇥ n con coeficientes en K, donde m = dim W y n = dim V . Se tiene entonces que:
2.4. MATRIZ ASOCIADA A UNA APLICACIÓN LINEAL 45

1. L tiene estructura de K–espacio vectorial con las operaciones siguientes

(f + g)(v) = f (v) + g(v) y (af )(v) = af (v)

donde f y g son elementos cualesquiera de L, y a 2 K

2. Si : L ! M es la aplicación que asocia a cada aplicación lineal f la matriz MBV ,BW (f )


entonces es un isomorfismo de K–espacios vectoriales.

Al comienzo de este capı́tulo se ha definido rango de una aplicación lineal, y ahora se ha visto la
identificación de aplicación lineal y matriz, por tanto la pregunta siguiente es obvia: ¿qué relación
existe entre el rango de una aplicación lineal y el rango de cualquiera de sus matrices asociadas?
Si V y W son K-espacios vectoriales, BV = {v1 , . . . , vn } y BW = {w1 , . . . , wm } bases de V y W
respectivamente, y f : V ! W una aplicación lineal tal que A = MBV ,BW (f ), se tiene que el vector
f (vi ) está identificado, vı́a el isomorfismo coordenado de W respecto BW , con la columna i-ésima de
la matriz A, por tanto

rango(f ) = dim(im(f )) = rango{f (v1 ), f (v2 ), . . . , f (vn )} =

= rango{(a11 , . . . , am1 ), (a12 , . . . , am2 ), . . . , (a1n , . . . , amn )} =

= rango por columnas de A

Consideremos ahora el subespacio S de Kn generado por las filas de la matriz A. La dimensión de


dicho subespacio es el rango por filas de tal matriz, aunque en lo sucesivo no distinguiremos el rango
por filas del rango por columnas puesto que ambos coinciden como muestra la siguiente proposición.

Proposición 2.4.3
En la matriz A el rango por filas y el rango por columnas es el mismo, lo que permite definir rango
de una matriz como cualquiera de ellos.

Demostración.
La demostración de la afirmación anterior pasa por probar que r  r0 y r0  r, donde r es el rango
por filas de A y r0 su rango por columnas. Es suficiente ver que r0  r pues a la otra desigualdad se
llega de forma análoga (o bien considerando la matriz traspuesta de A).
No se pierde generalidad si se supone que son las r primeras filas de A las linealmente independi-
entes, y las restantes por tanto combinación lineal de ellas:

r
X
(ai1 , ai2 , . . . , ain ) = ↵ik (ak1 , ak2 , . . . , akn )
k=1

con i = r + 1, r + 2, . . . , m. De esta última igualdad se deduce:

r
X
aij = ↵i1 a1j + ↵i2 a2j + . . . ↵ir arj = ↵ik akj
k=1
46 LECCIÓN 2. APLICACIONES LINEALES Y MATRICES

con r + 1  i  m, 1  j  n. Para j = 1, 2, . . . , n, sea cj la columna j–ésima de A:

cj = (a1j , a2j , . . . , arj , ar+1j , . . . , amj ) =


r
X X r
= (a1j , a2j , . . . , arj , ↵r+1k akj , . . . , ↵mk akj ) =
k=1 k=1
= a1j (1, 0, . . . , 0, ↵r+11 , . . . , ↵m1 )+
+a2j (0, 1, 0, . . . , 0, ↵r+12 , . . . , ↵m2 )+
+.................................+
+arj (0, . . . , 0, 1, ↵r+1r , . . . , ↵mr )
de donde se deduce que cada vector columna de A depende linealmente de los r vectores que aparecen
en la combinación lineal anterior. Por tanto el número de vectores columna linealmente independientes
no puede ser mayor que el número de los vectores que los generan, es decir, r0  r.
La proposición que se acaba de probar permite realizar el cálculo del rango de una aplicación lineal
por las filas o por las columnas, indistintamente, de la matriz asociada.

2.4.1 Ejercicios

Ejercicio 2.4.1.1
Sea f : R3 ! R2 la aplicación lineal tal que

f (e1 ) = 3e01 e02 , f (e2 ) = e01 e02 , f (e3 ) = 3e01 + 2e02

donde Bc = {e1 , e2 , e3 } y B 0 c = {e01 , e02 } son las bases canónicas de R3 y R2 respectivamente.


1. Completar: f (x, y, z) = (· · · , · · ·).

2. Comprobar que el resultado obtenido en el apartado anterior coincide (escrito en columna) con
el obtenido al realizar la siguiente multipicación matricial.
0 1
✓ ◆ x
3 1 3 @ A
y .
1 1 2
z

3. ¿Es cierto que MBc ,B0 c (f ) es la matrix 2 ⇥ 3 del apartado anterior?

Ejercicio 2.4.1.2
Sea f : R3 ! R4 la aplicación lineal tal que

f (e1 ) = e01 e02 + e03 , f (e2 ) = e01 e02 + e03 + e04 , f (e3 ) = 2e01 e04

donde Bc = {e1 , e2 , e3 } y B 0 c = {e01 , e02 , e03 , e04 } son las bases canónicas de R3 y R4 respectivamente.
1. Sea v = (x, y, z) un vector de R3 , y sea f (v) = (x0 , y 0 , z 0 , t0 ). Determina la matriz M tal que
(x0 , y 0 , z 0 , t0 )t = M (x, y, z)t (el superı́ndice t denota ”traspuesta de”).

2. Siendo M la matriz determinada en el apartado anterior, expresar la igualdad M (x, y, z)t =


(1, 2, 3, 4)t como un sistema de cuatro ecuaciones con tres incógnitas. ¿Tiene solución el sistema
anterior? ¿Por qué?

3. A las preguntas del segundo apartado una persona responde “No, porque el vector (1, 2, 3, 4) 2
/
im(f )”. ¿Coincide con tu respuesta? ¿Es correcta su respuesta?
2.4. MATRIZ ASOCIADA A UNA APLICACIÓN LINEAL 47

Ejercicio 2.4.1.3
Sean f y g dos aplicaciones lineales de R3 a R4 definidas por:

f (x, y, z) = (2x y, 3x + z, x + y + z, x 2y + z)

g(x, y, z) = (x y z, 3x y + z, x + 2y + 3z, 2x 2y + z)
1. Hallar las matrices M (f ) y M (g) asociadas a las aplicaciones f y g respectivamente cuando en
el espacio inicial y en el espacio final se consideran las bases canónicas.

2. En general, si f1 y f2 son aplicaciones lineales del K-espacio vectorial V en el K-espacio vectorial


W , y v es un vector cualquiera de V , se define la aplicación

f1 + f2 : V ! W

v ! (f1 + f2 )(v) = f1 (v) + f2 (v).

Teniendo en cuenta lo anterior, y siendo f y g las aplicaciones antes definidas, completar:

(f + g)(x, y, z) = (· · · , · · · , · · · , · · ·)

3. Determinar la matriz M (f + g) asociada a las aplicación lineal f + g cuando se consideran las


bases canónicas en el espacio inicial y en el espacio final.

4. Hallar una relación entre M (f ), M (g) y M (f + g)

Ejercicio 2.4.1.4
Se consideran los siguientes endomorfismos de V = R2 .
• f (x, y) = ( 2x, 2y)
⇡ ⇡ ⇡ ⇡
• g(x, y) = ((cos )x (sen )y, (sen )x + (cos )y)
6 6 6 6
• h(x, y) = (y, x)

1. Determina la matriz asociada a cada una de las aplicaciones anteriores respecto de las bases
canónicas en el espacio inicial y en el espacio final.

2. Sea T = {(x, y) 2 V tal que 0  x, 0  y, x + y  1}.

(a) Demuestra que T no es un subespacio vectorial de V .


(b) Representa gráficamente el conjunto T , y el transformado de T por cada una de las aplica-
ciones anteriores.
(c) ¿Conoces el nombre de las transformaciones anteriores?

Ejercicio 2.4.1.5
Sea f : R4 ! R3 la aplicación lineal definida por su matriz asociada respecto de las bases canónicas
en el espacio inicial y final. 0 1
1 1 1 3
MBc ,B0 (f ) = @ 1 1 2 4A
c
1 1 1 5
¿Cuáles de las siguientes afirmaciones son verdaderas?
48 LECCIÓN 2. APLICACIONES LINEALES Y MATRICES

Figura 2.2: Vector v = (1, 2) y transformados de v por f , g y h

1. f (↵e1 + e4 ) = (↵ + 3 , ↵ + 4 , ↵ + 5 )

2. El rango de la aplicación lineal es 4.

3. f es inyectiva.

4. La dimensión del núcleo de f es 1.

Ejercicio 2.4.1.6
Sea f : R12 ! R4 la aplicación lineal definida por su matriz asociada respecto de las bases canónicas
en el espacio inicial y final.
0 1
1 0 0 0 1 0 0 0 1 0 0 0
B0 1 0 0 0 1 0 0 0 1 0 0C
MBc ,B0 (f ) = B
@0 0 1 0 0
C
c 0 1 0 0 0 1 0A
0 0 0 1 0 0 0 1 0 0 0 1

¿Cuáles de las siguientes afirmaciones son verdaderas?

1. f es sobreyectiva.

2. La dimensión del núcleo de f es 4.

3. ker(f ) = h{e1 e 5 , e1 e 9 , e2 e 6 , e2 e10 , e3 e 7 , e3 e11 , e4 e 8 , e4 e12 }i

4. (1, 1, 1, 1) 62 im(f ).

2.5 Cambios de base y matrices equivalentes


En la sección precedente se ha mostrado cómo, fijadas bases en los espacios inicial y final, cada
aplicación lineal queda caracterizada por una matriz (que depende de esas bases). En lo que sigue,
se estudia la relación que existe entre dos matrices asociadas a una misma aplicación lineal pero
2.5. CAMBIOS DE BASE Y MATRICES EQUIVALENTES 49

referidas a distintas bases. Para ello, y previamente, se estudia la matriz asociada a la composición
de aplicaciones lineales (que tambien es una aplicación lineal).

Proposición 2.5.1
Sean V , W y U K–espacios vectoriales, y BV , BW y BU bases de V , W , y U respectivamente. Si
f : V ! W y g : W ! U son aplicaciones lineales tales que MBV ,BW (f ) = A y MBW ,BU (g) = B,
entonces MBV ,BU (g f ) = BA

Una primera aplicación de la proposición anterior aparece en la siguiente afirmación:


Sea A una matriz m ⇥ n, B una matriz p ⇥ m y BA la matriz producto. Se tiene entonces
que rango(BA)  rango(A). ¿Puedes demostrarlo?
El siguiente ejemplo motiva la consideración de los cambios de base: el estudio de la relación entre
las coordenadas de un mismo vector respecto de distintas bases.

Ejemplo 2.5.1
Sea f : R3 ! R4 la aplicación lineal definida por f (x, y, z) = (x 2y 3z, x y 2z, x + 2y, x + z).
La matriz asociada a f respecto de las bases canónicas en ambos espacios es
0 1
1 2 3
B1 1 2C
A=B @1 2
C
0 A
1 0 1
Si en R3 consideramos la base
B = {(1, 2, 1), (2, 1, 0), (1, 0, 0)}
y en R4 la base
B 0 = {(1, 1, 0, 0), (1, 1, 0, 0), (0, 0, 0, 1), (0, 0, 1, 0)},
la matriz asociada a f respecto dichas bases es
0 9 1 1
2 2 1
B C
B 21 C
B 1
0 C
A0 = B
B
2 2 C
C
B C
@ 2 2 1 A
5 4 1
El estudio de la relación que existe entre estas dos matrices que representan la misma aplicación lineal
pero respecto de distintas bases es el objeto del resto de esta sección. La clave se encontrará en la
relación que existe entre las coordenadas de un mismo vector respecto de distintas bases.

2.5.1 Cambios de Base


Sean B = {v1 , v2 , . . . , vn } y B 0 = {v10 , v20 , . . . , vn0 } bases de un K–espacio vectorial V . Si (x1 , x2 , . . . , xn )
y (x01 , x02 , . . . , x0n ) son las coordenadas de un vector v 2 V respecto de B y B 0 respectivamente, ¿qué
relación hay entre dichas coordenadas? Si IV : V ! V es la aplicación identidad y P = MB0 ,B (IV ),
teniendo en cuenta la ecuación matricial de una aplicación lineal, se verifica que
0 1 0 x0 1
x1 1
B x2 C B x02 C
B . C=PB . C
@ .. A @ .. A
xn x0n
50 LECCIÓN 2. APLICACIONES LINEALES Y MATRICES

La matriz P recibe el nombre de matriz del cambio de base de B 0 a B (sus columnas son las
coordenadas de los vectores de B 0 expresados en función de B). Además se tiene que la matriz P es
inversible:
Sea P ⇤ = MB,B0 (IV ) e In la matriz identidad de orden n. Es claro que In = MB,B (IV ) =
MB0 ,B0 (IV ), pero también se tiene MB,B (IV ) = P P ⇤ y MB0 ,B0 (IV ) = P ⇤ P (la composición
de aplicaciones tiene como matriz asociada la matriz producto e IV IV = IV ). Por tanto
In = P ⇤ P = P P ⇤ y P ⇤ = P 1 .
Se ha visto entonces que todo cambio de base tiene asociada una matriz regular. El proceso
es recı́proco: si P = (pij ) es una matriz regular n ⇥ n y V es un K–espacio vectorial donde B =
{v1 , v2 , . . . , vn } es una de sus bases, existe una base B 0 de V tal que P = MB0 ,B (IV ). Basta considerar
B 0 = {v10 , v20 , . . . , vn0 } donde
n
X
vi0 = pji vj .
j=1

Ejemplo 2.5.2
En R3 se considera la base B = {(1, 1, 1), (0, 1, 1), (0, 1, 0)}. Si uno desea saber cuáles son las
coordenadas del vector v = (3, 2, 1) respecto de la base B, puede actuar
• bien resolviendo el sistema que resulta de la igualdad
(3, 2, 1) = a(1, 1, 1) + b(0, 1, 1) + c(0, 1, 0)

• o bien determinando la matriz del cambio de base P que da las coordenadas de los vectores de
la base canónica en función de B
0 1 0 1 1
1 0 0 1 0 0
P =@ 1 0 1A = @ 1 1 1A
0 1 1 1 1 0
y obtener las coordenadas (a, b, c) de v = (3, 2, 1) respecto de la base B como
0 1 0 1
a 3
@bA = P @2A
c 1

Dado un vector v = (x, y, z), las coordenadas (x0 , y 0 , z 0 ) de v respecto B son las que se obtienen como
0 01 0 1
x x
@ y0 A = P @ y A
z0 z
Ejemplo 2.5.3
En R3 se consideran las bases
B = {(1, 1, 1), (0, 1, 1), (0, 1, 0)} y B 0 = {(1, 1, 1), (1, 1, 0), (0, 0, 1)}.
Si un vector v tiene coordenadas (x, y, z) respecto de B y (x0 , y 0 , z 0 ) respecto de B 0 , se tiene
0 1 0 01 0 1
x x 1 1 0
@ y A = P @ y 0 A , con P = @ 0 1 1A
z z 0 2 1 1
donde P es la matriz del cambio de base cuyas columnas dan las coordenadas de los vectores de B 0
respecto de B. ¿Puedes escribir P como producto de dos matrices de cambios de base donde intervenga
la base canónica de R3 ?
2.5. CAMBIOS DE BASE Y MATRICES EQUIVALENTES 51

2.5.2 M 0 = QM P
Todo lo visto anteriormente nos conduce de forma inmediata a la relación existente entre dos matrices
asociadas a una misma aplicación lineal pero referidas a bases distintas.

Teorema 2.5.1
Sea f : V ! W una aplicación lineal, BV y BV0 bases de V y BW y BW 0 bases de W . Si M =
0 0
MBV ,BW (f ) y M = MB0 V ,B0 W (f ) entonces M = QM P donde P y Q son matrices regulares de
dimensiones n ⇥ n y m ⇥ m respectivamente (P = MB0 V ,BV (IV ) y Q = MBW ,B0 W (IW )).

La relación anterior da pie a establecer la definición de matrices equivalentes.

Definición 2.5.1
Dos matrices M y M 0 se dice que son equivalentes si están asociadas a la misma aplicación lineal, o
lo que es lo mismo, si ambas tienen el mismo tamaño, m ⇥ n, y existen matrices regulares P y Q, de
dimensiones n ⇥ n y m ⇥ m respectivamente, verificando M 0 = QM P .

Desde un punto de vista práctico la definición anterior de matrices equivalentes es poco ”mane-
jable”. El siguiente resultado (y su contrapartida vectorial) permitira caracterizar las matrices equiv-
alentes en función de su rango (y de su tamaño).

Teorema 2.5.2
Si M es una matriz m ⇥ n y de rango r, entonces es equivalente a una matriz de la forma
✓ ◆
I r 01
02 03
donde por Ir se denota la matriz identidad r ⇥ r, por 01 la matriz nula de tamaño r ⇥ (n r), por 02
la matriz nula (m r) ⇥ r y por 03 la matriz nula (n r) ⇥ (n r).

Teorema 2.5.3
Sea f : V ! W una aplicación lineal de rango r con n = dim V y m = dim W . Entonces existe BV
base de V y BW base de W tal que
✓ ◆
Ir 01
MBV ,BW (f ) =
02 03
donde por Ir se denota la matriz identidad r ⇥ r, por 01 la matriz nula de tamaño r ⇥ (n r), por 02
la matriz nula (m r) ⇥ r y por 03 la matriz nula (n r) ⇥ (n r).

Para demostrar el primer teorema (y el segundo) basta interpretar M como la matriz asociada a una
aplicación lineal f : V ! W (respecto algunas bases) donde V y W son K–espacios vectoriales de di-
mensiones n y m respectivamente, y realizar ciertos cambios de base. Si BV = {v1 , . . . , vr , vr+1 , . . . , vn }
es una base de V , donde {vr+1 , . . . , vn } es una base de ker(f ), y BW = {w1 , . . . , wr , wr+1 , . . . , wm } es
una base de W donde wi = f (vi ) con i = 1, 2, . . . , r (comprueba que bajo estas condiciones los vec-
tores f (v1 ), . . . , f (vr ) son linealmente independientes), entonces MBV ,BW (f ) es de la forma descrita
en el/los enunciado/s.

Ejemplo 2.5.4
Sea 0 1
1 1 2 0
M = @1 1 0 2A,
1 1 2 0
52 LECCIÓN 2. APLICACIONES LINEALES Y MATRICES

y sea f : R4 ! R3 la aplicación lineal que respecto de las bases canónicas tiene como matriz asociada
M . Como el rango de M es 2, existen bases en R4 y en R3 respecto de las cuáles la matriz asociada
a f es de la forma 0 1
1 0 0 0
M0 = @ 0 1 0 0 A
0 0 0 0
Puesto que ker(f ) = h{(1, 1, 1, 0), (1, 1, 0, 1)}i, podemos considerar

BV = {(1, 0, 0, 0), (0, 1, 0, 0), (1, 1, 1, 0), (1, 1, 0, 1)} como base de R4 y

BW = {(1, 1, 1), (1, 1, 1), (1, 0, 0)} como base de R3


(f (1, 0, 0, 0) = (1, 1, 1) y f (0, 1, 0, 0) = (1, 1, 1)). Ası́ MBV ,BW (f ) = M 0 .

Proposición 2.5.2
Sean M y M 0 dos matrices. Entonces M y M 0 son equivalentes si y sólo si tienen el mismo tamaño
y el mismo rango.

De la definición de matrices equivalentes se deduce, de forma inmediata, que dos matrices que sean
equivalentes tienen igual tamaño e igual rango. Si M y M 0 tienen igual tamaño (m ⇥ n) e igual rango
(r), ambas son equivalentes a una matriz de la forma
✓ ◆
Ir 01
C=
02 03

es decir, C = QM P = Q0 M 0 P 0 donde Q, P , Q0 y P 0 son matrices regulares. Esto permite escribir


M 0 = Q00 M P 00 siendo Q00 = Q0 1 Q y P 00 = P P 0 1 (ambas regulares).
Si por M denotamos el conjunto de matrices m⇥n con coeficientes en K, la relación de equivalencia
”ser matrices equivalentes” definida en M particiona el conjunto M en t + 1 clases de equivalencia
donde t = mı́nimo{m,
✓ n}.
◆ Cada clase de equivalencia está representada canónicamente por una matriz
Ir 01
del tipo C = con r = 0, 1, 2, . . . , t.
02 03

Ejemplo 2.5.5
0 1 0 1
1 1 2 a
Las matrices @ 1 1 A y @ 2 a A son equivalentes si y sólo si b 6= 0 y a 6= 2. ¿Cuál es el represen-
1 0 b b
tante canónico de la clase de equivalencia a la que pertenecen?

2.5.3 Ejercicios

Ejercicio 2.5.3.1
Sea V = R4 , Bc = {e1 = (1, 0, 0, 0), e2 = (0, 1, 0, 0), e3 = (0, 0, 1, 0), e4 = (0, 0, 0, 1)} la base canónica
de V = R4 y B = {v1 = (1, 1, 1, 1), v2 = (1, 2, 1, 1), v3 = (0, 0, 0, 1), v4 = (1, 0, 0, 1)}

1. Demuestra que B es base de V .

2. Sea v = (1, 2, 3, 4) 2 R4 . Determina las coordenadas de v respecto Bc y respecto B.

3. Sea v = (x, y, z, t) 2 R4 . Determina las coordenadas de v respecto Bc y respecto B.


2.5. CAMBIOS DE BASE Y MATRICES EQUIVALENTES 53

4. Si un vector v 2 R4 cualquiera tiene coordenadas (↵1 , ↵2 , ↵3 , ↵4 ) respecto Bc y coordenadas


( 1 , 2 , 3 , 4 ) respecto B. Determina una matriz M tal que
0 1 0 1
1 ↵1
B 2C B ↵2 C
B C=MB C
@ 3A @ ↵3 A
4 ↵4

¿Qué nombre recibe esa matriz M ?

5. Sea B 0 = {v10 , v2 , v30 , v40 } con

v10 = (0, 0, 0, 1), v20 = (0, 0, 2, 1), v30 = (0, 1, 1, 1), v40 = ( 1, 1, 1, 1)

(a) Demuestra que B 0 es una base de V = R4


(b) Sea v = (1, 2, 3, 4) 2 R4 . Determina las coordenadas de v respecto B 0 .
(c) Sea v = (x, y, z, t) 2 R4 . Determina las coordenadas de v respecto B 0 .
(d) Si un vector v 2 R4 cualquiera tiene coordenadas ( 1 , 2 , 3 , 4) respecto B y coordenadas
( 1 , 2 , 3 , 4 ) respecto B 0 . Determina una matriz N tal que
0 1 0 1
1 1
B C B C
B 2C
= N B 2C
@ 3
A @ 3
A
4 4

¿Qué nombre recibe esa matriz N ?

Ejercicio 2.5.3.2
Sea f : R3 ! R4 la aplicación lineal definida por:

f (x, y, z) = (2x y, 3x + z, x + y + z, x 2y + z)

1. Se considera la siguiente base de R3 :

B = {(1, 1, 1), (1, 1, 1), (2, 0, 0)}.

Determinar la matriz P cuyas columnas son las coordenadas de los vectores de B expresados en
función de la base canónica de R3 (matriz de cambio de base).

2. Sea R la matriz cuyas columnas son las coordenadas de los vectores de la base canónica de R3
expresados en función de la base B. ¿Qué relación existe entre las matrices P y R?

3. Sea M la matriz asociada a f respecto de las bases canónicas de R3 y R4 , y N la matriz asociada


a f respecto de las bases B en R3 y canónica en R4 . Señalar una igualdad que relacione las
matrices M , N y P , y obtener M y N .

Ejercicio 2.5.3.3
Sea V = R4 y U el subespacio de V definido por

U = {(x, y, z, t) 2 V tal que x 2y = 0, x + y + z t = 0}

1. Demostrar que BU = {(2, 1, 0, 3), (0, 0, 1, 1)} es base de U .


54 LECCIÓN 2. APLICACIONES LINEALES Y MATRICES

2. Sea v = (4, 2, 1, 2). Probar que v 2 U y determinar las coordenadas de v respecto BU .

3. Sea v = (2↵, ↵, , 3↵ + ). Probar que v 2 U y determinar las coordenadas de v respecto BU .

4. Demostrar que BU0 = {(0, 0, 1, 1), (2, 1, 3, 0)} es base de U .

5. Si un vector v 2 U cualquiera tiene coordenadas (↵1 , ↵2 ) respecto BU y coordenadas ( 1, 2)


respecto BU0 . Determinar una matriz M tal que
✓ ◆ ✓ ◆
1 ↵1
=M
2 ↵2

¿Qué nombre recibe esa matriz M ?

Ejercicio 2.5.3.4
Se consideran las siguientes matrices
0 1
3 0 1 0 1
B1 1 0 1 1
3 C
M =B @2 1
C P = @2 1 0 A
4 A
1 3 1
1 1 0

Sea f : R3 ! R4 la aplicación lineal cuya matriz asociada respecto de las bases B = {v1 = (0, 2, 1), v2 =
( 1, 1, 3), v3 = (1, 0, 1)} en R3 y la base canónica Bc0 en R4 es M , M = MB,Bc0 (f ) ¿Cuáles de las
siguientes afirmaciones son verdaderas?

1. MBc ,Bc0 (f ) = M P

2. MBc ,Bc0 (f ) = M P 1

3. MBc ,Bc0 (f ) = P M

4. MBc ,Bc0 (f ) = P 1M

Ejercicio 2.5.3.5
Sea f el endomorfismo de R4 que tiene por matriz asociada respecto de la base canónica la matriz
0 1
0 0 0 4
B0 0 3 0C
M = MBc (f ) = B@0 2 0 0A
C

1 0 0 0

¿Cuáles de las siguientes afirmaciones son verdaderas?

1. Si B = {e1 , e4 , e2 , e3 }, entonces la matriz asociada a f respecto de B es


0 1
0 4 0 0
B1 0 0 0C
MB (f ) = B
@0 0
C
0 3A
0 0 2 0

2. Existen bases B1 y B2 de R4 tales que MB1 ,B2 (f ) = I4 .

3. No existen matrices inversibles P y Q tales que QM P = I4 .


2.5. CAMBIOS DE BASE Y MATRICES EQUIVALENTES 55

4. No es posible hablar de f 1

Ejercicio 2.5.3.6
Se considera la siguiente matriz real:
0 1
a 1 1 1
a = @a a b 1A,
0 0 c 0

que es equivalente a una matriz de la forma


✓ ◆
Ir 01
C= ,
02 03

siendo Ir la matriz identidad de orden r, y los 00i s matrices nulas de tamaños adecuados.

1. Determinar el valor de r según los valores de a, b, c.


0 1
0 1 1 1
2. Si A = @ 0 0 b 1 A es la matriz de una aplicación lineal de R4 en R3 referida a las bases
0 0 1 0
canónicas, hallar bases de tales espacios respecto de las cuales la matriz asociada a f sea la
matriz C correspondiente.

3. Determinar matrices P (4 ⇥ 4) y Q (3 ⇥ 3) tales que C = QAP (donde A y C son las matrices


del apartado anterior).

Ejercicio 2.5.3.7
Se consieran las siguientes matrices
0 1
✓ ◆ 2 0 1
1 0 1 B0 1 2 C
A= C=B
@1
C
2 1 1 3 0 A
0 0 2

1. Hallar matrices B1 y B2 (distintas) tales que AB1 = AB2 = I2

2. Hallar matrices D1 y D2 (distintas) tales que D1 C = D2 C = I3

3. ¿Será posible encontrar una matriz B tal que BA = I3 ?

4. ¿Será posible encontrar una matriz D tal que CD = I4 ?

(Ir denota la matriz identidad de orden r)


56 LECCIÓN 2. APLICACIONES LINEALES Y MATRICES

2.6 Problemas de Aplicaciones Lineales


Problema 2.6.1
Se considera el R-espacio vectorial R4 , y se definen las siguientes aplicaciones fi de R4 en R3 . ¿Cuáles
de ellas son lineales?

a) f1 (x, y, z, t) = (x, y, z) + (1, 2, 3)

b) f2 (x, y, z, t) = (1, 2, 3)

c) f3 (x, y, z, t) = (x, 2y, 3z) + (1, 2, 3)

d) f4 (x, y, z, t) = (sen x, cos y, z + t)

e) f5 (x, y, z, t) = (2x y, 2y z, 0)

f) f6 (x, y, z, t) = (x + y, y + z, z + t)

Determinar el núcleo y la imagen de aquellas aplicaciones que hayan resultado ser lineales.

Problema 2.6.2
Consideremos el conjunto C de los números complejos, y la aplicación f : C ! C que a cada número
complejo le asigna su conjugado. Se pide, averiguar si f es lineal considerando:

a) C como R-espacio vectorial

b) C como C-espacio vectorial

En los casos en que f sea lineal, hallar su núcleo y su imagen.

Problema 2.6.3
Determinar bases de los núcleos y las imágenes de las siguientes aplicaciones lineales definidas de R3
en R4 :

a) f1 (x, y, z) = (y + z, x + z, x + y, x + y + z)

b) f2 (x, y, z) = (x y, x + y, z, 0)

c) f3 (x, y, z) = (2x, 3y, x y, x + y + z)

d) f4 (x, y, z) = (0, x y z, y x z, z x y)

Problema 2.6.4
Sea V el R-espacio vectorial de los polinomios de grado menor o igual que 3 con coeficientes reales.
Se considera la aplicación lineal f : R3 ! V tal que (para ciertos a, b 2 R):

f (1, 1, 1) = 2b + aX f (0, 1, 1) = aX + bX 3 f (0, 0, 1) = b + (a 1)X

a) Halla a y b para que f no sea inyectiva


2.6. PROBLEMAS DE APLICACIONES LINEALES 57

b) Halla bases de ker(f ) y de Im(f ), en función de a y b.

c) Determina el subespacio f (U ), según a y b, siendo U = {(x, y, z) 2 R3 : x + z = y + z = 0}.

Problema 2.6.5
Dı́, razonadamente, si las siguientes afirmaciones son verdaderas ó no.

a) Sea f : Rn ! Rn una aplicación lineal. Si f no es inyectiva, Im(f ) no es Rn .

b) Existe alguna aplicación lineal f de R3 en R2 que no siendo inyectiva tiene como imagen todo
R2 .

c) Existe una aplicación lineal f de R2 en R3 que tiene como imagen todo R3 .

d) Si f : R2 ! R3 es aplicación lineal, entonces ker(f ) = {0} o dim(Im(f )) = 1.

e) Si f es una aplicación lineal de Rn en R, dim(Ker(f )) = n 1 o f es la aplicación nula.

f) Si f es un endomorfismo de V tal que Ker(f ) = Im(f ), dim(V ) es un número par.

Problema 2.6.6
Sea V un K-espacio vectorial no nulo de dimensión n y f un endomorfismo de V verificando:

f2 = 0 y dim(Im(f )) dim(ker(f ))

¿Cúales de las siguientes afirmaciones son ciertas?:

a) dim(Im(f )) > dim(ker(f ))

b) dim(Im(f )) = n

c) Im(f ) \ ker(f ) = {0}

d) n es un no
¯ par

Problema 2.6.7
Sea V un espacio vectorial de dimensión 3, {v, w, u} una base de V y f un endomorfismo de V tal que

f (v) = v + w, f (u) = u, ker(f ) =< {v + w} > .

Se pide calcular Im(f ), ker(f 2 ) y ker(f 3 ).

Problema 2.6.8
Construye, si es posible, una aplicación lineal con las condiciones pedidas en cada uno de los casos
siguientes:
58 LECCIÓN 2. APLICACIONES LINEALES Y MATRICES

a) una aplicación lineal inyectiva de R4 en R3 .

b) una aplicación lineal sobreyectiva de R4 en R3 .

c) una aplicación lineal de R4 en R5 tal que su rango sea 5.

d) una aplicación lineal f de R5 en R4 tal que dim ker(f ) = 3.

Problema 2.6.9
Da un ejemplo, en cada uno de los casos siguientes, de una aplicación lineal f : R3 ! R3 verificando:
a) Ker(f ) \ Im(f ) 6= {~0}

b) Ker(f ) ⇢ Im(f )

c) Im(f ) ⇢ Ker(f )

Problema 2.6.10
Sean U y W dos subespacios no nulos de R5 tales que U W = R5 .
a) Determina todos los posibles valores de dim U para que pueda existir una aplicación lineal
f : R5 ! R2 tal que Ker(f ) = U .

b) Determina todos los posibles valores de dim U para que pueda existir una aplicación lineal
f : R2 ! R5 tal que Im(f ) = U .

Problema 2.6.11
Sean f : R3 ! R4 y g : R4 ! R3 dos aplicaciones lineales.
a) Demuestra que Ker(f ) ⇢ Ker(g f ).

b) Demuestra que si g es sobreyectiva, entonces Im(f ) ⇢ Im(f g).

c) Supongamos que f y g verifican las siguientes condiciones:

i) dim Ker(g f ) = 1
ii) dim Im(f g) = 2
iii) g es sobreyectiva.

Deduce que en ese caso

· f no es inyectiva y Ker(f ) = Ker(g f ).


· Im(f ) = Im(f g).
2.6. PROBLEMAS DE APLICACIONES LINEALES 59

Problema 2.6.12
Sea f : R4 ! R3 la aplicación lineal definida por f (x, y, z, t) = (x + y + 2z, 2x t, 0).

a) Escribe la matriz asociada a f respecto de las bases canónicas.

b) Determina bases de ker(f ), Im(f ). ¿Es f inyectiva? ¿Es f sobre?

Problema 2.6.13
Se consideran de R2 en R2 las siguientes aplicaciones lineales:

i) f (x, y) = (( 1/2)x, ( 1/2)y)


✓ 0◆ ✓ ◆✓ ◆
0 0 x cos ⇡/4 sen ⇡/4 x
ii) g(x, y) = (x , y ) siendo =
y0 sen ⇡/4 cos ⇡/4 y

iii) h(x, y) = (y, x)

iv) j(x, y) = (3x, 3y)

v) k(x, y) = (2x, 5y)

vi) l(x, y) = (x + 3y, 2x + y)

a) Da la matriz asociada a cada una de las aplicaciones anteriores respecto las bases canónicas.
¿Son todas automorfismos de R2 ?

b) Sea T = {(x, y) 2 R2 : 0  y  1, 0  x  1}. Representa gráficamente dicho conjunto y su


imagen por cada una de las aplicaciones definidas en este ejercicio.

c) ¿Darı́as un nombre especial a alguna de las aplicaciones anteriores?

Problema 2.6.14
Se considera la aplicación lineal f : R3 ! R2 que respecto las bases canónicas tiene por matriz
✓ ◆
1 1 0
A=
2 3 1

a) Halla bases de ker(f ), Im(f ) y obtén las coordenadas del vector (1, 0, 2) respecto a una base de
R3 que contenga a la base del Kerf obtenida.

b) Sean B = {( 1, 0, 0), (1, 0, 2), ( 1, 2, 0)}, y B 0 = {( 1, 1), ( 1, 2)} bases de R3 y R2 respectiva-


mente. Determina la matriz asociada a f respecto de estas nuevas bases.

c) Halla la matriz de f respecto a las bases C = {(1, 1, 1), (0, 1, 0), (0, 0, 1)} y C 0 = {f (1, 1, 1),
f (0, 1, 0)}.
60 LECCIÓN 2. APLICACIONES LINEALES Y MATRICES

d) Halla matrices inversibles P y Q con P 2 M2 (R) y Q 2 M3 (R) tales que


✓ ◆
Ir 0
P AQ = 2 M2⇥3 (R)
0 0

donde r = dim(Imf ).

Problema 2.6.15
Sea B 0 la base de R3 dada por los vectores {(1, 0, 1), (2, 1, 1), (0, 1, 2)}. Se considera la aplicación

f: V = R3 ! W = R3
(1, 0, 1) 7 ! (4, 2, 1)
(2, 1, 1) 7 ! (11, 2, 1)
(0, 1, 2) 7 ! (1, 2, 1)
donde todos los vectores están expresados en las bases canónicas.

a) Halla la matriz M de la aplicación f respecto de la base B 0 en V y de la base canónica B en W .

b) Halla la matriz N de la aplicación f respecto de las bases canónicas en V y W , ası́ como las
matrices que relacionan N y M .

c) Halla las dimensiones del núcleo y de la imagen de f , y utiliza lo obtenido para justificar que f
no es isomorfismo.

Problema 2.6.16
Considerar la aplicación lineal A : R2 ! R2 dada por la matriz
✓ ◆
1 1 2
A=
3 4 1

respecto de la base canónica de R2 . Encontrar la matriz que representa dicha aplicación respecto de
la base B = {(1, 2), ( 1, 1)}. ¿Cuál es el significado geométrico de dicha aplicación?

Problema 2.6.17
Sea V el R-espacio vectorial de las matrices reales de tamaño 3 ⇥ 3, y sea : V ! V la aplicación que
a cada matriz le asocia su traspuesta.

a) Halla la matriz A que representa a respecto las base canónica de V , esto es respecto de la base
Bc = {E11 , E12 , E13 , E21 , E22 , E23 , E31 , E32 , E33 } donde Eij es la matriz de V que en el lugar
(i, j) tiene un 1, y el resto de los términos son 0.

b) Halla la matriz A0 que representa a respecto la base B de V siendo


0 0 0 0 0 0 0 0 0
B = {E11 , E12 , E13 , E21 , E22 , E23 , E31 , E32 , E33 }
0 es la matriz traspuesta de E .
donde Eij ij
2.6. PROBLEMAS DE APLICACIONES LINEALES 61

c) Halla una matriz inversible P tal que A0 = P 1 AP .

Problema 2.6.18
Se considera un endomorfismo f de R3 cuya matriz asociada respecto de la base canónica es
0 1
9 0 0
1
A = @2 5 8 A
9
1 2 13

a) Halla la matriz M que representa a f respecto la base B = {v1 = (0, 2, 1), v2 = (2, 1, 0), v3 =
(1, 0, 2)}.

b) Halla las potencias An para n 2 N.

c) ¿Existe un subespacio U de R3 de dimensión 2 tal que f (u) = u 8u 2 U ?

Problema 2.6.19
Sea < el conjunto formado por las matrices reales de tamaño 5 ⇥ 5 que son de la forma
0 1
a1 0 0 0 0
B a2 a1 0 0 0C
B C
A(a1 , a2 , a3 , a4 , a5 ) = B
B a3 a2 a1 0 0C C
@ a4 a3 a2 a1 0A
a5 a4 a3 a2 a1

(<, +, ·R ) es un R-espacio vectorial.

a) Sean I = A(1, 0, 0, 0, 0), M = A(0, 1, 0, 0, 0) y B = {I, M, M 2 , M 3 , M 4 }. Demuestra que B es


una base de < y que M k es la matriz nula 5 ⇥ 5 si k 5.

b) Sea N = A(1, 2, 3, 4, 5). Escribe N en función de la base B, y calcula N 1 sabiendo que N 1

está en <.

c) Sea t : < ! R la aplicación lineal que a cada matriz le asocia la suma de los elementos de su
diagonal principal.

· Determina la matriz asociada a t cuando en el espacio inicial se considera la base B y en el


espacio final se considera la base B1 = {1/5}.

· Determina Im(t) y Ker(t).


62 LECCIÓN 2. APLICACIONES LINEALES Y MATRICES

Problema 2.6.20
Halla los valores de a 2 R para los que el sistema de ecuaciones (A) es indeterminado. Discute y halla
la solución general según el parámetro a 2 R del sistema (B)
8
> x1 + x2 + x3 + . . . + xn+1 = 0 8
>
> > 2x + 3y + z + 2t = 3
>
< x 1 + ax 2 + x 3 + . . . + x n+1 = x 2 >
<
4x + 6y + 3z + 4t = 5
(A) x1 + x2 + ax3 + . . . + xn+1 = 2x3 (B)
>
> .. .. >
> 6x + 9y + 5z + 6t = 7
>
> . . :
: 8x + 12y + 7z + at = 9
x1 + x2 + x3 + . . . + axn+1 = nxn+1

Problema 2.6.21
Sea f : R4 ! R3 la aplicación definida por

f (x, y, z, t) = (3x + z, z, x + y z + t)

1. Determina un subespacio U de R4 tal que R4 = U Ker(f ).

2. ¿Es posible hallar un subespacio no nulo W de R3 tal que R3 = W Im(f )?

3. Sea (a, b, c) un vector cualquiera de R3 . Sin intentar resolver el sistema responde justificadamente
la siguiente cuestión. ¿Es verdadero o falso que el sistema
8
< 3x + z = a
z = b
:
x+y z+t = c

siempre tiene solución?

Problema 2.6.22
Construye, si existe, una aplicación lineal suprayectiva f : R3 ! R2 . En caso de haberla construido,
¿es alguna de las siguientes matrices una matriz asociada a f ? ¿Por qué?
✓ ◆ ✓ ◆ ✓ ◆
1 0 0 1 0 0 1 0 1
0 0 0 0 1 0 0 1 0

Problema 2.6.23
Sea f : R5 ! R3 una aplicación lineal que respecto de las bases canónicas tiene por matriz, la matriz
A siguiente. ¿Existen matrices inversibles P (5 ⇥ 5) y Q(3 ⇥ 3) tal que QAP sea la que a continuación
se indica? En caso afirmativo calcúlalas.
0 1 0 1
1 0 0 1 0 1 0 0 0 0
A=@ 1 1 2 2 3A QAP = @ 0 1 0 0 0A
1 1 2 0 3 0 0 0 0 0
2.6. PROBLEMAS DE APLICACIONES LINEALES 63

Problema 2.6.24
Sea A una matriz 55 ⇥ 44 y B una matriz 44 ⇥ 55. Demuestra que el determinante de AB es igual a
0.

Problema 2.6.25
Sea f : R3 ! R4 la aplicación lineal dada por

f (1, 0, 0) = (1, 1, 0, 1) f (0, 1, 0) = ( 1, 2, 0, 0) f (0, 0, 1) = (0, 3, 0, 1).

Halla la matriz asociada a f respecto las bases

B = {(1, 2, 1), (0, 1, 2), (0, 0, 1)}

y
B 0 = {(2, 1, 0, 1), (0, 2, 0, 0), (0, 0, 1, 0), (0, 0, 0, 3)} .

Problema 2.6.26
En R4 se consideran los subespacios siguientes:

U = {(x, y, z, t)/x + y + z + t = 0}, W = {(x, y, z, t)/x y = 0, z t = 0}

y sea f : U ! W la aplicación lineal definida por

f (x, y, z, t) = (x 3y + z, x 3y + z, y + 2z t, y + 2z t).

a) Determina bases de U y de W .

b) Determina la matriz M asociada a f respecto de las bases halladas en el apartado anterior. ¿De
qué tamaño es dicha matriz?

c) Halla bases de Ker(f ) y de Im(f ).

d) Determina matrices P y Q regulares tales que


✓ ◆
Ir 0
QM P =
0 0

donde Ir es la matriz identidad r ⇥ r y r es el rango de f .

Problema 2.6.27 0 1
0 0 1
Sea I : R3 ! R3 la aplicación identidad en R3 y sea A = @ 0 1 0 A. Se pide
1 0 0

a) Hallar una base B1 de R3 tal que la matriz asociada a I sea A cuando en el espacio inicial se
considera la base B1 y en el final la base canónica.
64 LECCIÓN 2. APLICACIONES LINEALES Y MATRICES

b) Hallar una base B2 de R3 tal que la matriz asociada a I sea A cuando en el espacio inicial se
considera la base canónica y en el final la base B2 .

Problema 2.6.28
Sea V el R-espacio vectorial de los polinomios de grado menor o igual que 2 con coeficientes reales.
Sean A(X) = 1+ X + X 2 , B(X) = 1+ 2X 2 , C(X) = X + X 2 , v = (2, 0, 1), w = (3, 1, 0), u = (1, 2, 3).
Se considera la aplicación f : V ! R3 definida por

f (A(X)) = v f (B(X)) = w f (C(X)) = u

a) Halla la matriz de f respecto de las bases {A(X), B(X), C(X)} de V y {v, w, u} de R3 . ¿Qué
rango tiene la aplicación f ? ¿Cualquier matriz asociada a f es equivalente a la matriz identidad
3 ⇥ 3?

b) Halla la matriz de f respecto de las bases {1, X, X 2 } de V y la canónica de R3 .

Problema 2.6.29
Sea f : R444 ! R4 una aplicación lineal y M la matriz asociada a f cuando en R444 y R4 se consideran
las bases canónicas. 0 1
1 2 3 . . . 44 0 0 . . . 0
B1 2 3 . . . 44 0 0 . . . 0 C
M =B @1
C
2 3 . . . 44 0 0 . . . 0 A
1 2 3 . . . 44 0 0 . . . 0

a) Demuestra que Im(f ) = h{(1, 1, 1, 1)}i y que

ker(f ) = h{2e1 e2 , 3e1 e3 , . . . , 44e1 e44 , e45 , e46 , . . . , e444 }i .

b) ¿Respecto de qué bases de R444 y R4 la matriz asociada a f es la matriz N 4 ⇥ 444 siguiente?


0 1
1 0 0 ......... 0
B0 0 0 ......... 0C
N =B @0 0 0 ......... 0A
C

0 0 0 ......... 0

Problema 2.6.30
Sea f : R1000 ! R999 una aplicación lineal y A la matriz asociada a f cuando en R1000 y R999 se
consideran las bases canónicas. Se sabe que:

1. La primera y la quinta columnas de A son iguales.

2. El determinante de la matriz B es distinto de cero, siendo B la matriz que se obtiene de suprimir


en A la primera columna.
2.6. PROBLEMAS DE APLICACIONES LINEALES 65

Demuestra que ker(f ) = h{e1 e5 }i.

Problema 2.6.31
Sea f : R16 ! R4 una aplicación lineal y M la matriz asociada a f cuando en R16 y R4 se consideran
las bases canónicas. La matriz M 4 ⇥ 16 es de la forma M = (AAAA) siendo A la matriz siguiente
0 1
1 0 0 0
B1 2 0 0C
A=B @1 2 3 0A
C

1 2 3 4

Determina dimensiones y bases de ker(f ) y Im(f ).

Problema 2.6.32
Sean f, g, h, j: R3 ! R2 las aplicaciones lineales definidas por (considerando R3 y R2 como R-espacios
vectoriales):
f (x, y, z) = ( 2x, z y), g(x, y, z) = (x + y + z, x + y),
h(x, y, z) = (y, x + z), j(x, y, z) = ( 3x + 2y + z, 2x + 2z).
Se pide, si V denota el R-espacio vectorial de las aplicaciones lineales de R3 en R2 :
• Demostrar que f , g y h son vectores linealmente independientes en V . ¿Pertenece el vector j al
subespacio de V engendrado por f , g y h?

• Resuelve matricialmente el apartado anterior (para ello tendrás que fijar una base en R2 y otra
en R3 ).

• ¿Qué dimensión tiene V ? Construye una base de V que sea ampliación de la familia libre
{f, g, h}.

• ¿Qué base de V se puede considerar como “base canónica”?

Problema 2.6.33
Sea f : R3 ! R3 la aplicación lineal definida por (considerando R3 como R-espacio vectorial):

f (x, y, z) = (y, z, 0).

Si V denota el R-espacio vectorial de las aplicaciones lineales de R3 en R3 determina el mayor n posible


para que los vectores de V

IR3 , f, f 2 = f f, f 3 = f f f, . . . , f n = f ... f

sean linealmente independientes, donde IR3 denota la aplicación identidad de R3 .

Problema 2.6.34
Sea V el R-espacio vectorial de las aplicaciones lineales de R3 en R y W el R-espacio vectorial de las
aplicaciones lineales de R2 en R. Se pide:
66 LECCIÓN 2. APLICACIONES LINEALES Y MATRICES

• Calcular bases y dimensión de V y W .

• Si f : R3 ! R2 es la aplicación lineal definida por (considerando R2 y R3 como R-espacios


vectoriales):
f (x, y, z) = ( 2x + y z, x 2z y)
y se define la aplicación:
F: W ! V
g 7 ! g f
entonces demostrar que F es una aplicación lineal. Respecto las bases de V y W calculadas en
el apartado inicial, calcula la matriz asociada a F . ¿Que nombre le darı́as a la aplicación lineal
F?

• Determina bases de V y W tal que la matriz asociada a F respecto dichas bases sea lo más
sencilla posible.

Problema 2.6.35
Sea V el R-espacio vectorial de los polinomios de grado menor o igual que tres y W el R-espacio
vectorial de los polinomios de grado menor o igual que dos. Se consideran las aplicaciones lineales:

g: V ! W h: W ! W
p(x) 7 ! g(p(x)) q(x) 7 ! h(q(x))

con g(p(x)) = p(0)x2 + p(1)x + p( 1) y


✓Z 1 ◆
0 2
h(q(x)) = q (x) + x q(x)dx .
0

Se pide:

• Determinar las matrices de g, h y h g respecto de las bases canónicas de V y W .

• Determinar bases de V y W de forma que las matrices asociadas a las aplicaciones lineales g, h
y h g respecto dichas bases sean lo más sencillas posibles.

Problema 2.6.36
En el R-espacio vectorial R4 se considera el subespacio

U = {(x, y, z, t) : x + y z t = 0, x + y + z + t = 0}

y sea W un subespacio de R4 tal que R4 = U W . Si ⇧: R4 ! U es la aplicación lineal que a cada v


en R4 le asocia el único elemento u 2 U tal que v = u + w con w 2 W . Se pide:

• Determinar una base de U y la matriz de ⇧ respecto la base canónica de R4 y la base de U que


has calculado.
2.6. PROBLEMAS DE APLICACIONES LINEALES 67

• Si f : U ! R3 es la aplicación lineal definida por (considerando R3 como R-espacio vectorial):

f (x, y, z, t) = (x + y, y, z t),

determinar bases de R4 y R3 de forma que la matriz asociada a la aplicación lineal f ⇧ respecto


dichas bases sea lo más sencilla posible.

• Determinar una base y la dimensión del R-espacio vectorial V de las aplicaciones lineales de R4
en U . ¿Cuales son las coordenadas de ⇧ respecto la base que has calculado?

• Si H es el subespacio de V engendrado por la familia {⇧}, determina un subespacio Q de V tal


que V = H Q.

• Determinar una base y la dimensión del R-espacio vectorial M de las aplicaciones lineales de W
en U .

Problema 2.6.37
Sea V el R-espacio vectorial de las matrices 3 ⇥ 3 con coeficientes en R y W el R-espacio vectorial de
las aplicaciones lineales de V en R. Se pide:
• Determinar una base y la dimensión de W .

• Si denota la aplicacion lineal “traza de una matriz”


: 0 V 1 ! R
a11 a12 a13
A = @ a21 a22 a23 A 7 ! a11 + a22 + a33
a31 a32 a33
calcular las coordenadas de respecto de la base de W que has calculado en el apartado anterior.

Problema 2.6.38
La matriz 0 1
2 1 1 0 0
B 8 5 2 0 0C
B C
B 11 7 3 0 0C
B C
@ 0 0 0 1 1A
0 0 0 3 4
es usada para codificar mensajes como sigue. Por identificación de las letras A, B, C, · · · , Y, Z con
los números 1, 2, 3, · · · , 25, 26, un mensaje con k letras es considerado una k-upla de números. Esta
k–upla es dividida en 5–uplas; si k no es divisible por 5 uno añade ceros al final. Después cada una
de esas 5–uplas es multiplicada por la matriz dada. Teniendo en cuenta todo lo anterior, decodifica el
siguiente mensaje (escrito en inglés).

3, 38, 52, 7, 23; 38, 145, 200, 15, 59; 5, 3, 5, 35, 119.
68 LECCIÓN 2. APLICACIONES LINEALES Y MATRICES

Problema 2.6.39
Supongamos que 0 1 0 1
1 0 0 126
B0 1 0C 0 1 B 30 C
B C x1 B C
B0 0 1C@ A B
C 7 C
Ax = B
B1
B
x2 = B C=b
B 2 3CC x3
C
B 251 C
@3 1 0 A @ 540 A
2 1 1 377
donde uno de los coeficientes del lado derecho puede ser erróneo. Esto significa que Ax = b + ↵ei
donde ↵ 2 R y el vector columna ei son desconocidos.
Este problema consiste en determinar x1 , x2 y x3 , y da idea de cómo corregir errores en problemas
de codificación. La versión codificada de un mensaje contiene información redundante que puede ser
usada si se producen errores durante la transmisión. En nuestro problema el mensaje está constituido
por tres números ( x1 , x2 y x3 ), mientras que la versión codificada del mensaje consta de seis números.
Para resolver el problema sigue los siguientes pasos.

1. Halla una matriz real B de tamaño 3 ⇥ 6 tal que BA sea la matriz nula, y que ninguna columna
de B sea múltiplo de alguna otra columna de B.

2. Determina ↵ y ei resolviendo la ecuación matricial (O) = BAx = Bb + ↵Bei .

3. Halla x1 , x2 y x3 resolviendo la ecuación matricial de partida, habiendo corregido previamente


el miembro de la derecha tras resolver el apartado anterior.
Lección 3

La Teorı́a del Endomorfismo

La noción de autovalor y autovector de una matriz cuadrada es una de las herramientas más potentes
que el Algebra Lineal proporciona para la resolución de gran cantidad de problemas que aparecen
en Ciencı́a y Tecnologı́a. Para ilustrar lo que decimos, consideramos el siguiente ejemplo de carácter
económico.
Un conocido empresario comenta en una entrevista la forma en que logró hacer, honradamente, su
fortuna. Inició su andadura en los negocios con un capital de 200 euros, producto de sus ahorros. Tras
un año de trabajo como repartidor de pizzas tenı́a en su haber 1300 euros. A partir de ese momento,
decide comprar cada año bienes por un importe igual a seis veces el valor de su capital a principios del
año anterior, y venderlos por cuatro veces el valor de su capital al inicio del año en curso. Con esta
estrategia el empresario conocı́a que en sólo 6 años conseguirı́a un capital superior al medio millón de
euros.
Si un representa las ganancias a principios del año n-ésimo, la información dada puede expresarse
mediante la siguiente relación:
✓ ◆ ✓ ◆n+1 ✓ ◆
un+2 5 6 u1
= (3.1)
un+1 1 0 u0
donde n 0.
Mediante técnicas que aprenderemos en este capı́tulo, podrá comprobarse que
✓ ◆ ✓ ◆✓ ◆✓ ◆
5 6 3 2 3 0 1 2
= (3.2)
1 0 1 1 0 2 1 3
Esta igualdad permite operar más cómodamente y afirmar que la expresión 3.1 puede escribirse como
✓ ◆ ✓ ◆ ✓ n+1 ◆✓ ◆✓ ◆
un+2 3 2 3 0 1 2 u1
= (3.3)
un+1 1 1 0 2n+1 1 3 u0
A partir de la cual es inmediato deducir que

un+2 = 900 · 3n+2 700 · 2n+2

Esta expresión era a la que habı́ıa llegado el empresario cuando decidió la estrategia a seguir.
Observar que en el ejemplo anterior, la igualdad 3.2 muestra una relación del tipo M = Q 1 DQ
donde M representa la matriz de partida y D una matriz diagonal: Los valores de la diagonal principal
de D son los ‘autovalores’ de M , concepto, entre otros que forma parte del tema que estamos iniciando.
Pero antes de comenzar con los aspectos propios de esta lección, vamos a realizar una serie de
puntualizaciones.

69
70 LECCIÓN 3. LA TEORÍA DEL ENDOMORFISMO

Como el nombre de la lección indica, nos vamos a centrar en el estudio de determinadas cuestiones
relativas a aplicaciones lineales en las que el espacio inicial y el espacio final coinciden, pudiendo,
obviamente, fijar igual base en ambos puntos (el de partida y el de llegada). Ası́ pues, a lo largo del
tema si f : V ! V es una aplicación lineal, y en V consideramos fijada la base B, se hablará de la
matriz asociada a f respecto de la base B, que denotaremos por MB (f ).
Observemos además que si M y N son dos matrices asociadas a f (en las condiciones señaladas),
entonces N = P 1 M P , donde P es una matriz de cambio de base. Este hecho motiva la definición
siguiente: Dos matrices M y N se dice que son semejantes si se puede establecer entre ellas una
relación del tipo N = P 1 M P . Es trivial que “matrices semejantes” es un caso particular de “matrices
equivalentes”.

3.1 Autovalores y autovectores


Sea V un K–espacio vectorial y f : V ! V una aplicación lineal, esto es, un endomorfismo de V . Las
nociones de autovalor y autovector juegan un papel fundamental en la búsqueda de la forma canónica
de un endormorfismo de V .

Definición 3.1.1 Un elemento ↵ en K es un autovalor de f si existe un vector v distinto de cero


verificando
f (v) = ↵v
El vector v se denomina autovector de f asociado al autovalor ↵.

La razón por la que estas nociones son fundamentales en el estudio de los endomorfismos se
encuentra en que si se dispone de una base de V cuyos elementos son autovectores de f entonces la
representación matricial de f respecto de esta base serı́a una matriz diagonal, en cuya diagonal se
encontrarı́an los autovalores de f . En el caso de que sea posible tal representación diagonal para f se
dice que f es diagonalizable. Para comprender mejor esto, véase el siguiente ejemplo.

Ejemplo 3.1.1
Consideremos el endomorfismo f de R2 definido por la matriz M siguiente referida a la base canónica.
✓ ◆
0 2
M = MBc (f ) =
2 0
En la figura siguiente se muestra la acción de f sobre la base canónica y sobre los vectores v1 = (1, 1)
y v2 = (1, 1). Es fácil comprobar que f transforma los subespacios U = h{v1 }i y W = h{v2 }i en sı́
mismos. A la vista de lo anterior, es sencillo confirmar que v1 = (1, 1) y v2 = (1, 1) son autovectores
asociados a los autovalores 2 y 2 respectivamente. Además v1 y v2 constituyen una base; llamando
B = {v1 , v2 } se tiene que ✓ ◆
2 0
M 0 = MB (f ) =
0 2
es diagonal.

Para justificar la validez de la estrategia anterior en situaciones generales (búsqueda de autovec-


tores) se demuestra en primer lugar la independencia lineal de los autovectores asociados a autovalores
distintos.

Proposición 3.1.1 Sea f : V ! V un endomorfismo, ↵1 y ↵2 autovalores distintos de f y u1 y u2


autovectores de f asociados a ↵1 y ↵2 respectivamente. Entonces u1 y u2 son linealmente independi-
entes.
3.1. AUTOVALORES Y AUTOVECTORES 71

Figura 3.1: Acción del endomorfismo f sobre algunos vectores de R2

Demostración.
Si u1 y u2 son linealmente dependientes entonces u1 = u2 con 6= 0 puesto que u1 y u2 son
autovectores. Se tiene asi

↵1 u1 = f (u1 ) = f ( u2 ) = f (u2 ) = ↵2 u2 = ↵2 u1

y por ello ↵1 = ↵2 , lo cual constituye una clara contradicción.


El resultado anterior se generaliza de forma sencilla al caso de s autovectores procedentes de s
autovalores distintos. A continuación se muestra cómo calcular los autovalores (y los autovectores)
asociados a un endomorfismo, lo que conducirá de forma natural a la definición de polinomio carac-
terı́stico de un endomorfismo y de una matriz.

Proposición 3.1.2 Sea f : V ! V un endomorfismo, B una base de V y A = MB (f ). Un elemento ↵


en K es un autovalor de f si y sólo si

det(↵In A) = 0

donde In denota la matriz identidad de dimensión n y n = dim(V ).

Definición 3.1.2 Sea A una matriz cuadrada de dimensión n y coeficientes en K. Se define el


polinomio caracterı́stico de A como:

PA (X) = det(XIn A)

donde In denota la matriz identidad de dimensión n.

• La manipulación de algunas matrices concretas (que pueden ser elegidas por el propio lector)
permite observar el siguiente resultado cuya prueba se deja como ejercicio.
Si pA (X) = an X n + an 1 X n 1 + · · · + a1 X + a0 es el polinomio caracterı́stico de una matriz A,
entonces an = 1, an 1 = traza(A), a0 = ( 1)n det(A).

Definición 3.1.3 Sea f : V ! V un endomorfismo, B una base de V y A = MB (f ). Se define el


polinomio caracterı́stico de f como:
Pf (X) = PA (X)
72 LECCIÓN 3. LA TEORÍA DEL ENDOMORFISMO

La definición de polinomio caracterı́stico de un endomorfismo f : V ! V , tal y como se ha intro-


ducido, depende de la base escogida en V . Sin embargo esta ambigüedad desaparece notando que
si dos matrices son semejantes entonces sus polinomios caracterı́sticos coinciden. En particular, dos
matrices semejantes tienen igual determinante, igual traza y los mismos autovalores, veámoslo. De la
relación B = P 1 AP puede obtenerse la siguientes cadena de igualdades:
PB (X) = det(XIn B) = det(XP 1P P 1 AP ) =

= det(P 1 (XI A)P ) = det(P 1 ) det(XI A) det(P ) =


n n

= det(P 1 ) det(P ) det(XI A) = PA (X)


n

La siguiente proposición muestra un primer criterio de diagonalización, esto es, una condición
cuya verificación implica la existencia de una base respecto la cual la representación matricial del
endomorfismo considerado es diagonal.
Proposición 3.1.3
Sea f : V ! V un endomorfismo. Si f posee n autovalores distintos en K (o lo que es lo mismo Pf (X)
posee n raı́ces distintas en K) entonces f es diagonalizable.
Ejemplo 3.1.2 ✓ ◆
0 1
Es fácil comprobar que el endomorfismo f : R2 ! R2 representado por la matriz A =
1 0
(respecto de la base canónica) es diagonizable puesto que su polinomio caracterı́stico es X 2 1 y una
base de vectores propios es B = {(1, 1), (1, 1)}.
Sin embargo existen endomorfismos diagonalizables para los que no se verifica la condición que
muestra la proposición anterior, es decir, un endomorfismo de un espacio n-dimensional puede ser
diagonalizable sin que su polinomio caracterı́stico tenga n raı́ces distintas. El endomorfismo identidad,
cuyo polinomio caracterı́stico es (X 1)n es un ejemplo de ello, otro es el siguiente.
Ejemplo 3.1.3
El endomorfismo f : R5 ! R5 que tiene asociada respecto la base canónica la matriz B es dia-
gonalizable. Su polinomio caracterı́stico es (X 1)3 (X + 1)2 . Calculando directamente vectores
propios asociados a 1 y 1, o bien reordenando la base canónica ({e1 , e5 , e3 , e2 , e4 }) para reducir
este problema, por cajas, a matrices iguales a la matriz A del ejemplo anterior, se puede ver que
{e1 + e5 , e1 e5 , e3 , e2 + e4 , e2 e4 } es una base de vectores propios.
0 1
0 0 0 0 1
B0 0 0 1 0C
B C
B=B B 0 0 1 0 0 C
C
@0 1 0 0 0A
1 0 0 0 0

El siguiente criterio permite caracterizar los endomorfismos diagonalizables en términos de los


subespacios propios que se definen a continuación.
Definición 3.1.4 Sea f : V ! V un endomorfismo y ↵ 2 K. Se define:
Vf (↵) = {u 2 V : f (u) = ↵u}
y se tiene que Vf (↵) es un subespacio vectorial de V y que Vf (↵) es no trivial si y sólo si ↵ es un
autovalor de f . Se dice que Vf (↵) es un subespacio propio de f .
3.1. AUTOVALORES Y AUTOVECTORES 73

Proposición 3.1.4 Sea f : V ! V un endomorfismo y ↵1 , . . . , ↵s los distintos autovalores de f (esto


es, las distintas raı́ces en K de Pf (X)). Se tiene entonces que f es diagonalizable si y sólo si se verifica
s
X
dim(V ) = dim(Vf (↵i ))
i=1

Puesto que existen endomorfismos que no se pueden diagonalizar, incluso aunque se aumente el
cuerpo de escalares, el siguiente teorema muestra cuando un endomorfismo se puede triangularizar,
ésto es, cuando existe una base tal que la matriz del endomorfismo considerado respecto dicha base es
triangular superior.

Teorema 3.1.1 Sea f : V ! V un endomorfismo verificando que Pf (X) posee todas sus raı́ces en K.
Entonces existe una base B de V tal que
0 1
↵1 ? . . . . . . ?
B 0 ↵2 . . . . . . ? C
B . .. C
B .. .. C
MB (f ) = B .. . . . C
B . .. .. .. C
@ .. . . . A
0 ... ... 0 ↵n
donde los ↵i son los autovalores de f (que no tienen por qué ser todos distintos).

Una forma de demostrar el teorema anterior es aplicando inducción sobre la dimensión del espacio,
o lo que es equivalente, sobre el orden de la matriz, como muestra el siguiente ejemplo.

Ejemplo 3.1.4
Consideremos el endomorfismo f de R4 que respecto de la base canónica tiene como matriz asociada
la siguiente 0 1
0 0 1 2
B2 1 5 2C
A=B @3 0
C
5 3A
4 0 5 2
La matriz A es triangulable puesto que su polinomio caracterı́stico tiene todas sus raı́ces en R:

PA (X) = (X + 1)2 (X 2)2 .

Si lo que se trata es de buscar una base B de R4 respecto de la cuál la matriz asociada a f es


triangular, el primero de los vectores de B ha de ser un vector propio de f . Como

Vf ( 1) = h{e2 = (0, 1, 0, 0)}i

es el subespacio propio, respecto de f , asociado al valor propio 1, consideramos un subespacio U de


R4 tal que R4 = Vf ( 1) U . Sea

U = h{e1 = (1, 0, 0, 0), e3 = (0, 0, 1, 0), e4 = (0, 0, 0, 1)}i

y B0 = {e2 , e1 , e3 , e4 }. La matriz asociada a f respecto de B0 es


0 1
1 2 5 2
B 0 0 1 2 C
A0 = B
@ 0 3 5
C
3A
0 4 5 2
74 LECCIÓN 3. LA TEORÍA DEL ENDOMORFISMO

Sea g = pU fU el endormorfismo de U donde fU : U ! R4 es la restricción de f a U , y pU : R4 ! U


es la proyección de R4 sobre U . Si extraemos de A0 la caja
0 1
0 1 2
C = @3 5 3A
4 5 2

entonces se verifica que C es la matriz asociada al endomorfismo g de U respecto de la base BU =


{e1 , e3 , e4 } de U .
El polinomio caracterı́stico de g es

Pg (X) = PC (X) = (X + 1)(X 2)2 ,

y el subespacio
Vg ( 1) = h{ e1 + e3 + e4 }i.
Si en U = Vg ( 1) W , con W = h{e1 , e3 }i, consideramos la base B0U = { e1 + e3 + e4 , e1 , e3 }, se
tiene: 0 1
1 4 5
MB0U (g) = @ 0 4 4A
0 1 0
Reiterando el proceso, si de MB0U (g) extraemos la caja
✓ ◆
4 4
D= ,
1 0

D es la matriz asociada a un endomorfismo h de W respecto de la base BW = {e1 , e3 }: h = pW gW


donde gW : W ! U es la restricción de g a W , y pW : U ! W es la proyección de U sobre W .
El polinomio caracterı́stico de h es

Ph (X) = PD (X) = (X 2)2 ,

y el subespacio
Vh (2) = h{ 2e1 + e3 }i.
Si en W fijamos la base B0W = { 2e1 + e3 , e1 }, se tiene que
✓ ◆
2 1
MB0W (h) = .
0 2

Sea, finalmente, B⇤ = {e2 , e1 + e3 + e4 , 2e1 + e3 , e1 } la base de R4 que hemos obtenido a lo largo


de todo el proceso anterior. Respecto de dicha base la matriz asociada a f es triangular:
0 1
1 1 1 2
B 0 1 3 4 C
MB⇤ (f ) = B
@ 0
C=P 1·A·P
0 2 1A
0 0 0 2

donde P es la matriz que tiene por columnas las respectivas coordenadas de los vectores de la base B⇤
expresados en función de la base canónica.
3.1. AUTOVALORES Y AUTOVECTORES 75

En las lineas siguientes vamos a realizar una serie de puntualizaciones que nos serán de utilidad, no
sólo para introducir algunas aplicaciones del resultado anterior sobre triangularización, sino también,
para abordar distintos aspectos contenidos en la sección inmediatamente posterior.
Sea f un endomorfismo del K-espacio vectorial n-dimensional V , y sea

p(X) = ar X r + ar 1X
r 1
+ . . . + a1 X + a0

un polinomio cualquiera con coeficientes en K. Por p(f ) se denota el endomorfismo de V siguiente:

p(f ) = ar f r + ar 1f
r 1
+ . . . + a1 f + a0 I V

donde
k veces
z }| {
fk = f f ... f .
Análogamente, si A es una matriz n ⇥ n con coeficientes en K, p(A) es la matriz

p(A) = ar Ar + ar 1A
r 1
+ . . . + a1 A + a0 I n .

Distintos resultados vistos en el capı́tulo precedente nos permiten afirmar que si B es una base de
V y M = MB (f ) entonces

MB (p(f )) = ar M r + ar 1M
r 1
+ . . . + a1 M + a0 In = p(M ).

También es inmediato comprobar que si q(X) es otro polinomio con coeficientes en K entonces:

(p + q)(f ) = p(f ) + q(f ) (p · q)(f ) = (q · p)(f )

(p + q)(A) = p(A) + q(A) (p · q)(A) = (q · p)(A) = p(A) · q(A) = q(A) · p(A)


Una vez establecida la notación y algunos resultados elementales relativos a expresiones polinómicas
de matrices vamos a ver algunos resultados sencillos, a modo de ejemplo, en los que la triangulación
de una matriz juega un papel importante.

Ejemplo 3.1.5

• Si A es una matriz cuadrada n ⇥ n cuyos valores propios son ↵1 , · · · , ↵n (no necesariamente


distintos), entonces traza(A) = ↵1 + · · · + ↵n y det(A) = ↵1 · · · · ·↵n .

• Si p(X) es un polinomio cualquiera y A es una matriz n ⇥ n, entonces los valores propios de la


matriz B = p(A) son exactamente los números p(↵1 ), · · · , p(↵n ) donde ↵1 , · · · , ↵n son los valores
propios de A.

Para probar ambos resultados basta considerar una matriz triangular T semejante a
A y aplicar las propiedades relativas a polinomios caracterı́sticos de matrices semejantes.
En el caso de B, debemos observar además que si A = P 1 T P entonces B = p(A) =
p(P 1 T P ) = P 1 p(T )P donde p(T ) es una matriz triangular en cuya diagonal principal
aparecen p(↵1 ), · · · , p(↵n ).

Aplicaciones interesantes de la última de las consecuencias son las siguientes.


76 LECCIÓN 3. LA TEORÍA DEL ENDOMORFISMO

• Si A1 es una matriz 5 ⇥ 5 con valores propios distintos 1, 1, 0 y A2 es una matriz 8 ⇥ 8 de valores


propios distintos 0, 1, 3, 6, 4, entonces la matriz B1 = A31 A21 4A1 + 4I no es inversible,
pero sı́ lo es la matriz B2 = A32 A22 4A2 + 4I. La explicación puede darse de la siguiente
manera. Las matrices B1 y B2 son p(A1 ) y p(A2 ) respectivamente, con p(X) = X 3 X 2 4X +4.
Teniendo en cuenta que p(X) = (X 1)(X + 2)(X 2), el 0 = p(1) es valor propio de B1 , lo que
significa que dicha matriz no es inversible. No sucede lo mismo con B2 , cuyos valores propios
son todos no nulos, pues ningún valor propio de A2 es raiz de p(X).

• Si f es un endomorfismo de R3 tal que 1/2, 2, 2 son sus valores propios, entonces el hecho de
someter a los vectores de R3 una, dos, tres, cuatro, ... veces sucesivamente a la transformación
f , conduce al mismo efecto que el haber proyectado los vectores de R3 sobre un subespacio de
dimensión 2. ¿Puedes justificarlo?

¿Qué hubiera sucedido en una situación análoga a la anterior pero supuesto que f
tuviese por valores propios 1/2, 1/2, 1/3?

El ejemplo con el que vamos a finalizar esta sección muestra que en casos muy particulares
es posible triangular una matriz sin tener que realizar un desarrollo similar al efectuado en el
ejemplo 3.1.4, y que nos daba las pautas generales de triangularización.

• Se consideran los endomorfismos f y g de R3 que respecto de la base canónica tienen por matrices
A y B respectivamente:
0 1 0 1
3 1 1 1 3 3
A= @ 7 5 1A @
B= 3 5 3A
6 6 2 6 6 4

Ambas matrices tienen polinomio caracterı́stico p(X) = (X + 2)2 (X 4), y por ello los en-
domorfismos que representan son triangularizables. Si en ambos casos consideramos una base
formada por dos vectores propios (correspondientes a autovalores distintos) y un tercer vector
independiente con los anteriores, tenemos garantizada la triangularización.
En el caso de f , un autovector asociado al autovalor 2 es v1 = (1, 1, 0) y un autovector asociado
al autovalor 4 es v2 = (0, 1, 1). Sea v3 = (1, 0, 0) y consideremos en R3 la base B = {v1 , v2 , v3 }.
Respecto de esta base la matriz asociada a f es
0 1
2 0 1
0 @
A = 0 4 6A.
0 0 2

Cuando se trabaja con g, el tercer vector de la base a hallar puede ser vector propio asociado
al autovalor 2, puesto que el subespacio propio asociado a dicho autovalor es de dimensión
2. De esto resulta que g es además diagonalizable. La base de vectores propios es B = {v1 =
(1, 1, 0), v2 = (1, 1, 2), v3 = (0, 1, 1)}.
Este es un caso en el que de nuevo aparecen matrices con igual polinomo caracterı́stico y que no
son semejantes.
3.1. AUTOVALORES Y AUTOVECTORES 77

En la sección que ahora concluimos se ha establecido una caracterización de los endomorfismos


que son diagonalizables, en la que interviene el concepto de polinomio caracterı́stico pero no ex-
clusivamente. También se ha podido observar que existen endomorfismos con el mismo polinomio
caracterı́stico pero de diferente comportamiento, lo que significa que el polinomio caracterı́stico de un
endomorfismo, a pesar de su nombre, no lo caracteriza plenamente.
En lo sucesivo iremos introduciendo nuevos conceptos que nos permitan, por un lado, un manejo
más cómodo de un endomorfismo cuando no sea diagonalizable, y por otro, dar una caracterización
del mismo.

3.1.1 Ejercicios
Ejercicio 3.1.1.1
Sea f el endomorfismo de R3 definido por f (e1 ) = e1 , f (e2 ) = 2e2 , f (e3 ) = 3e3 .

1. Comprueba que f (x, y, z) = (x, 2y, 3z).

2. ¿Son e1 , e2 , e3 vectores propios asociados a f ? En caso afirmativo, señalar respecto de qué valores
propios.

3. ¿Es diagonal la matriz asociada a f respecto de la base canónica?

Ejercicio 3.1.1.2
Sea d el endomorfismo de R2 [X] que a cada polinomio le asocia su polinomio derivado. Se desea deter-
minar, si existen, los vectores propios relativos a d, y los valores propios correspondientes. Justificar
la siguiente linea de actuación.

1. Se buscan los polinomios no nulos p(X) = aX 2 + bX + c tales que

2aX + b = ↵(aX 2 + bX + c) (3.4)

2. Si ↵ 6= 0, entonces la igualdad (3.4) conduce a que p(X) debe ser el polinomio nulo.

3. Teniendo en cuenta (3.4), si ↵ = 0, entonces a = b = 0, y p(X) = c con c 6= 0.

4. El 0 es por tanto el único valor propio de d, y tiene asociados como vectores propios los polinomios
constantes.

¿Existe una base de R2 [X] respecto de la cuál la matriz asociada a f sea diagonal?

Ejercicio 3.1.1.3
Sea f el endomorfismo de R2 definido, respecto de la base canónica por la matriz siguiente:
✓ ◆
3 1
A=
1 1

1. Determinar el polinomio caracterı́stico de f .

2. Hallar Vf (2).

3. ¿Es f diagonalizable?
78 LECCIÓN 3. LA TEORÍA DEL ENDOMORFISMO

Ejercicio 3.1.1.4
Sea f el endomorfismo de R3 definido, respecto de la base canónica por la matriz siguiente:
0 1
1 1 2
A = @1 1 2 A
2 2 6

1. Determinar el polinomio caracterı́stico de f .

2. Hallar Vf (↵), para cada valor propio ↵.

3. ¿Es f diagonalizable? En caso afirmativo, hallar una matriz regular P de tamaño 3 ⇥ 3 tal que
P 1 AP sea diagonal.

Ejercicio 3.1.1.5
Sea f el endomorfismo de R3 definido, respecto de la base canónica por la matriz siguiente:
0 1
2 1 1
A= 0@ 3 1A
0 1 1

1. Determinar el polinomio caracterı́stico de f .

2. Hallar Vf (↵), para cada valor propio ↵.

3. ¿Es f diagonalizable? En caso afirmativo, hallar una matriz regular P de tamaño 3 ⇥ 3 tal que
P 1 AP sea diagonal. En caso negativo, hallar una matriz regular P de tamaño 3 ⇥ 3 tal que
P 1 AP sea triangular.

Ejercicio 3.1.1.6
Sea f el endomorfismo de R3 definido, respecto de la base canónica por la matriz siguiente:
0 1
2 1 1
A = @0 3 1A
0 1 1

1. Se consideran los polinomios p(X) = X 2 + 2 y q(X) = 3X 2 + X + 1. Hallar las matrices p(A)


y q(A), y determinar la imagen del vector (1, 1, 1) respecto de los endomorfismos de R3 p(f ) y
q(f ).

2. Con ayuda del último apartado del ejercicio anterior, obtener los valores propios de q(f ), y
comprobar que si los valores propios de f son ↵, , , los de q(f ) son q(↵),q( ) y q( ).

Ejercicio 3.1.1.7
Sea f un endomorfismo de C3 . Justificar
p cada una de las afirmaciones siguientes, en las que ↵ y
representan números complejos, y 1 está representado por i.

1. Si pf (X) = (X ↵)2 (X ) entonces dim V↵ (f )  2.

2. Si ↵ es un autovalor de f y dim V↵ (f ) = 3 entonces f es diagonalizable y pf (X) = (X ↵)3 .

3. Si pf (X) = (X ↵)2 (X ) y dim V↵ (f ) = 1 entonces f no es diagonalizable.

4. Si pf (X) = (X 2 + 1)(X 2), entonces f es diagonalizable.


3.1. AUTOVALORES Y AUTOVECTORES 79

5. Si pf (X) = (X i)2 (X 2), no está garantizado que f sea diagonalizable.

Ejercicio 3.1.1.8
Sean f : R3 ! R4 y g : R4 ! R3 las aplicaciones lineales definidas, respecto de las bases canónicas
correspondientes, por las matrices A y B siguientes:
0 1
1 1 1 0 1
B1 2 0C 1 1 2 2
A=B @1 2 0A
C B = @1 1 1 1A
1 0 1 1
1 2 1

Indicar cuáles de las siguientes afirmaciones son verdaderas.

1. g f es diagonalizable.

2. g f es inyectiva.

Ejercicio 3.1.1.9
Sea f el endomorfismo de R4 que tiene por matriz asociada respecto de la base canónica la matriz
0 1
0 0 0 4
B0 0 3 0C
M = MBc (f ) = B@0 2 0 0A
C

1 0 0 0

¿Cuáles de las siguientes afirmaciones son verdaderas?

1. e1 + e4 es vector propio asociado a algún autovalor de f .


p p
2. 2, 2, 6, 6 son los valores propios asociados a f .

3. f no es diagonalizable.

4. 2e1 + e4 es vector propio asociado a algún autovalor de f .

Ejercicio 3.1.1.10
Se considera la matriz siguiente
0 1
1/6 1 0 0 0 0 0
B 1/6 0 1 0 0 0 0C
B C
B 1/6 0 0 1 0 0 0C
B C
A=B
B 1/6 0 0 0 1 0 0CC
B 1/6 0 0 0 0 1 0C
B C
@ 1/6 0 0 0 0 0 1A
0 0 0 0 0 0 0

1. Calcular el polinomio caracterı́stico de A y comprobar que


1
pA (X) = X(X 1)(6X 5 + 5X 4 + 4X 3 + 3X 2 + 2X + 1)
6

2. El polinomio q(X) = 6X 5 + 5X 4 + 4X 3 + 3X 2 + 2X + 1 posee una raiz real, que es es distinta


de 0 y distinta de 1. ¿Por qué?
80 LECCIÓN 3. LA TEORÍA DEL ENDOMORFISMO

3. El resto de las raices del polinomio q(X) anterior son todas complejas y distintas, y dos a dos
son conjugadas entre si. ¿Por qué es cierto esto último?
4. Si h es el endomorfismo del C-espacio vectorial C7 que respecto de la base canónica tiene asociada
la matriz A, ¿es h diagonalizable?
5. Si f es el endomorfismo del R-espacio vectorial R7 que respecto de la base canónica tiene asociada
la matriz A, ¿es f diagonalizable?
6. Reescribir el polinomio caracterı́stico de A en la forma pA (X) = 16 X(7X 6 r(X)) siendo r(X) =
X 6 + X 5 + X 4 + X 3 + X 2 + X + 1, y comprobar que si ↵ es raiz de pA (X), entonces ↵ no es
raiz de r(X).
7. En las notas teóricas se ha probado que si ↵1 , · · · , ↵n son los valores propios de una matriz M de
tamaño n ⇥ n, entonces p(↵1 ), · · · , p(↵n ) son los valores propios de la matriz p(M ) (donde p(X)
es un polinomio cualquiera). Teniendo en cuenta este resultado y el apartado anterior, deducir
que el número 0 no es valor propio de la matriz B = A6 + A5 + A4 + A3 + A2 + A + I.
8. Sea g el endomorfismo de R7 definido, respecto de la base canónica por la matriz B del apartado
anterior. ¿Es g un isomorfismo?
f1 f2
9. Sean V !W !U aplicaciones lineales entre K-espacios vectoriales. Demostrar que si f2
es isomorfismo entonces ker(f2 f1 ) = ker(f1 ).
10. Conservando la notación empleada en apartados anteriores, se considera el endomorfismo g
(f IR7 ) de R7 . ¿Quién es la matriz asociada a tal endomorfismo respecto de la base canónica?
11. Teniendo en cuenta los dos apartados anteriores, deducir que ker(f 7 IR7 ) = ker(f IR7 ).
Calcular dicho núcleo.

3.2 El polinomio mı́nimo de un endomorfismo


Uno de los conceptos a los que nos referı́amos más arriba es el de polinomio mı́nimo de un endomor-
fismo.
Definición 3.2.1
Sea A una matriz n ⇥ n con coeficientes en K. Se llama polinomio mı́nimo de A a un polinomio
m(X) 2 K[X] verificando las siguientes condiciones:
1. m(X) es mónico.
2. m(A) es la matriz nula.
3. m(X) es el polinomio de menor grado verificando las dos condiciones anteriores.
Antes de seguir debemos garantizar que la definición que hemos establecido anteriormente tiene sen-
tido. Para ello vamos a demostrar el resultado que se conoce como Teorema de Cayley-Hamilton, y
que nos asegura la existencia de un polinomio verificando las dos primeras condiciones exigidas en
dicha definición. Una vez probado tal teorema, sabemos que el conjunto
N = {r 2 N : existe q(X) 2 K[X] mónico, grado(q(X)) = r y q(A) = 0}
es no vacio y que por tanto posee mı́nimo. Si ese mı́nimo es rm , un polinomio que tenga dicho grado (y
verifique lo pedido en la definición de N ) será un polinomio mı́nimo de A. Más tarde se garantizaráó
la unicidad del mismo.
3.2. EL POLINOMIO MÍNIMO DE UN ENDOMORFISMO 81

Teorema 3.2.1 (Teorema de Cayley–Hamilton)


Sea A una matrix n⇥n con coeficientes en K y PA (X) su polinomio caracterı́stico. Se verifica entonces
que la matriz PA (A) es la matriz nula.
Sea f : V ! V un endomorfismo y Pf (X) su polinomio caracterı́stico. Se verifica entonces que el
endomorfismo Pf (f ) es el endomorfismo nulo.

Demostración.
Sea
PA (X) = det(XIn A) = X n + bn 1X
n 1
+ . . . + b1 X + b0 .
Denotemos por M la matriz XIn A, y por M? la matriz adjunta de la traspuesta de M, de donde
tendremos que
M · M? = det(XIn A)In = PA (X)In (3.5)
La matriz M? es una matriz con coeficientes en K[X], pero también puede ser vista como un polinomio
con coeficientes en un conjunto de matrices.
Si M? = (↵ij ) entonces ↵ij = ( 1)i+j · Mij , siendo Mij el determinante de un menor de tamaño
(n 1) ⇥ (n 1) de la matriz traspuesta de M. Por tanto cada ↵ij es un polinomio de grado menor
o igual que n 1 en la indeterminada X:
0 11 1
an 1 X n 1 + . . . + a11 11
1 X + a0 . . . a1n
n 1X
n 1 + . . . + a1n X + a1n
1 0
B .. .. C
M? = @ . . A
an1
n 1X
n 1 + . . . + an1 n1
1 X + a0 ... ann
n 1X
n 1 + . . . + ann nn
1 X + a0

0 1 0 1 0 11 1
a11 ... a1n a11
1 ... a1n
1 a0 ... a1n
0 (3.6)
n 1 n 1
= @ ... ... . . . A Xn 1 + . . . + @ .. .. A X + @ .. .. A
. . . .
an1
n 1 ... ann
n 1 an1 ... nn
a1 n1
a0 ... ann
1 0

= Mn n 1
1X + . . . + M1 X + M0 = M (X)

Teniendo en cuenta las igualdades 3.5 y 3.6 obtenemos


n 1
(Mn 1X . . . . . . + M1 X + M0 ) · (XIn A) = (X n + bn 1X
n 1
+ . . . + b 1 X + b0 ) · I n (3.7)

Haciendo operaciones en el miembro de la izquierda obtenemos:


n
(Mn 1X + . . . . . . + M1 X 2 + M0 X) (Mn 1 AX
n 1
+ . . . . . . + M1 AX + M0 A) =
n n 1
= Mn 1X + (Mn 2 Mn 1 A)X + . . . . . . + (M1 M2 A)X 2 + (M0 M1 A)X M0 A
El miembro de la derecha puede escribirse como:

I n X n + bn 1 In X
n 1
+ . . . + b1 I n X + b0 I n

De 3.7, y del hecho de que dos polinomios son iguales si lo son los coeficientes de los términos de igual
grado, resultan las siguientes igualdades:

Mn 1 = In
Mn 2 Mn 1A = bn 1 In
Mn 3 Mn 2A = bn 2 In
82 LECCIÓN 3. LA TEORÍA DEL ENDOMORFISMO

..
.
M1 M2 A = b2 I n
M0 M1 A = b1 I n
M0 A = b0 I n

A la primera de las igualdades anteriores la multiplicamos por An , a la segunda por An 1, a la


tercera por An 2 , ..., a la penúltima por A, y a la última por In , obteniendo:
n
Mn 1A = An
n 1 n n 1
Mn 2A Mn 1A = bn 1A
n 2 n 1 n 2
Mn 3A Mn 2A = bn 2A
..
.
M 1 A2 M 2 A3 = b 2 A2
M0 A M 1 A2 = b 1 A
M0 A = b 0 I n

Sumando miembro a miembro estas igualdades, obtenemos [0] = PA (A) donde [0] denota la matriz
nula de tamaño n ⇥ n.

Proposición 3.2.1
Sea A una matrix n ⇥ n con coeficientes en K, y sea m(X) un polinomio mı́nimo de A. Se verifica
entonces:
1. Si p(X) es un polinomio de K[X], p(A) es la matriz nula si y sólo si p(X) es múltiplo de m(X).

2. El polinomio mı́nimo de A es único, y lo vamos a denotar por mA (X).

3. El polinomio caracterı́stico de una matriz es múltiplo de su polinomio mı́nimo.

4. Si B es una matriz semejante a A, mA (X) = mB (X).

La demostración del punto 1 de la proposición se basa en el concepto de división euclidea de polinomios.


El segundo de los puntos se deduce del primero junto con el hecho de que los polinomios son mónicos.
El tercero es consecuencia del punto 1 y del teorema de Cayley-Hamilton, y el cuarto:
Si A y B son semejantes, A = P 1 · B · P , entonces
1 1 1
mB (A) = mB (P · B · P) = P · mB (B) · P = P [0]P = [0]

y, como consecuencia, mA (X) es un divisor de mB (X). Como un razonamiento análogo prueba que
mB (X) es un divisor de mA (X), y ambos son mónicos, han de coincidir.
Este último hecho nos permite definir, sin problemas, el polinomio mı́nimo de un endomorfismo.
Definición 3.2.2
Para cualquier endomorfismo f de un espacio vectorial V , se define polinomio mı́nimo de f como
el polinomio mı́nimo de cualquiera de sus matrices asociadas. A dicho polinomio lo denotamos por
mf (X)

Ejemplo 3.2.1
A continuación se muestran algunos ejemplos de endomorfismos y matrices, junto con sus polinomios
mı́nimos:
3.2. EL POLINOMIO MÍNIMO DE UN ENDOMORFISMO 83

• El polinomio caracterı́stico de la matriz identidad de tamaño n ⇥ n es (X 1)n y su polinomio


mı́nimo es (X 1).

• La matriz ✓ ◆
1 1
A=
1 1

tiene por polinomio caracterı́stico y polinomio mı́nimo X 2 .

• El polinomio caracterı́stico de la matriz


0 1
1 0 0
A = @0 2 0A
0 0 1

es (X 1)2 (X 2) y su polinomio mı́nimo es (X 1)(X 2).

• Si 0 1
1 1 2 3
B1 1 0 0 C
A=B
@0
C
0 1 1A
0 0 0 0

entonces PA (X) = X 3 (X 1) y su polinomio mı́nimo será alguno de los siguientes: X, X 2 , X 3 , X(X


1), X 2 (X 1), X 3 (X 1). ¿Cuántos intentos serı́an necesarios para poder concluir que mA (X) =
X 2 (X 1)?

El siguiente enunciado establece una cierta relación entre los factores irreducibles del polinomio
caracterı́stico y los del polinomio mı́nimo de una matriz, y con él se reduce el número de intentos
entre los divisores del polinomio caracterı́stico para obtener el polinomio mı́nimo. Sobra añadir su
equivalente en términos de endomorfismos.

Teorema 3.2.2
Sea A una matrix n⇥n con coeficientes en K, PA (X) su polinomio caracterı́stico y mA (X) su polinomio
mı́nimo. Se verifica entonces que todo factor irreducible de PA (X) es factor irreducible de mA (X).

Demostración.
Para probar este resultado vamos a probar que PA (X) es un divisor de (mA (X))n , lo que garantiza
que todo factor irreducible de PA (X) lo es de (mA (X))n , y como consecuencia de mA (X). Sea
mA (X) = X r + cr 1 X r 1 + . . . + c1 X + c0 con r  n y ci 2 K.
Consideramos las siguientes matrices:

B0 = I n
B1 = A + c r 1 I n
B 2 = A2 + c r 1 A + c r 2 In
.. (3.8)
.
Br 2 = Ar 2+ cr 1A
r 3 + . . . + c3 A + c2 In
Br 1 = Ar 1+c
r 1 Ar 2 + . . . + c 3 A2 + c 2 A + c 1 I n
84 LECCIÓN 3. LA TEORÍA DEL ENDOMORFISMO

A todas ellas las multiplicamos por A obteniendo:


AB0 = A
AB1 = A2 + cr 1A
AB2 = A3 + cr 1A
2 + cr 2A
.. (3.9)
.
ABr 2 = Ar 1 + cr 1 Ar 2 + . . . + c3 A2 + c2 A
ABr 1 = Ar + cr 1 Ar 1 + . . . + c3 A3 + c2 A2 + c1 A
Teniendo en cuenta 3.8 y 3.9, podemos establecer las siguientes relaciones:
B0 = I n
B1 = AB0 + cr 1 In
B2 = AB1 + cr 2 In
.. (3.10)
.
Br 2 = ABr 3 + c2 In
Br 1 = ABr 2 + c1 In
Además de la última igualdad en 3.9 tenemos:

ABr 1 + c0 In = Ar + cr 1A
r 1
+ . . . + c3 A3 + c2 A2 + c1 A + c0 In = mA (A) = [0] (3.11)

y por tanto:
ABr 1 = c0 In .
Consideremos el (resp. la) siguiente polinomio (resp. matriz) con coeficientes en Mn (K) (resp.
K[X]):
B(X) = B0 X r 1 + B1 X r 2 + . . . + Br 2 X + Br 1
que, a continuación, multiplicamos por (XIn A):

(XIn A)B(X) = B(X)X AB(X) =


= (B0 X r + . . . + Br 1 X) (AB0 X r 1 + . . . + ABr 2 X + ABr 1 ) =
= B0 X r + (B1 AB0 )X r 1 + . . . + (Br 1 ABr 2 )X ABr 1 =
= In X r + cr 1 In X r 1 + . . . + c2 In X 2 + c1 In X + c0 In =
= (X r + cr 1 X r 1 + . . . + c1 X + c0 )In =
= mA (X)In
Tomando determinantes en la igualdad anterior se obtiene:

det(XIn A) · det(B(X)) = det(mA (X)In ) = (mA (X))n

Como det(B(X)) es un polinomio de K[X] y det(XIn A) = PA (X), queda probado que PA (X) es
un divisor de (mA (X))n .

3.2.1 Ejercicios

Ejercicio 3.2.1.1
Se consideran las matrices
0 1
✓ ◆ 1 0 0 ✓ ◆
1 1 3 1
A= B = @1 1 1A C=
2 2 1 1
1 0 0
3.2. EL POLINOMIO MÍNIMO DE UN ENDOMORFISMO 85

1. Determinar los polinomios caracterı́sticos de cada una de las matrices anteriores, y comprobar
que pA (A), pB (B) y pC (C) son las matrices nulas correspondientes.
2. Establecer todos los divisores de los polinomios pA (X), pB (X) y pC (X) respectivamente, que
contengan todos los factores irreducibles distintos que aparecen en las factorizaciones de cada
uno de los polinomios señalados (p.e. si el polinomio caracterı́stico es X 2 (X 1) sólo se deberán
considerar los divisores X(X 1) y X 2 (X 1)).
3. Determinar para cada caso el polinomio mı́nimo de la matriz.
Ejercicio 3.2.1.2
Sea A una matriz 4 ⇥ 4. Justificar las afirmaciones siguientes.
1. Si el polinomio mı́nimo de A es X, entonces A es la matriz nula.
2. Si A2 es la matriz nula y A no es la matriz nula, entonces el polinomio mı́nimo de A es X 2 .
3. Si A2 I4 es la matriz nula, no necesariamente A = I4 o A = I4 .
Ejercicio 3.2.1.3
Sea f un endomorfismo del K-espacio vectorial V de dimensión n. Decir, razonadamente cuáles de las
afirmaciones siguientes son verdaderas y cuáles son falsas.
1. Si el polinomio mı́nimo de f es X, entonces f es la aplicación nula.
2. Si f 2 es la aplicación nula y f no es la aplicación nula, entonces el polinomio mı́nimo de f es
X 2.
3. Si q(X) es un polinomio mónico, de grado n y tal que q(f ) es la aplicación nula, entonces q(X)
es el polinomio caracterı́stico de f .
Ejercicio 3.2.1.4
Escribir tres matrices de tamaño 4 ⇥ 4, y con coeficientes reales, tales que todas ellas tengan por
polinomio caracterı́stico p(X) = (X 1)(X 2)3 y todas tengan polinomios mı́nimos distintos.¿Puede
existir un endomorfismo f de R4 que respecto de bases adecuadas pueda ser representado por dos de
las matrices anteriores?
Ejercicio 3.2.1.5
En R5 se consideran los subespacios
U = h{u1 = (1, 1, 1, 1, 0), u2 = ( 1, 1, 1, 1, 1)}i
W = h{w1 = (1, 1, 1, 0, 0), w2 = (0, 1, 1, 0, 0), w3 = (0, 0, 1, 0, 0)}i
1. Probar que R5 = U W
2. Sea p: R5 ! R5 el endomorfismo proyección sobre U en la dirección de W . (Ver en texto de
teorı́a primeros ejemplos de aplicaciones lineales). Determinar la matriz asociada a p respecto
de la base B = {u1 , u2 , w1 , w2 , w3 }.
3. Hallar el polinomio caracterı́stico de p y el polinomio mı́nimo de p.
4. Determinar los subespacios de vectores propios asociados a los distintos valores propios.
5. Determinar la matriz asociada a p respecto de la base canónica de R5 .
Ejercicio 3.2.1.6
Determinar el polinomio mı́nimo de la matriz A del ejercicio 3.1.1.10.
86 LECCIÓN 3. LA TEORÍA DEL ENDOMORFISMO

3.3 Subespacios invariantes


En esta sección se va a tratar el concepto de subespacio invariante por un endomorfismo de un espacio
vectorial. Veremos cómo hallar subespacios invariantes, que permitirán asociar a un endomorfismo
una matriz diagonal por cajas. La noción de endomorfismo nilpotente que se tratará en la siguiente
sección, nos ayudará a transformar esas cajas a su forma canónica.

Definición 3.3.1
Sea f un endomorfismo de V , y U un subespacio vectorial de V . Se dice que U es f -invariante o
invariante por f si se verifica cualquiera de las condiciones equivalentes siguientes:

1. f (u) 2 U , cualquiera que sea u 2 U .

2. f (u1 ), f (u2 ), . . . , f (ur ) están en U siendo {u1 , u2 , . . . , ur } un sistema generador de U .

Ejemplo 3.3.1
A continuación se muestran algunos ejemplos de subespacios invariantes:

• Si f es el endomorfismo de R4 tal que


0 1
1 1 2 3
B1 1 0 0 C
MBC (f ) = B
@0
C
0 1 1A
0 0 0 0

entonces es inmediato observar que h{e1 , e2 }i es un subespacio f -invariante y que h{e3 , e4 }i no


lo es. También es invariante el subespacio h{(4, 2, 1, 0)}i puesto que es el subespacio de vectores
propios de f asociados al valor propio 1.

• Sea f el endomorfismo de R5 tal que


0 1
0 0 0 0 1
B0 0 0 1 0C
B C
MBC (f ) = B
B0 0 1 0 0CC.
@0 1 0 0 0A
1 0 0 0 0

Los subespacios U1 = h{e1 , e5 }i, U2 = h{e2 , e4 }i, U3 = h{e3 }i y U4 = h{e1 , e5 , e3 }i son f –


invariantes.

Antes de enunciar y demostrar el resultado general relativo a los subespacios invariantes de “mayor
interés”, vamos a trabajar cada uno de los aspectos que recoge dicho resultado mediante un ejemplo.

Ejemplo 3.3.2
Se considera el endomorfismo f de R6 que tiene asociada respecto de la base canónica la matriz
siguiente: 0 1
1 2 1 2 2 0
B 5 8 0 5 10 0 C
B C
B 3 8 1 3 7 0 C
A=B B 0
C
B 6 1 3 6 0 CC
@ 4 9 1 4 11 0 A
0 5 6 0 11 3
3.3. SUBESPACIOS INVARIANTES 87

El polinomio caracterı́stico de f es Pf (X) = (X 2)3 (X + 3)3 y su polinomio mı́nimo es mf (X) =


(X 2)3 (X + 3)2 .
Si consideramos los subespacios V1 = ker(f 2IR6 )3 y V2 = ker(f + 3IR6 )2 , se tiene que

V1 = h{v1 = (0, 1, 1, 0, 1, 0), v2 = (1, 1, 1, 1, 0, 0), v3 = (0, 0, 1, 0, 0, 1)}i

V2 = h{w1 = (1, 0, 0, 1, 0, 0), w2 = (0, 0, 0, 0, 0, 1), w3 = (0, 1, 1, 1, 1, 0)}i


de lo que se pueden deducir los siguientes resultados:
1. La familia de vectores B = {v1 , v2 , v3 , w1 , w2 , w3 } es libre, y por tanto es una base de R6 , lo que
permite asegurar que R6 = V1 + V2 .

2. Puesto que V1 \ V2 = {0}, R6 = V1 V2 .

3. Si calculamos las imágenes por f de los vectores de B, obtenemos:

f (v1 ) = v1 v2 f (v2 ) = 2v2 v3 f (v3 ) = v1 + v2 + 3v3

f (w1 ) = 3w1 f (w2 ) = 3w2 f (w3 ) = w1 3w3 .


Esto muestra que los subespacios V1 y V2 son f -invariantes, y que la matriz MB (f ) es de la forma
0 1 0 1
✓ ◆ 1 0 1 3 0 1
M1 0
con M1 = @ 1 2 1 A , M2 = @ 0 3 0 A
0 M2
0 1 3 0 0 3

En la proposición siguiente se muestra cómo describir un espacio vectorial V como suma directa
de subespacios f -invariantes de acuerdo con la factorización de su polinomio mı́nimo, siendo f un
endomorfismo de V .

Proposición 3.3.1 Sea V un K-espacio vectorial n-dimensional y f : V ! V un endomorfismo de


polinomio caracterı́stico

Pf (X) = (X ↵1 )r1 · (X ↵2 )r2 · . . . · (X ↵ l ) rl

y de polinomio mı́nimo

mf (X) = (X ↵1 )s1 · (X ↵2 )s2 · . . . · (X ↵ l ) sl

siendo 1  si  ri y ↵i 6= ↵j si i 6= j. Si denotamos V1 = ker((f ↵1 I)s1 ) y V2 = ker(b(f )) siendo

b(X) = (X ↵2 )s2 · . . . · (X ↵ l ) sl ,

entocnes se tiene:
1. V es suma de los subespacios V1 y V2 .

2. V1 \ V2 = {0}, y por tanto V = V1 V2 .

3. V1 y V2 son f -invariantes.

4. Si fi , con i = 1, 2, denota la restricción de f a Vi , entonces mf1 (X) = (X ↵1 )s1 y mf2 (X) =


b(X).

5. La dimensión de V1 es r1 .
88 LECCIÓN 3. LA TEORÍA DEL ENDOMORFISMO

Demostración.
Por ser núcleos de aplicaciones lineales, V1 y V2 son subespacios de V . Los polinomios que definen
esos subespacios son primos entre si, por lo que aplicando la identidad de Bezout existen polinomios
p(X) y q(X) en K[X] verificando
(f ↵1 I)s1 · p(f ) + b(f ) · q(f ) = IV . (3.12)
Si v es cualquier elemento de V entonces
(f ↵1 I)s1 (p(f )(v)) + b(f )(q(f )(v)) = v.
Como v2 = (f ↵1 I)s1 (p(f )(v)) 2 V2 y v1 = b(f )(q(f )(v)) 2 V1 , se deduce la primera afirmación de
la proposición.
Si v 2 V1 \ V2 entonces (f ↵1 I)s1 (v) = 0 y b(f )(v) = 0. Teniendo en cuenta 3.12, se obtiene
v = p(f )((f ↵1 I)s1 (v)) + q(f )(b(f )(v)) = 0
y V1 \ V2 = {0}.
Si v 2 V1 entonces
f ((f ↵1 I)s1 (v)) = 0 = (f ↵1 I)s1 (f (v)),
y, por tanto, f (v) 2 V1 . La f -invarianza de V2 se prueba de forma análoga.
Sean mf1 (X) y mf2 (X) los polinomios mı́nimos de f1 y f2 respectivamente. Si v 2 V1 entonces
(f ↵1 I)s1 (v) = (f1 ↵1 I)s1 (v) = 0.
Es decir, el endomorfismo (f1 ↵1 I)s1 definido en V1 es el endomorfismo nulo y, como consecuencia,
mf1 (X) es un divisor de (X ↵1 )s1 . De forma similar se deduce que mf2 (X) es un divisor de b(X) y,
por tanto, mf1 (X) · mf2 (X) divide a mf (X).
Sea v = v1 + v2 un elemento cualquiera de V con v1 2 V1 y v2 2 V2 . Entonces:
(mf1 (f ) · mf2 (f ))(v) = (mf2 (f ) · mf1 (f ))(v1 ) + (mf1 (f ) · mf2 (f ))(v2 ) =

= mf2 (f )(mf1 (f )(v1 )) + mf1 (f )(mf2 (f )(v2 )) =

= mf2 (f )(mf1 (f1 )(v1 )) + mf1 (f )(mf2 (f2 )(v2 )) =

= mf2 (f )(0) + mf1 (f )(0) = 0


Lo anterior muestra que mf1 (f ) · mf2 (f ) es el endomorfismo nulo sobre V y que el polinomio mı́nimo
de f es un divisor de mf1 (X) · mf2 (X).
Se tiene entonces
(X ↵1 )s1 · b(X) = mf1 (X) · mf2 (X)
por dividirse mutuamente y ser ambos mónicos. Como ya se habı́a probado antes que (X ↵1 )s1 es
un múltiplo de mf1 (X) y que b(X) lo es de mf2 (X), quedan demostradas las igualdades establecidas
en el cuarto punto.
Si en V se considera una base B donde los d primeros vectores constituyen una base de V1 y los
últimos n d constituyen una base de V2 entonces la matriz asociada a f es una matriz
✓ ◆
A1 0
A=
0 A2
donde:
3.3. SUBESPACIOS INVARIANTES 89

• A1 es una matriz d ⇥ d correspondiente al endomorfismo f1 de V1 con polinomio caracterı́stico


PA1 (X) = (X ↵1 )d (s1  d).

• A2 es una matriz (n d) ⇥ (n d) correspondiente al endomorfismo f2 de V2 con polinomio


caracterı́stico un múltiplo de b(X).

El polinomio caracterı́stico de A,

PA (X) = (X ↵1 )r1 · (X ↵2 )r2 · . . . · (X ↵ l ) rl ,

es el producto de PA1 (X) y de PA2 (X), polinomios primos entre si. Esto implica que:

PA1 (X) = (X ↵ 1 ) r1 y PA2 (X) = (X ↵2 )r2 . . . (X ↵ l ) rl .

Se concluye finalmente que dim(V1 ) = d = r1 .

Corolario 3.3.1
Sea f un endomorfismo de V con polinomio caracterı́stico

Pf (X) = (X ↵1 )r1 · (X ↵2 )r2 · . . . · (X ↵ l ) rl

y con polinomio mı́nimo

mf (X) = (X ↵1 )s1 · (X ↵2 )s2 · . . . · (X ↵ l ) sl

siendo 1  si  ri y ↵i 6= ↵j si i 6= j.

1. V = V1 V2 . . . Vl siendo Vi = ker(f ↵i )si un subespacio f -invariante cuya dimensión es


ri (i = 1, 2, . . . , l).

2. f es diagonalizable si y sólo si si = 1 para todo i, esto es, si y sólo si el polinomio mı́nimo es

mf (X) = (X ↵1 ) · (X ↵2 ) · . . . · (X ↵l ).

Para mostrar que el resultado de la proposición anterior es en parte generalizable al caso de tener
un endomorfismo f cuyo polinomio mı́nimo sea de la forma mf (X) = a(X) · b(X) donde a(X) y
b(X) son polinomios primos entre si (con todas sus raı́ces o no en el cuerpo K), se presenta siguiente
ejemplo:

Ejemplo 3.3.3
Sea f : R3 ! R3 un endomorfismo tal que
0 1
1 1 2
MBc (f ) = @ 1 1 1A.
3 1 4

El polinomio caracterı́stico y el polinomio mı́nimo de f coinciden y son (X 2)(X 2 + 1). Si se denota


a(X) = (X 2) y b(X) = (X 2 + 1), V1 = ker(a(f )) y V2 = ker(b(f )), puede probarse que R3 = V1 V2
y que V1 y V2 son f -invariantes. Esto último asegura que la matriz asociada a f respecto de la base
de R3 determinada por las bases de V1 y V2 es diagonal por cajas.
90 LECCIÓN 3. LA TEORÍA DEL ENDOMORFISMO

3.3.1 Ejercicios
Ejercicio 3.3.1.1
Dar cuatro subespacios invariantes por la aplicación p del ejercicio 3.2.1.5.

Ejercicio 3.3.1.2
Se considera el endomorfismo de R3 que tiene por matriz asociada respecto de la base canónica la
siguiente. 0 1
0 0 0
A = @0 0 1A
0 1 0

1. Comprobar que el polinomio caracterı́stico de f es pf (X) = X(X 2 + 1).

2. Determinar ker(f ) y ker(f 2 + IR3 ).

3. Probar que los subespacios anteriores son f -invariantes.

4. Comprobar que ker(f ) = im(f 2 + IR3 ) y im(f ) = ker(f 2 + IR3 ).

Ejercicio 3.3.1.3
Construir un endomorfismo f de V = R5 tal que los subespacios

U = h{u1 = (1, 1, 1, 1, 0), u2 = ( 1, 1, 1, 1, 1)}i

W = h{w1 = (1, 1, 1, 0, 0), w2 = (0, 1, 1, 0, 0), w3 = (0, 0, 1, 0, 0)}i


sean f -invariantes y la base B = {u1 , u2 , w1 , w2 , w3 } no sea de vectores propios.
Escribir la matriz asociada a f respecto de la base B.

Ejercicio 3.3.1.4
Sea f el endomorfismo de V = R3 [X] que a cada polinomio le asocia su polinomio derivado.

1. Probar que V1 = R2 [X] es un subespacio f -invariante de V = R3 [X].

2. Sea f1 la restricción de f a V1 = R2 [X]. Determinar el polinomio caracterı́stico y el polinomio


mı́nimo de f1 .

3.4 Endomorfismos nilpotentes. Forma canónica de Jordan


En la determinación de una base de un espacio vectorial respecto de la cuál un endomorfismo dado
venga expresado por una matriz “casi–diagonal”, se hace uso de ciertos endomorfismos denominados
nilpotentes, concepto que introduciremos después de las siguientes observaciones:

• Si f es un endomorfismo de V , ker(f r ) ⇢ ker(f r+s ) si 0  s.

• Existen endomorfismos cuyo polinomio caracterı́stico es de la forma X n , lo que conlleva que una
potencia de dicho endomorfismo sea la aplicación nula: El endomorfismo f de R4 definido por
f (e1 ) = 0, f (e2 ) = e1 , f (e3 ) = e2 , f (e4 ) = 0 es un endomorfismo cuyo polinomio mı́nimo es X 3 .

• Si un endomorfismo f tiene polinomio mı́nimo (X ↵)s , el endomorfismo g = f ↵I tiene por


polinomio mı́nimo X s .
3.4. ENDOMORFISMOS NILPOTENTES. FORMA CANÓNICA DE JORDAN 91

Definición 3.4.1
Un endomorfismo f : V ! V se dice nilpotente de ı́ndice l si su polinomio mı́nimo es X l .

En los siguientes ejemplos se aborda este concepto.

Ejemplo 3.4.1

• El endomorfismo f de R4 definido por f (e1 ) = 0, f (e2 ) = e1 , f (e3 ) = e2 , f (e4 ) = 0 es nilpotente


de ı́ndice 3.

• La matriz 0 1
1 1 0
A= @ 0 0 1 A
1 1 1
define en R3 un endomorfismo nilpotente de ı́ndice 3.

• Si f es un endomorfismo nilpotente de ı́ndice l entonces existe un vector v 2 V tal que v 62


ker(f l 1 ). También en este caso se verifica que Im(f l 1 ) ⇢ ker(f )

A continuación vamos a tratar de describir los métodos que permiten hallar las formas canónicas
de Jordan para matrices 2 ⇥ 2 y 3 ⇥ 3, o lo que es equivalente, para endomorfismos definidos sobre
espacios de dimensión 2 o 3. En todos los casos se supondrá que el polinomio caracterı́stico tiene todas
sus raı́ces sobre el cuerpo base.
En una primera aproximación, señalemos que una matriz (aij ) se dice que tiene forma de Jordan
si verifica: aij = 0 si j 6= i, i + 1, y aii+1 = 0 o 1 (los elementos de la diagonal principal serán, como
es obvio, los autovalores correspondientes). Es claro que la forma de Jordan de un endomorfismo
diagonalizable es precisamente su forma diagonal.

Caso 1. f : V ! V con dim(V ) = 2


1. Si Pf (X) = (X ↵)(X ) = mf (X) = (X ↵)(X ), f es diagonalizable y sabemos que la
base “buena” es la de vectores propios.

2. Si Pf (X) = (X ↵)2 , puede suceder que

(a) mf (X) = (X ↵) en cuyo caso f = ↵I y no hay nada que hacer, o bien


(b) mf (X) = (X ↵)2 . En esta situación V = ker(f ↵I)2 , y g = f ↵I es nilpotente de
ı́ndice 2. Se puede elegir entonces un vector v 2 V tal que v 62 ker(g). El conjunto

B = {g(v), v}

es una base de V (su independencia basta por ser dim(V ) = 2):


ag(v) + bv = 0 ) ag 2 (v) + bg(v) = 0 )

) b = 0 (puesto que g 2 (v) = 0 y g(v) 6= 0) ) a = 0.


Entonces:
✓ ◆ ✓ ◆ ✓ ◆
0 1 ↵ 0 ↵ 1
MB (f ) = MB (g) + MB (↵I) = + =
0 0 0 ↵ 0 ↵
es la forma de Jordan de f .
92 LECCIÓN 3. LA TEORÍA DEL ENDOMORFISMO

Caso 2. f : V ! V con dim(V ) = 3

1. Si Pf (X) = (X ↵)(X )(X ) = mf (X), f es diagonalizable.

2. Si Pf (X) = (X ↵)2 (X ), puede suceder que

(a) mf (X) = (X ↵)(X ), y siendo ası́ f es diagonalizable.


(b) mf (X) = (X ↵)2 (X ). En esta situación consideramos los subespacios f -invariantes,
y suplementarios, V1 = ker(f ↵I)2 , y V2 = ker(f I). La dimensión de V1 es 2, y se
puede actuar en él, teniendo en cuenta el endomorfismo f1 restricción de f , como se hacı́a
en el punto 2b del caso 1. Si
B = {g(v), v, w}
(v 2 V1 pero v 62 ker(f1 ↵I), y w 2 V2 ) entonces
0 1
↵ 1 0
@
MB (f ) = 0 ↵ 0A
0 0

es la forma de Jordan de f .

3. Si Pf (X) = (X ↵)3 , pueden aparecer las siguientes situaciones:

(a) mf (X) = (X ↵), caso trivial por cuanto f = ↵I.


(b) mf (X) = (X ↵)2 . El endomorfismo g = f ↵I, es nilpotente de ı́ndice 2. Se puede elegir
entonces un vector v 2 V tal que v 62 ker(g), y un vector w 2 ker(g) Im(g) (puesto que
Im(g) ⇢ ker(g) pero no coinciden por ser 3 = dim(V ), un número impar). Un razonamiento
en la linea del realizado en el punto 2b del caso 1 prueba que el conjunto

B = {w, g(v), v}

es base de V y que MB (f ) =
0 1 0 1 0 1
0 0 0 ↵ 0 0 ↵ 0 0
= MB (g) + MB (↵I) = @ 0 0 1A + @ 0 ↵ 0A = @ 0 ↵ 1A
0 0 0 0 0 0 0 0 ↵

es la forma de Jordan de f .
(c) mf (X) = (X ↵)3 . Ahora g = f ↵I, es nilpotente de ı́ndice 3, lo que nos permite hallar
un vector v 2 V tal que v 62 ker(g 2 ). La demostración de que

B = {g 2 (v), g(v), v}

es base de V , sigue un esquema similar al ya usado en 2b (dentro del caso 1) y, en este


caso, MB (f ) =
0 1 0 1 0 1
0 1 0 ↵ 0 0 ↵ 1 0
= MB (g) + MB (↵I) = @ 0 0 1A + @ 0 ↵ 0A = @ 0 ↵ 1A
0 0 0 0 0 0 0 0 ↵

es la forma de Jordan de f .
3.4. ENDOMORFISMOS NILPOTENTES. FORMA CANÓNICA DE JORDAN 93

El estudio anterior cubre, como es obvio, todos aquellos casos de endomorfismos, sobre espacios
de dimensión 3, en los que las raı́ces del polinomio caracterı́stico tienen a lo sumo multiplicidad 3.
Con el siguiente ejemplo se da una idea del método que se emplea de forma general para obtener la
forma de Jordan de una matriz.

Ejemplo 3.4.2
Consideremos V = R7 y f el endomorfismo definido, respecto de la base canónica, por la matriz
siguiente: 0 1
4 3 1 2 3 7 7
B0 2 0 0 0 0 0 C
B C
B2 2 1 2 3 2 2C
B C
A=B B 0 1 1 2 1 0 0 CC
B1 1 1 1 1 1 1C
B C
@5 5 6 5 1 1 4A
5 5 6 5 1 4 7
Su polinomio caracterı́stico y su polinomio mı́nimo son

Pf (X) = (X + 3)2 (X 2)5 y mf (X) = (X + 3)2 (X 2)3 .

Sean
V1 = ker((f + 3I)2 ) y V2 = ker((f 3I)3 )
los subespacios f -invariantes cuyas bases respectivas son:

B1 = {(1, 0, 0, 0, 0, 1, 0), (0, 0, 0, 0, 0, 1, 1)}

B2 = {(1, 0, 1, 0, 0, 0, 0), (0, 0, 0, 0, 1, 0, 0),


( 1, 1, 0, 0, 0, 0, 0), ( 1, 0, 0, 1, 0, 0, 0), (1, 0, 0, 0, 0, 1, 1)}

La aplicación f1 restricción de f a V1 tiene el tratamiento visto en 2b del caso 1. Respecto de la base

B 0 1 = {(1, 0, 0, 0, 0, 0, 1), (1, 0, 0, 0, 0, 1, 0)}

de V1 la forma de Jordan de f1 es
✓ ◆
3 1
MB0 1 (f1 ) = .
0 3

Si f2 es la restricción de f a V2 y g = f2 2I (nilpotente de ı́ndice 3) entonces se procede de la


siguiente manera:

• Se elige un vector v 2 V2 , y se van calculando g(v), g 2 (v), . . . hasta obtener el vector nulo. Si
v = ( 1, 1, 0, 0, 0, 0, 0) entonces g(v) = (1, 0, 0, 1, 0, 0, 0) y g 2 (v) = 0 y los vectores v y g(v) son
linealmente independientes.

• A continuación se escoge un vector w 2 V2 , linealmente independiente con v y g(v); por ejemplo


w = (0, 0, 0, 0, 1, 0, 0) y se van obteniendo g(w), g 2 (w), . . . hasta obtener el vector nulo. En este
caso, g(w) = ( 3, 0, 3, 1, 1, 1, 1), g 2 (w) = (2, 0, 2, 2, 2, 2, 2) y g 3 (w) = 0 y los vectores v, g(v),
w, g(w) y g 2 (w) son linealmente independientes
94 LECCIÓN 3. LA TEORÍA DEL ENDOMORFISMO

• Los vectores {g(v), v, g 2 (w), g(w), w} forman una base, B 0 2 , de V2 tal que:
0 1 0 1
0 1 0 0 0 2 0 0 0 0
B0 0 0 0 0C B0 2 0 0 0C
B C B C
MB20 (f2 ) = MB20 (g) + MB20 (2I) = B
B0 0 0 1 0C + B0
C B 0 2 0 0CC=
@0 0 0 0 1A @0 0 0 2 0A
0 0 0 0 0 0 0 0 0 2
0 1
2 1 0 0 0
B0 2 0 0 0C
B C
=B B0 0 2 1 0C
C
@0 0 0 2 1A
0 0 0 0 2
es la forma de Jordan de f2 .
Se obtiene ası́ la base de R7

B = {(1, 0, 0, 0, 0, 0, 1), (1, 0, 0, 0, 0, 1, 0), (1, 0, 0, 1, 0, 0, 0), ( 1, 1, 0, 0, 0, 0, 0),


(2, 0, 2, 2, 2, 2, 2), ( 3, 0, 3, 1, 1, 1, 1), (0, 0, 0, 0, 1, 0, 0)}

tal que 0 1
3 1 0 0 0 0 0
B 0 3 0 0 0 0 0C
B C
B 0 0 2 1 0 0 0C
B C
MB (f ) = B
B 0 0 0 2 0 0 0CC
B 0 0 0 0 2 1 0C
B C
@ 0 0 0 0 0 2 1A
0 0 0 0 0 0 2
es la forma de Jordan de f .

El resultado general no va a ser más que enunciado y se hace en los términos siguientes:
Proposición 3.4.1
Sea f un endomorfismo de V de polinomio caracterı́stico

Pf (X) = (X ↵1 )r1 · (X ↵2 )r2 · . . . · (X ↵ l ) rl

y de polinomio mı́nimo

mf (X) = (X ↵1 )s1 · (X ↵2 )s2 · . . . · (X ↵ l ) sl

siendo 1  si  ri y ↵i 6= ↵j si i 6= j. Entonces:
1. Para cada subespacio f -invariante Vi = ker(f ↵i )si (i = 1, 2, . . . , l), existe una base Bi (con ri
vectores) respecto de la cuál el endomorfismo restricción de f a Vi tiene por matriz J↵i , donde
los elementos de la diagonal principal son todos iguales a ↵i , los de los lugares (j, j + 1) son cero
o uno y el resto todos iguales a cero.

2. La matriz asociada a f respecto de la base

B = B1 [ B2 [ . . . [ Bl

de V es una matriz diagonal por cajas. Las cajas son respectivamente J↵1 , J↵2 , . . . , J↵l .
3.4. ENDOMORFISMOS NILPOTENTES. FORMA CANÓNICA DE JORDAN 95

3. La matriz por cajas obtenida en 2. recibe el nombre de matriz de Jordan de f , y es única salvo
“reordenación” de los elementos (j, j) y (j, j + 1).

Es inmediato que en términos de matrices el enunciado precedente se expresa diciendo que toda
matriz A (de tamaño n ⇥ n con PA (X) y mA (X) como los de la proposición anterior) es semejante a
una matriz por cajas como la detallada en el último punto 2.

Ejemplo 3.4.3
Este ejemplo tiene como próposito el avisar sobre una cuestión que a veces puede llevar a errores.
Si el lector revisa detenidamente los casos que aparecen cuando se determina la forma de Jordan de
una matriz 3 ⇥ 3, podrá observar lo siguiente. Si dos matrices tienen igual polinomio caracterı́stico y
el número de 10 s y 00 s por encima de dicha diagonal coinciden, las matrices son semejantes. Pues la
advertencia es que este hecho no es generalizable cuando el tamaño de las matrices aumenta, como se
muestra mediante las matrices dadas a continuación.
0 1 0 1
0 1 0 0 0 0 1 0 0 0
B0 0 0 0 0C B0 0 1 0 0C
B C B C
B
A = B0 0 0 1 0C , C B=B C
B0 0 0 1 0C
@0 0 0 0 1A @0 0 0 0 0A
0 0 0 0 0 0 0 0 0 0

Es obvio que las matrices A y B tienen el mismo polinomio caracterı́stico y el mismo número de 10 s y
00 s por encima de dicha diagonal, sin embargo los polinomios mı́nimos son diferentes: mA (X) = X 3
y mB (X) = X 4 , de donde se desprende que A y B no son semejantes.

3.4.1 Ejercicios
Ejercicio 3.4.1.1
Dar una matriz A de tamaño 3 ⇥ 3 y una matriz 4 ⇥ 4 con coeficientes reales tales que ambas sean
nilpotentes de ı́ndice 2.

Ejercicio 3.4.1.2
Se consideran las aplicaciones f y f1 del ejercicio 3.3.1.4. ¿Son endomorfismos nilpotentes? ¿De qué
ı́ndices?

Ejercicio 3.4.1.3
Sean fi con i = 1, · · · , 6 los endomorfismos de R3 que, respecto de la base canónica, tienen asociadas
respectivamente las matrices Ai (i = 1, · · · , 6) siguientes.
0 1 0 1 0 1
1 0 0 4 2 1 6 2 0
A1 = @ 1 2 0 A A2 = @ 0 0 2A A3 = @ 4 0 0 A
2 2 4 0 4 6 1 3 4
0 1 0 1 0 1
2 0 0 2 2 2 8 4 2
A4 = @ 0 2 0 A A5 = @ 0 2 0 A A6 = @ 2 2 0 A
0 0 2 0 0 2 2 2 2
1. Determinar el polinomio caracterı́stico y el polinomio mı́nimo de cada fi .

2. Hallar para cada fi una base de R3 respecto de la cual la matriz asociada a fi sea de Jordan.

3. Establecer la forma de Jordan de cada uno de los endomorfismos anteriores.


96 LECCIÓN 3. LA TEORÍA DEL ENDOMORFISMO

Ejercicio 3.4.1.4
Sea f un endomorfismo de un C-espacio vectorial V de dimensión 5 tal que U y W son subespacios
f -invariantes de V de dimensiones 3 y 2 respectivamente. Sean fU y fW las restricciones de f a U y
W respectivamente. Supongamos que el polinomio caracterı́stico de f tiene dos raices distintas, y que
los polinomios mı́nimos de fU y fW son iguales.

1. ¿Es verdadero o falso que en ese caso la forma de Jordan de f es diagonal?

2. Construir un endomorfismo f de C5 con las caracterı́sticas señaladas, indicando cuáles son los
subespacios f -invariantes.

Ejercicio 3.4.1.5
Sea f un endomorfismo de R3 que está definido, respecto de la base canónica de R3 , por la matriz
0 1
1 4 3
A = @1 4 3A.
1 7 6

1. Hallar el polinomio caracterı́stico y el polinomio mı́nimo de f

2. Determinar una base de R3 respecto de la cuál la matriz asociada a f sea de Jordan. ¿Cuál es
dicha matriz de Jordan?

Ejercicio 3.4.1.6
Sea f un endomorfismo de R3 . ¿Cuál de las siguientes afirmaciones es verdadera y cuál es falsa?

1. Si respecto de una base B de R3 la matriz asociada a f es de la forma


0 1
1 a b
@0 1 c A
0 0 1

y f es diagonalizable, entonces el polinomio mı́nimo de f es mf (X) = (X 1)(X + 1) y a = 0.

2. Si f tiene dos autovalores distintos y dim(ker(f )) = 2, entonces f es diagonalizable.

3. Si respecto de bases B y B 0 de R3 la matriz asociada a f es


0 1
1 0 3
MB,B0 (f ) = @ 0 1 0 A
0 0 1

y g es otro endomorfismo de R3 tal que


0 1
1 4 3
MB0 ,B (g) = @ 1 3 3A
0 0 1

entonces la forma de Jordan del endomorfismo g f es


0 1
1 0 0
@0 1 1A
0 0 1
3.5. CÁLCULO APROXIMADO DE AUTOVALORES 97

3.5 Cálculo aproximado de autovalores


Consideremos la matriz 0 1
1 1 1 1
B 2 1 1 1 C
A=B
@ 1
C
1 1 1 A
1 1 0 1
cuyo polinomio caracterı́stico es
PA (X) = X 4 + X 2 + X + 2
Las soluciones de la ecuación PA (X) = 0 son dificilmente expresables de forma exacta y por lo tanto
la única posibilidad en este momento es aproximarlas. Para este caso particular se obtiene que hay
cuatro autovalores (complejos) cuyas aproximaciones son

↵1 = 0.574 0.678i ↵2 = 0.574 + 0.678i


↵3 = 0.574 1.483i ↵4 = 0.574 + 1.483i

En general, la aproximación de los autovalores mediante el cálculo de las soluciones del polinomio
caracterı́stico a través de un método numérico es altamente arriesgado ya que en muchas aplicaciones
prácticas los coeficientes de la matriz A se conocen de forma aproximada y estamos acumulando dos
tipos de errores: los que aparecen al calcular PA (X) y los que origina la aproximación de las soluciones
de la ecuación PA (X) = 0.
Uno de los métodos más usados en la práctica para el cálculo aproximado de autovalores es el
método de la potencia. Sea A una matriz de orden n y supongamos que todos sus autovalores,
↵1 , . . . , ↵n , son reales, distintos y sea ↵1 el autovalor verificando

|↵i |  |↵1 |, 2in

Sea ui el autovector asociado al autovalor ↵i y consideremos x1 , . . . , xn números reales arbitrarios.


Entonces: ✓X n ◆ X n
A· xj uj = ↵ j xj uj
j=1 j=1
✓X
n ◆ Xn
A2 · xj uj = ↵j2 xj uj
j=1 j=1
..
✓X ◆.
n n
X
k
A · xj uj = ↵jk xj uj
j=1 j=1
Si ponemos
n
X
X0 = xi ui , X k = Ak · X 0
j=1

entonces (si ↵1 6= 0)
Xk
lim k
= x1 u1
k!1 ↵1

Consideremos el siguiente esquema para k 2 {0, 1, 2, . . .}


• Yk+1 = A · Xk ,

• k+1 =mayor coordenada de Yk+1 en valor absoluto, y


98 LECCIÓN 3. LA TEORÍA DEL ENDOMORFISMO

Yk+1
• Xk+1 = .
k+1

La sucesión Xk sigue teniendo como lı́mite un múltiplo de u1 , u1 , y por ello la sucesión Yk tiene
como lı́mite ↵1 ( u1 ). Como

Yk = k Xk =) ↵1 ( u1 ) = ( lim k )( u1 )
k!1

se concluye que k tiende a ↵1 y que Xk tiene como lı́mite u1 . Hemos obtenido entonces una aproxi-
mación al primer autovalor y al primer autovector. (¿Como se calcuları́a ↵2 ?).
3.6. PROBLEMAS DE LA TEORÍA DEL ENDOMORFISMO 99

3.6 Problemas de la Teorı́a del Endomorfismo


Problema 3.6.1
Sea f : V ! V un endomorfismo cuyos autovalores son 1, 0 y 1, con autovectores asociados v1 , v2 , v3
respectivamente. Encontrar un vector v tal que f (v) = v1 +v3 . ¿Existirá un vector v tal que f (v) = v1 ?

Problema 3.6.2
Utilizando matrices cuadradas de tamaños 2⇥2, 3⇥3, 4⇥4. Descubre la relación entre el determinante
de la matriz, la suma de los valores propios, ... y los coeficientes de su polinomio caracterı́stico.

Problema 3.6.3
Sea f un endomorfismo de un K–espacio vectorial V . Un subespacio W de V se dice invariante por f
ó f –invariante si f (W ) está contenido en W .

a) Demuestra que {0} y V son subespacios invariantes por f .

b) Sea W un subespacio de V de dimensión 1. Demuestra que W es f –invariante si y sólo si W


está generado por un vector propio.
✓ ◆
2 5
c) Demuestra que los únicos subespacios de R invariantes por el endomorfismo de matriz
2
1 2
son {0} y R .2

Problema 3.6.4
Sea V un R–espacio vectorial.

a) Demuestra que si V es de dimensión impar, para todo endomorfismo de V existe un vector


propio.

b) Si V es de dimensión par, y f es un endomorfismo de V con determinante negativo, demuestra


que f tiene al menos dos valores propios reales.

Problema 3.6.5
Sea f un endomorfismo de Rn .

a) Si v y w son autovectores de f asociados a autovalores distintos, demuestra que av +bw (a, b 6= 0)


no es vector propio de f .

b) Si cualquier vector de Rn es vector propio de f , demuestra que f = ↵I (con ↵ un cierto número


real e I la aplicación identidad en Rn ).
100 LECCIÓN 3. LA TEORÍA DEL ENDOMORFISMO

Problema 3.6.6
Respecto a la base canónica de R4 , calcula la matriz del endomorfismo f : R4 ! R4 caracterizado por
verificar:

a) (1, 1, 1, 1) es un vector propio de valor propio 4.

b) ker(f ) = h{(1, 2, 3, 4), (1, 4, 0, 1)}i

c) f (3, 2, 1, 2) = (8, 4, 2, 1).

Problema 3.6.7
Halla los autovalores y los subespacios propios del endomorfismo f de R3 que, respecto la base canónica,
tiene asociada la siguiente matriz 0 1
1 1 0
A = @3 1 6A
1 1 3
Analiza si f es diagonalizable.

Problema 3.6.8
Halla los autovalores y los subespacios propios del endomorfismo f de R3 que, respecto la base canónica,
tiene asociada la siguiente matriz 0 1
1 1 1
A=@ 1 1 1 A
1 1 1
Analiza si f es diagonalizable.

Problema 3.6.9
Sea V un R–espacio vectorial de dimensión 4, y sea f un endomorfismo de V que en cierta base dada
tiene por matriz a 0 1
3 3 0 1
B 1 1 0 1C
A=B @ 1
C
2 1 1 A
2 4 0 3
Halla los autovalores y los subespacios propios de f y comprueba si es diagonalizable.

Problema 3.6.10
Sea V un espacio vectorial real de dimensión 3, en el que se considera una base B = {v, w, u}. De un
endomorfismo f de V se sabe que:

• f (6v + 2w + 5u) = 6v + 2w + 5u y la traza de la matriz A de f en la base B es igual a 5.

• U = {(x, y, z): 2x + 11y 7z = 0} es un subespacio propio de f .

Halla la matriz de f en la base B y los autovalores de f .


3.6. PROBLEMAS DE LA TEORÍA DEL ENDOMORFISMO 101

Problema 3.6.11 0 1
1 a 1
Sea f : R3 ! R3 un endomorfismo que respecto de la base canónica tiene por matriz A = @ 0 1 bA
0 0 c
¿Bajo qué condiciones es f diagonalizable?

Problema 3.6.12
Sea f : R3 ! R3 un endomorfismo tal que f 2 = f . Demuestra que f es diagonalizable y halla sus
vectores propios.

Problema 3.6.13
Sea A una matriz n ⇥ n con coeficientes reales. Dicha matriz A puede considerarse como asociada
a un endomorfismo de Rn (como R–espacio vectorial) o a un endomorfismo de Cn (como C-espacio
vectorial).
a) Da un ejemplo de matriz real 4 ⇥ 4 que sea diagonalizable sobre C y no sobre R.
b) Da un ejemplo de matriz real 4 ⇥ 4 que no sea diagonalizable sobre C. ¿Lo será sobre R?
c) Demuestra que toda matriz real 3 ⇥ 3 cuyo polinomio caracterı́stico tenga una sola raiz real es
diagonalizable sobre C.

Problema 3.6.14
Sea f un endomorfismo de R3 del que se sabe lo siguiente:
a) f es diagonalizable y sólo tiene dos autovalores distintos.
b) Si U = {(x, y, z) 2 R3 : x 2y z = 0} y V = h{(1, 0, 1), ( 1, 1, 1)}i, f (U ) = V .
c) Un valor propio de f es 1 y uno de sus vectores propios pertenece a U .
d) (1, 0, 1) es un vector propio de f , y está asociado a un autovalor simple.
Halla la matriz A asociada a f respecto de la base canónica, en función de cuántos parámetros sea
preciso.

Problema 3.6.15
Sea V un R–espacio vectorial de dimensión 125 y f un endomorfismo de V no inyectivo tal que f 3 =
196f . Sean Mf (X) y Pf (X) el polinomio mı́nimo y el polinomio caracterı́stico de f respectivamente.
Justifica cada una de las siguientes implicaciones:
f 3 = 196f ) Mf (X) es un divisor de X(X 14)(X + 14) )
) Pf (X) = X r (X 14)s (X + 14)t , 1  r, 0  s, 0  t , r + s + t = 125 )
) ker(f ), ker(f 14IV ), ker(f + 14IV ) tienen resp. dimensiones r, s, t )
) Existe B base de V tal que MB (f ) es diagonal con 0’s, 14’s y (-14)’s en la
diagonal principal.
102 LECCIÓN 3. LA TEORÍA DEL ENDOMORFISMO

Problema 3.6.16
Dı́, razonadamente, si son verdaderas o falsas las afirmaciones siguientes:
a) Si A 2 M4 (R) y PA (X) = X(X 1)(X 2)2 entonces A tiene rango 2.

b) Sea f un endomorfismo de R4 . Se sabe que dim ker(f 3I) > 1 y que mcd{Mf (X), (X 5)(X
4)2 } tiene dos raices distintas. En esas condiciones f es diagonalizable.

c) Si A 2 Mn (R) y A2 = In entonces A es diagonalizable.

d) Si f : R3 ! R3 es un endomorfismo cuyo polinomio mı́nimo es X(X + 1), entonces f es


diagonalizable.

e) Si f : R3 ! R3 es un endomorfismo cuyo polinomio mı́nimo es X(X 1), entonces f es la


aplicación nula, es la aplicación identidad o bien existen subespacios U y W de R3 tales que f
coincide con la proyección sobre U en la dirección de W .

Problema 3.6.17
Sea f : R4 ! R4 un endomorfismo cuya matriz asociada respecto de las bases canónicas es
0 1
1 0 0 0
B 8 1 4 0C
A=B @ 4
C
0 1 0A
4 4 8 1

a) Obtén el polinomio caracterı́stico y los valores propios de A.

b) Da bases de los subespacios de vectores propios relativos a A. ¿Es f diagonalizable? ¿Quién es


el polinomio mı́nimo de f ?

Problema 3.6.18
Sea B = {e1 , e2 , e3 , e4 } la base canónica de R4 , y f : R4 ! R4 un endomorfismo del que se sabe:
• El polinomio caracterı́stico tiene todas sus raices reales pero sólo dos son distintas.

• ker(f ) = h{e1 + e2 , e4 }i, f (e3 ) = 2e3 y e1 e2 es vector propio.


Responde a las siguientes cuestiones.
a) ¿Es f diagonalizable? ¿Cuál es el polinomio caracterı́stico de f ?

b) Determina la matriz asociada a f respecto de la base canónica.

Problema 3.6.19
Sea B = {e1 , e2 , e3 , e4 } la base canónica de R4 , y f : R4 ! R4 un endomorfismo del que se sabe
ker(f ) = h{e2 + e4 }i, f (e1 ) = e2 y f (e2 ) = e1
3.6. PROBLEMAS DE LA TEORÍA DEL ENDOMORFISMO 103

a) Demuestra que e1 e2 y e1 + e2 son vectores propios.

b) Si 2 fuese raiz del polinomio caracterı́stico de f , ¿podrı́amos afirmar que f es diagonalizable?

c) Supongamos que f (0, 0, 1, 1) = (1, 1, 0, 1). Escribe la matriz asociada a f respecto de la base
canónica. ¿Es f diagonalizable en este caso?

Problema 3.6.20
Sea f : R3 ! R3 una aplicación lineal tal que

i) f 2 es la aplicación nula ii) f (1, 1, 1) = (0, 1, 1) iii) (0, 0, 1) 2 Ker(f )

1. Halla bases de Ker(f ) y de Im(f ) probando previamente que Im(f ) ⇢ Ker(f ).


0 1
1 0 0
2. ¿Existen bases B y B 0 de R3 tales que MB,B0 (f ) = @ 0 0 0 A? En caso afirmativo, calcula
0 0 0
dichas bases.

3. Determina el polinomio caracterı́stico de f . ¿Es f diagonalizable?

Problema 3.6.21
Sea V un R-espacio vectorial de dimensión 7, y U y W dos subespacios de V tales que V = U W
con dim(U ) = 4. Si p : V ! V es la aplicacion proyección sobre U en la dirección de W , ¿cuáles de
las siguientes afirmaciones son verdaderas?

1. Existe una base B de V respecto de la cuál la matriz asociada a p es


0 1
1 0 0 0 0 0 0
B0 1 0 0 0 0 0C
B C
B0 0 1 0 0 0 0C
B C
MB = B B0 0 0 1 0 0 0C C
B0 0 0 0 0 0 0C
B C
@0 0 0 0 0 0 0A
0 0 0 0 0 0 0

2. rango(f ) = dim(U )

3. El polinomio caracterı́stico de p es (X 1)4 X 3 , y el polinomio mı́nimo es (X 1)X.

Problema 3.6.22
Sea f : R4 ! R3 el endomorfismo definido por

f (x, y, z, t) = (x y, z t, x y+z t)
104 LECCIÓN 3. LA TEORÍA DEL ENDOMORFISMO

1. Determina bases de Ker(f ) y de Im(f ).


2. Halla bases B de R4 y B 0 de R3 para las que
✓ ◆
Ir 0
MB,B0 (f ) =
0 0
siendo Ir la matriz identidad de tamaño r ⇥ r y los 00 s matrices nulas de tamaños adecuados.
3. ¿Es verdadera o falsa la siguiente afirmación?: Existen bases B1 de R4 y B 0 1 de R3 tal que
0 1
0 0 1 0
MB1 ,B0 1 (f ) = @ 1 0 0 0 A .
0 0 0 0

4. Sea g : R3 ! R4 la aplicación lineal tal que


0 1
1 1 0
B1 1 0C
MB0 ,B (g) = B
@1
C
0 1A
0 0 1
donde B y B 0 son las bases del segundo apartado. ¿Es la aplicación f g : R3 ! R3 diagonalizable?

Problema 3.6.23
Blancanieves distribuyó 3 litros de leche a los siete enanitos. A continuación el primero de ellos
distribuyó el contenido de su taza de modo uniforme a las otras seis tazas, después el segundo hizo lo
mismo, y ası́ sucesivamente. Cuando el séptimo enanito hubo realizado la misma operación, se pudo
comprobar que cada uno de los enanos tenı́a exactamente la misma cantidad de leche en su taza que
al comienzo. ¿Cuál fue la distribucón inicial de leche? Esta es la pregunta a la que se debe responder
y para lo que se va a seguir el siguiente procedimiento.
1. Identifiquemos cada distribución inicial de leche con un vector v de R7 , v = (x1 , · · · , x7 ), donde
cada xk denota la cantidad de leche en la taza k. La distribución realizada por cada uno de los
enanitos puede ser interpretada como una aplicación lineal tk , (k = 1, · · · , 7) de R7 en sı́ mismo.
Describe cada tk por la matriz Tk asociada respecto de la base canónica.

P7 resuelto hallando un vector u de R ,u = (a1 , · · · , a7 ), tal que


2. Explica por qué el problema queda 7

t(u) = u con t = t7 · · · t1 y k=1 ak = 3.


3. Mediante las instrucciones que aparecen en el primero de los cuadros siguientes puedes realizar
el cálculo efectivo del vector u del apartado anterior utilizando Maple.
4. En este apartado se da un método alternativo para el cálculo del vector u.
• Sea p : R7 ! R7 la aplicación lineal definida por la matriz (respecto de la base canónica)
P = (pij ) donde p71 = 1, pi,i+1 = 1 y pij = 0 en el resto de los casos. ¿Qué efecto produce
sobre las tazas la matriz P ? Determina A = P · T1 y describe el efecto producido al
aplicar siete veces consecutivas el endomorfismo s de R7 definido por A (es decir, el efecto
producido por s7 ). ¿El procedimiento s7 y el procedimiento original, t, tienen el mismo
efecto? ¿Calcular elPvector u del segundo apartado es equivalente a calcular un vector
u 2 ker(s7 I) con 7k=1 ak = 3? Para dar respuesta a esto, ayúdate de Maple (segundo
cuadro)
3.6. PROBLEMAS DE LA TEORÍA DEL ENDOMORFISMO 105

• En el ejercicio 3.1.1.10 se probó que :


(a) El polinomio caracterı́stico de A es pA (X) = 16 X(7X 6 r(X)) siendo r(X) = X 6 +
X 5 + · · · + X 2 + X + 1, y r(↵) 6= 0 donde ↵ es cualquier valor propio de A
(b) La matriz A6 + A5 + · · · + A2 + A + I es inversible.
(c) ker(s7 I) = ker(s I) = h{(6, 5, 4, 3, 2, 1, 0)}i,
lo que reuelve también el problema.

Este ejercicio aparece, sin las aplicaciones de Maple, en el libro Abstract Algebra with Applications
de Karlheinz Spindler.

Problema 3.6.24
Un inversor desea abrir tres cuentas A1 , A2 y A3 con cantidades iguales. Dichas cuentas tienen una
ganancia anual del 6%, 8% y 10% respectivamente. Al final de cada año la póliza del inversor invierte
1/3 del dinero ganado en A2 y 2/3 del dinero ganado en A3 en A1 , y 1/3 del dinero ganado en A3 en
A2 .

1. Escribe el sistema de ecuaciones que representa la cantidad invertida en cada cuenta después de
n años.

2. Expresa la cantidad de dinero de cada cuenta en el año n en términos de la cantidad invertida


inicialmente en cada cuenta.

3. Estimar el número de años para conseguir en A1 una cantidad doble a la inicial.

Este ejercicio aparece en el libro Interactive Linear Algebra with MAPLE V de Deeba/Gunawardena.

Problema 3.6.25
Se considera la matriz 0 1
1 0 2
@
A= 0 1 0A
0 0 1
Halla una base de R3 en la que la misma se represente mediante la forma canónica de Jordan.

Problema 3.6.26
Sea V = C3 y f : V ! V una aplicación lineal cuya matriz respecto de la base canónica de V es
0 1
1 1 2
A = @1 3 3A
0 0 1

Se pide:

a) Calcular polinomios caracterı́stico y mı́nimo de f . ¿Es f diagonalizable?

b) Determina la descomposición de V como suma directa de subespacios f -invariantes de acuerdo


con la descomposición del polinomio mı́nimo obtenida en a).
106 LECCIÓN 3. LA TEORÍA DEL ENDOMORFISMO

c) A partir de la descomposición de V obtenida en la parte b), determina una base B de V tal que
la matriz de f respecto de B esté en la forma de Jordan.

Problema 3.6.27
Halla las formas canónicas de Jordan de las matrices
0 1
3 0 0
@a 3 0 A
b c 2
para los distintos valores de los parámetros a, b y c.

Problema 3.6.28
Sea f : R4 ! R4 un endomorfismo y
0 1
1 0 1 0
B 1 1 4 0 C
A=B
@ 1
C
0 3 0 A
1 0 4 1

la matriz asociada a f cuando en R4 se considera la base canónica y (X 2)2 (X + 1)2 el polinomio


caracterı́stico de f .
a) Determina el polinomio mı́nimo de f .

b) Calcula base y dimensión de los subespacios V1 = ker((f 2I)2 ) y V2 = ker(f + I) de R4 .

c) Comprueba que f (V1 ) ⇢ V1 y determina la forma de Jordan del endomorfismo b : V1 ! V1 siendo


b(w) = f (w).

Problema 3.6.29
Obtén las formas de Jordan de las matrices siguientes:
0 1 0 1
0 0 0 1 6 6 6 6 0 1
B1 C B 1 1 2
0 0 1C 3 3 3 3C
A=B @0 B=B C C=@ 1 3 1A
1 0 1A @ 2 2 2 2 A
2 1 5
0 0 1 1 1 1 1 1

Problema 3.6.30
Sea f un endomorfismo de R4 donde la matriz asociada a f respecto de la base canónica es
0 1
1 0 0 0
B0 2 1 0C
A=B @0 1 4
C
0A
0 0 0 2
3.6. PROBLEMAS DE LA TEORÍA DEL ENDOMORFISMO 107

a) ¿Son subespacios f -invariantes U = h{e1 }i, W = h{e2 , e3 }i y T = h{e4 }i?

b) Da una base de R4 respecto de la cuál la matriz asociada a f sea la forma canónica de Jordan.
¿Cómo es dicha matriz?

Problema 3.6.31
Si la forma de Jordan de una matriz A es
0 1
2 1 0 0 0
B0 2 0 0 0C
B C
J =B
B0 0 4 0 0CC
@0 0 0 4 1A
0 0 0 0 4

¿quién es dim ker(A 4I5 )?

Problema 3.6.32
Sea f : R5 ! R5 un endomorfismo cuya matriz asociada respecto de la base canónica es
0 1
2 1 0 0 0
B 1 0 0 0 0C
B C
A=B B 0 0 2 1 0C C
@ 0 0 1 0 0A
0 0 0 0 1

a) Demuestra que los subespacios U = h{e1 , e2 }i, W = h{e3 , e4 }i, T = h{e5 }i son subespacios
f –invariantes.

b) Sea fU la restricción de f al subespacio U . ¿Cuál es la matriz asociada a fU respecto {e1 , e2 }?


Calcula una base de U respecto de la cual la matriz asociada a fU tenga la forma canonica de
Jordan.

c) Sin hacer más cálculos que los ya realizados, da una base de R5 respecto de la cuál la matriz
asociada a f sea la forma canónica de Jordan.

d) ¿Cuál es el polinomio mı́nimo de f ? ¿Cuál es la dimensión del espacio fundamental asociado al


valor propio 1?

Problema 3.6.33
Sea f : R3 ! R3 un endomorfismo cuya matriz asociada respecto de la base canónica es
0 1
0 2 0
A = @2 4 0A
0 0 2

Se pide:
108 LECCIÓN 3. LA TEORÍA DEL ENDOMORFISMO

a) Determinar una base de R3 respecto de la cuál la matriz asociada a f sea la forma canónica de
Jordan. Da la matriz de Jordan asociada a f.

b) Sea h : R6 ! R6 un endomorfismo cuya matriz asociada respecto de la base canónica es


✓ ◆
A 0
B=
0 A

siendo A la matriz de arriba y 0 la matriz nula 3 ⇥ 3. Con ayuda de los apartados anteriores,
determinar

- una base de R6 respecto de la cuál la matriz asociada a h sea la forma canónica de Jordan,
- la matriz de Jordan asociada a h, y
- el polinomio caracterı́stico, el polinomio mı́nimo de h y dim ker(h 2I).

Problema 3.6.34
Sea f : R6 ! R6 un endomorfismo y B = {e1 , e2 , e3 , e4 , e5 , e6 } la base canónica de R6 . La matriz
asociada a f respecto de B es
0 1
1 0 0 1 0 1
B0 1 0 0 1 0 C
B C
B0 0 2 0 0 0 C
A=BB0
C
B 0 0 0 0 1CC
@0 1 0 0 1 0 A
0 0 0 1 0 2

a) Demuestra que los subespacios U = h{e1 , e4 , e6 }i, W = h{e2 , e5 }i, y T = h{e3 }i son f - invari-
antes.

b) Halla la matriz asociada a f respecto de la base B1 = {e1 , e4 , e6 , e2 , e5 , e3 }.

c) Determina una base B2 de R6 respecto de la cuál la matriz asociada a f sea de Jordan. Da dicha
matriz.

d) Calcula el polinomio caracterı́stico y el polinomio mı́nimo de f .

Problema 3.6.35
Sea A una matriz real 18 ⇥ 18 tal que 3A2 + 2A + I = (0), donde I es la matriz identidad 18 ⇥ 18 y
(0) es la matriz nula 18 ⇥ 18.

a) Comprueba que A es regular hallando su inversa.

b) ¿Quién es el polinomio mı́nimo de A? Determina el polinomio caracterı́stico de A.


3.6. PROBLEMAS DE LA TEORÍA DEL ENDOMORFISMO 109

Problema 3.6.36
Sea f : R4 ! R4 un endomorfismo tal que

• f (1, 1, 0, 0) = (0, 1, 0, 1)

• f (1, 0, 1, 0) = (1, 1, 1, 0)

• ker(f ) = Im(f )

Se pide:

1. Hallar la matriz asociada a f respecto de la base canónica.

2. Obtener los subespacios de vectores propios asociados a f y decidir si f es o no diagonalizable.

Problema 3.6.37
Sea f : R5 ! R5 un endomorfismo y M su matriz asociada respecto de la base canónica
0 1
0 0 0 0 0
B0 0 0 0 0C
B C
M =BB1 1 0 0 0C C
@0 0 0 1 1A
0 0 0 4 3

Se pide:

1. Teniendo en cuenta la matriz M , mostrar dos subespacios U y W de R5 f -invariantes y tales


que dim U = 3 y dim W = 2.

2. Determinas una base de R5 respecto de la cuál la matriz asociada a f tenga la forma canónica
de Jordan. Da dicha matriz.

3. La matriz M 1000 M 999 , ¿es la matriz nula 5 ⇥ 5?

Problema 3.6.38
Sea f : R4 ! R4 un endomorfismo tal que

• f (1, 1, 0, 0) = (0, 1, 0, 1)

• f (1, 0, 1, 0) = (1, 1, 1, 0)

• f 2 = IR4 (la aplicación identidad en R4 )

Se pide:

1. Hallar la matriz asociada a f respecto de la base B = {v1 = (1, 1, 0, 0), v2 = (1, 0, 1, 0), v3 =
(0, 1, 0, 1), v4 = (1, 1, 1, 0)} .

2. Obtener los subespacios de vectores propios asociados a f y dı́ si f es o no diagonalizable.


110 LECCIÓN 3. LA TEORÍA DEL ENDOMORFISMO

3. ¿Qué condición de las dadas en el enunciado te permitirı́a decir, sin realizar ningún otro cálculo,
si f es o no diagonalizable ? ¿Por qué?

Problema 3.6.39
Define de R3 en R3 tres endomorfismos: f1 , f2 y f3 , tales que el polinomio caracterı́stico de todos ellos
sea (x 2)3 , y cuyas formas de Jordan sean todas distintas.
Si p(X) es el polinomio mónico de menor grado tal que p(f1 ), p(f2 ) y p(f3 ) son la aplicación nula en
R3 , ¿quién es p(X)?

Problema 3.6.40
En R4 se considera un endomorfismo f del que se sabe:

• f (e1 ) = e1 + e2

• ker(f ) = h{e1 + e2 , e3 + e4 }i

• h{e3 , e4 }i es f -invariante

• X 1 es un factor del polinomio caracterı́stico

• f (e1 + e3 ) está en el subespacio h{e1 , e2 , e3 }i

Se pide:

1. Determinar la matriz asociada a f respecto de la base canónica.

2. ¿Es f diagonalizable? ¿Cuál es su polinomio mı́nimo?

3. Determinar su forma canónica de Jordan.

Problema 3.6.41
Se considera la matriz n ⇥ n siguiente:
0 0 1 0 0 ......... 0 0 1
B 0 0 1 0 ......... 0 0 C
B .. .. .. .. .. .. C
B . . . . . . C
B . .. .. .. .. .. C
B . C
B . . . . . . C
M = B .. .. .. .. .. .. C
B . . . . . . C
B . .. .. .. .. .. C
B .. . . . . . C
B C
@ 0 0 0 0 ......... 0 1 A
a0 a1 a2 a3 ......... an 2 an 1

1. Prueba que el polinomio caracterı́stico de M es X n + an 1X


n 1 + . . . + a1 X + a0 .

2. Demuestra que si ↵ es una raiz del polinomio caracterı́stico de M , entonces el vector (1, ↵, ↵2 , . . . , ↵n 1)

es un vector propio asociado al valor propio ↵.


3.6. PROBLEMAS DE LA TEORÍA DEL ENDOMORFISMO 111

Problema 3.6.42
Sea A una matriz no nula 1001 ⇥ 1001 tal que A3 = 4A.
1. Estudia para qué valores de ↵ el sistema de ecuaciones siguiente puede tener solución no trivial,
es decir distinta de la nula. 0 1 0 1
x1 ↵x1
B x2 C B ↵x2 C
A·B C B
@ ... A = @ ... A
C

x1001 ↵x1001
2. Describe las posibles formas de Jordan de la matriz A

Problema 3.6.43
Se considera la siguiente matriz de tamaño n ⇥ n: M = (aij ) donde aij = 0 si i 6= j y aii = i para
1  i  n. Sea f : Rn ! Rn el endomorfismo que respecto de la base B = {en , en 1 , . . . , e1 } tiene por
matriz asociada a M .
1. ¿Cuál es la matriz M 0 asociada a f respecto de la base canónica Bc = {e1 , e2 , . . . , en }?

2. Determina las matrices P y P 1 tales que M 0 = P 1M P ,

3. Halla los polinomios mı́nimos de M y P . ¿Es P diagonalizable?

Problema 3.6.44
Se considera la siguiente matriz de tamaño n ⇥ n: M = (aij ) donde aij = 0 si i 6= j y aii = i4 para
1  i  n. Halla una matriz A tal que A2 = M

Problema 3.6.45
Se considera el endomorfismo f de R7 que respecto de la base canónica tiene por matriz asociada la
siguiente: 0 1
1 1 0 0 0 0 0
B 0 0 1 0 0 0 0C
B C
B 1 1 1 0 0 0 0C
B C
B 0 0 0 2 0 0 0C
B C
B 0 0 0 0 1 0 0C
B C
@ 0 0 0 0 1 2 1A
0 0 0 0 1 1 0
1. Determina una base de R7 respecto de la cuál la matriz asociada a f sea de Jordan.

2. Halla el polinomo caracterı́stico y el polinomio mı́nimo de f .


112 LECCIÓN 3. LA TEORÍA DEL ENDOMORFISMO

Problema 3.6.46
Sea f : R5 ! R5 un endomorfismo tal que la matriz asociada a f respecto de la base canónica es
0 1
0 0 0 0 0
B1 1 1 0 0 C
B C
M =B B 1 1 1 0 0 C C
@0 0 0 1 1A
0 0 0 1 1

1. Determina Ker(f ).

2. En una base de Ker(f ) intercala vectores de la base canónica de R5 para obtener una base B de
R5 tal que la matriz asociada a f respecto B tenga forma de Jordan. Da esa matriz de Jordan.

3. Describe y utiliza otro método diferente al anterior para obtener una base respecto de la cuál la
matriz asociada a f tenga forma de Jordan. Da la matriz de Jordan respecto de esa base.

Problema 3.6.47
Sean U1 y U2 los subespacios de R5 siguientes:

U1 =< {e1 , e2 , e3 } > U2 =< {e4 , e5 } >

Sea f1 un endomorfismo de U1 y f2 un endomorfismo de U2 , tales que las formas de Jordan respectivas


son 0 1
0 0 0 ✓ ◆
0 1
J1 = @ 0 0 1 A J2 =
0 0
0 0 0
Determina la forma de Jordan, el polinomio mı́nimo y el polinomio caracterı́stico de la aplicación
h : R5 ! R5 para la que U1 y U2 son subespacios h-invariantes y tal que la restricción de h a U1 es
f1 + IU1 y h a U2 es f2 2IU2 .

Problema 3.6.48
Sea f : R8 ! R8 un endomorfismo y Bc = {e1 , · · · , e8 } la base canónica de R8 . Se sabe que U =<
{e1 , e3 , e5 } >, W =< {e2 , e4 , e6 } > y T =< {e7 , e8 } > son subespacios f -invariantes. Sean fU , fW y
fT las restricciones de f a U , W y T respectivamente.

1. Sabiendo que 0 1
1 1 0
MBU (fU ) = @ 1 1 0A
0 1 0
siendo BU = {e1 , e3 , e5 } >, determina una base de U respecto de la cuál la matriz asociada a fU
sea de Jordan. Da dicha matriz.

2. Teniendo en cuenta el apartado anterior y sabiendo que el polinomio mı́nimo de fW es (X 1)2 y


el polinomio mı́nimo de fT es X, determina la forma de Jordan de f , su polinomio caracterı́stico
y su polinomio mı́nimo.
3.6. PROBLEMAS DE LA TEORÍA DEL ENDOMORFISMO 113

Problema 3.6.49
La posición en el plano de una masa puntual en el instante t viene dada por (x(t), y(t)). Si (x0 (t), y 0 (t))
es su vector velocidad, halla la función x(t) en cada uno de los casos siguientes, en los que se establecen
las condiciones que satisface cada una de dichas funciones.

1. x0 = y, y 0 = x, x(0) = 1, y(0) = 0

2. x0 = y, y 0 = x, x(0) = 0, y(0) = 1

3. x0 = ax + y, y 0 = y, x(0) = 0, y(0) = 1

Problema 3.6.50
Halla el término general de la sucesión {xn }1
n=1 de Fibonacci sabiendo que xn = xn 1 + xn 2, x0 = 1,
x1 = 1.

Problema 3.6.51
Sea ✓ ◆
7 6
A= .
5 4
Determinar, si existe, una matriz B (con las mismas dimensiones que A) tal que B 2 = A.
114 LECCIÓN 3. LA TEORÍA DEL ENDOMORFISMO
Lección 4

Geometrı́a Euclı́dea

4.1 Producto escalar y ortogonalidad


En esta primera sección vamos a tratar de generalizar a un espacio vectorial real de dimensión finita
conceptos conocidos por el estudiante en los casos de R2 y R3 : producto escalar, vectores ortogonales,
subespacios ortogonales, · · ·.

Definición 4.1.1
Sea V un R-espacio vectorial n-dimensional, y · : V ⇥ V ! R una aplicación por la cuál la imagen
de un par (v, w) va a denotarse por v · w. Se dice que · es un producto escalar o un producto interno
si verifica cada una de las condiciones siguientes, donde v, w, u son vectores cualesquiera de V y ↵,
elementos cualesquiera de R:
i) v · w = w · v
ii) (↵v + u) · w = ↵v · w + u · w, v · (↵w + u) = ↵v · w + v · u
iii) v · v 0, y v · v = 0 si y sólo si v = 0.
Un espacio vectorial real sobre el que se considera un producto escalar recibe el nombre de espacio
vectorial euclideo.

También es habitual denotar un producto escalar definido en V por <, > y el producto escalar de
los vectores v, w por < v, w >.

Ejemplo 4.1.1

• Si v = (x1 , · · · , xn ) y w = (y1 , · · · , yn ) son vectores cualesquiera de Rn , podemos definir v · w =


x1 y1 + · · · + xn yn . La aplicación · : Rn ⇥ Rn ! R ası́ definida es un producto escalar en Rn ,
denominado producto escalar habitual o producto escalar estandar.
R1
• Sea V = R3 [x] y · la aplicación definida de V ⇥ V en R por p(x) · q(x) = 0 p(x)q(x)dx. Tal
aplicación es un producto interno. La comprobación de las propiedades i) y ii) exigidas a un
producto interno es inmediata para este caso. Para la prueba de la condición iii) obsérvese lo
siguiente.
Z 1
p(x) · p(x) = p(x)2 dx
0

donde p(x)2 0, 8x 2 [0, 1]. Si p(x) no es la función nula, p(x0 )2 > 0 para algún x0 2 [0, 1]. La
función p(x) es continua por tanto p(x)2 > 0 para todo número x de un entorno de x0 contenido
2

115
116 LECCIÓN 4. GEOMETRÍA EUCLÍDEA

en el intervalo [0, 1]. En ese entorno la función p(x)2 ”encierra una área positiva”. Por tanto si
p(x) 6⌘ 0,
Z 1 Z x0 +✏
2
p(x) · p(x) = p(x) dx p(x)2 dx > 0
0 x0 ✏

Sea V un espacio vectorial real con un producto escalar ” · ”. Para todo vector v 2 V se verifica
· v > 0 si v 6= 0, por lo que tiene sentido hablar de una aplicación k · k : V ! R definida
que kvk2 = vp
p
por kvk = + kvk2 = v · v, y que recibe el nombre de aplicación norma.
Definición 4.1.2
En las condiciones anteriores, se llama norma de un vector v al número kvk. Si kvk = 1, el vector v
se llama vector unitario.
Algunas propiedades relativas a la norma están recogidas en la siguiente proposición.
Proposición 4.1.1

1. kvk 0 8v 2 V y kvk = 0 , v = 0

2. k↵vk = |↵|kvk, 8v 2 V, 8↵ 2 R. Ası́, para todo vector v no nulo, se tiene que el vector v/kvk es
unitario.

3. |v · w|  kvk · kwk, 8v, w 2 V . Esta desigualdad es conocida como desigualdad de Schwarz.

4. kv + wk  kvk + kwk, 8v, w 2 V . Este resultado se conoce por desigualdad triangular.


Demostración
Los dos primeros puntos se extraen de la propia definición. Para probar el tercero de los puntos
consideramos el vector ↵v w:

↵=kwk2 , =v·w
k↵v wk2 = (↵v w) · (↵v w) = |↵|2 kvk2 + | |2 kwk2 2↵ v · w =
k·k2 0
= kwk2 (kwk2 kvk2 (v · w)2 ) 0
Por tanto kwk2 kvk2 (v · w)2 0, de donde se deduce 3.
La demostración de 4:

kv + wk2 = (v + w) · (v + w) = kvk2 + kwk2 + 2v · w 

 kvk2 + kwk2 + 2|v · w|  kvk2 + kwk2 + 2kvk · kwk = (kvk + kwk)2

Definición 4.1.3
Sea V un espacio vectorial euclı́deo de dimensión n.
1. Si u y v son dos vectores no nulos de V tales que u · v = 0, se dice que u y v son ortogonales.

2. Si U es un subespacio vectorial de V , se llama conjunto ortogonal a U al conjunto U ? = {v 2


V /u · v = 0, 8u 2 U }

La proposición siguiente recoge algunas propiedades relativas a estos conceptos.

Proposición 4.1.2
Sea V un espacio euclı́deo.
4.1. PRODUCTO ESCALAR Y ORTOGONALIDAD 117

1. Si {v1 , v2 , · · · , vr } es una familia de vectores no nulos de V y ortogonales dos a dos, entonces


v1 , v2 , · · · , vr son linealmente independientes.

2. Si U es un subespacio de V , U ? es subespacio de V (subespacio ortogonal a U ).

Demostración
Si partimos de una combinación lineal nula de dicha familia: ↵1 v1 + · · · + ↵r vr = 0, al multiplicar
escalarmente esa combinación lineal por cada vi , obtenemos que ↵i = 0.
Para probar la segunda afirmación: Si v, w son vectores de U ? , (↵v + w)·u = ↵(v ·u)+ (w·u) = 0
donde u es cualquier vector de U . De donde se deduce que ↵v + w 2 U ? .
El procedimiento de ortonormalización de Gram-Schmidt, que a continuación se presenta, permite
determinar una base constituida por vectores ortogonales dos a dos partiendo de cualquier base de V .
Una vez obtenida esa base, sin más que dividir a cada vector por su norma, contaremos con una base
formada por vectores ortogonales dos a dos y todos ellos de norma 1. Este procedimiento garantiza
que la siguiente definición no carece de sentido.

Definición 4.1.4
Sea V un espacio vectorial euclideo, y B una base de V . Se dice que B es ortogonal si está formada
por vectores ortogonales dos a dos. Si además todos los vectores de una base ortogonal son de norma
1, la base recibe el nombre de ortonormal.

Ejemplo 4.1.2
La base canónica de R3 es ortonormal, y no lo es la base canónica de R3 [x]

En el ejemplo que aparece seguidamente se detalla el procedimiento de Gram-Schmidt para un


caso concreto. En la proposición que sigue a tal ejemplo se muestra ese mismo procedimiento en el
caso general.

Ejemplo 4.1.3 R1
Consideremos el espacio vectorial real V = R2 [x] con el producto escalar < p(x), q(x) >= 0 p(x)q(x)dx.
Sea B = {v1 = 1, v2 = x, v3 = x2 } la base canónica de V , que no es ortonormal para dicho producto.
Se quiere construir una base ortonormal B ⇤ = {u1 , u2 , u3 } tal que

h{u1 }i = h{v1 }i, h{u1 , u2 }i = h{v1 , v2 }i, h{u1 , u2 , u3 }i = h{v1 , v2 , v3 }i (4.1)

En un principio vamos a tratar de construir una base ortogonal B 0 = {w1 , w2 , w3 } verificando la


propiedad 4.1. El que los vectores tengan norma 1 tiene fácil arreglo posterior. Si w1 = v1 , se verifica
la primera condición de 4.1.
Siendo w1 = v1 ,

h{w1 , w2 }i = h{v1 , v2 }i , w2 = ↵w1 + v2 con 6= 0

Se puede tomar = 1. Si w2 = ↵w1 + v2 e imponemos que w1 y w2 sean ortogonales, se deduce que


w1 · v2 w1 · v2 < 1, x >
↵= 2
. Sea entonces w2 = v2 + ↵w1 con ↵ = 2
= .
kw1 k kw1 k kw1 k2
Teniendo en cuenta la forma de estar definidos w1 y w2 ,

h{w1 , w2 , w3 }i = h{v1 , v2 , v3 }i , w3 = ↵w1 + w2 + v3 con 6= 0.

Podemos hacer = 1.
118 LECCIÓN 4. GEOMETRÍA EUCLÍDEA

Si w3 = ↵w1 + w2 + v3 , imponiendo ortogonalidad entre w1 y w3 , y w2 y w3 , se deduce que


w1 · v3 w2 · v3
↵= y =
kw1 k2 kw2 k2

Por tanto:
w1 = 1 y kw1 k2 = 1
< 1, x > 1 1
w2 = x 1=x , kw2 k2 =
kw1 k2 2 12
1 2
< 1, x 2 > <x ,x > 1 1 1
w 3 = x2 · 1 2 · (x ) = x2 + x, kw3 k2 =
kw1 k 2 kw2 k 2 2 6 180
wi
Si hacemos ui = , B ⇤ = {u1 , u2 , u3 } es una base ortonormal de V que verifica la condición 4.1
kwi k
(por verificarla B 0 = {w1 , w2 , w3 }).
p 1 p 1
u1 = 1, u2 = 2 3( + x), u3 = 6 5( x + x2 )
2 6
El ejemplo anterior explica en gran medida la forma de actuar en el caso general.

Proposición 4.1.3 Procedimiento de ortonormalización de Gram-Schmidt


Si B = {v1 , · · · , vn } es una base del espacio vectorial euclı́deo V , se puede construir una base ortonor-
mal B ⇤ = {u1 , · · · , un } tal que h{v1 , · · · , vi }i = h{u1 , · · · , ui }i, i = 1, · · · , n

Demostración
Basta probar la existencia de una base ortogonal B 0 = {w1 , · · · , wn } verificando la condición
h{v1 , · · · , vi }i = h{w1 , · · · , wi }i, i = 1, · · · , n. Para conseguir la base del enunciado basta hacer
wi
ui = .
kwi k
Si n = 1, el resultado es inmediato.
Supongamos que n 2. Sea w1 = v1 y wi = vi + ↵1 w1 + · · · + ↵i 1 wi 1 para i = 2, · · · , n siendo
vi · wk
↵k = .
kwk k2
Probemos por recurrencia que los vectores wi0 s satisfacen las condiciones pedidas.
Es fácil comprobar que w1 · w2 = 0 y h{v1 , v2 }i = h{w1 , w2 }i. Supuesto que las propiedades son
ciertas para w1 , · · · , wi 1 , vamos a verlo para w1 , · · · , wi 1 , wi .
Multiplicamos escalarmente wi por wk para k = 1, · · · , i 1.
vi · wk
wi · wk = vi · wk + (↵1 w1 + · · · + ↵i 1 wi 1 ) · w k = vi · w k + ↵k w k · w k = vi · w k kwk k2 = 0
kwk k2

De h{v1 , · · · , vi 1 }i = h{w1 , · · · , wi 1 }i, wi 2 h{v1 , · · · , vi }i y vi 2 h{w1 , · · · , wi }i, se deduce que


h{v1 , · · · , vi }i = h{w1 , · · · , wi }i.

Proposición 4.1.4
Sea V un espacio vectorial euclı́deo.

1. Si U es un subespacio de V , y U ? es su ortogonal, entonces V = U U ? . Además (U ? )? = U .

2. Si B = {u1 , · · · , un } es una base ortonormal de V , las coordenadas (↵1 , · · · , ↵n ) de un vector


v 2 V respecto de B vienen dadas por ↵i = v · ui , 8i.
4.1. PRODUCTO ESCALAR Y ORTOGONALIDAD 119

3. Si B = {u1 , · · · , un } es una base ortonormal de V , y v, w 2 V tienen coordenadas (↵1 , · · · , ↵n ) y


( 1 , · · · , n ) respecto de B, v · w = ↵1 1 + · · · + ↵n n y kvk2 = ↵12 + · · · + ↵n2

Demostración
Para probar el primero de los apartados:
i) Si u 2 U \ U ? , u · u = 0. Por tanto u = 0 y U \ U ? = 0.

ii) Sea BU = {v1 , · · · , vl } una base de U , que ampliamos a una de V : BV = {v1 , · · · , vl , · · · , vn }. Si


aplicamos Gram-Schmidt a BV , obtenemos una base ortonormal

BV0 = {u1 , · · · , ul , ul+1 , · · · , un }

donde BU0 = {u1 , · · · , ul } es base de U .


Es inmediato que < {ul+1 , · · · , un } >⇢ U ? , lo que implica que dim U ? n l. Como:
U \U ? =0
n = l + (n l)  dim U + dim U ? = dim(U + U ? )  n

dim U ? = n l y < {ul+1 , · · · , un } >= U ? . En consecuencia, V = U + U ? .

iii) Es obvio que U ⇢ (U ? )? , y teniendo en cuenta que V = U U ? = (U ? )? U ? es obligado que


(U ? )? = U .
Para probar el punto 2, escribimos v = ↵1 u1 + · · · + ↵n un y multiplicamos escalarmente por cada ui .
Para la última de las afirmaciones basta realizar dicho producto escribiendo v y w en función de
la base ortonormal.
Este resultado nos permite definir en V la aplicación proyección sobre U en la dirección de U ? . El
estudio detallado de dicha proyección, como el de algunas de sus aplicaciones es tratado en la siguiente
sección.

4.1.1 Ejercicios
Ejercicio 4.1.1.1
Se considera la aplicación
<, >: R3 ⇥ R3 ! R
que a cada par de vectores (v, w) con v = (x1 , x2 , x3 ) y w = (y1 , y2 , y3 ) le asocia el número
0 10 1
3 2 0 y1
< v, w >= ( x1 x2 x3 ) 2 @ 4 0 A @ y2 A
0 0 0 y3

¿Es <, > un producto escalar sobre R3 ?

Ejercicio 4.1.1.2
Se considera la aplicación
<, >: R3 ⇥ R3 ! R
que a cada par de vectores (v, w) con v = (x1 , x2 , x3 ) y w = (y1 , y2 , y3 ) le asocia el número
0 10 1
3 2 0 y1
< v, w >= ( x1 x2 x3 ) @ 2 4 0 A @ y2 A
0 0 1 y3
120 LECCIÓN 4. GEOMETRÍA EUCLÍDEA

1. ¿Es <, > un producto escalar sobre R3 ?


2. En caso de haber respondido afirmativamente a la pregunta anterior, obtén el subespacio U ?
cuando U = {(x, y, z) 2 R3 tal que x + y + z = 0}

Ejercicio 4.1.1.3
Se considera el siguiente producto escalar sobre V = R3

<, >: R3 ⇥ R3 ! R

que a cada par de vectores (v, w) con v = (x1 , x2 , x3 ) y w = (y1 , y2 , y3 ) le asocia el número
0 10 1
2 0 0 y1
< v, w >= ( x1 x2 x3 ) 0 @ 2 1 A @ y2 A
0 1 2 y3

1. Sea Bc = {e1 , e2 , e3 } la base canónica de R3 . Comprueba que < ei , ej > es el término del lugar
(i, j) de la matriz 0 1
2 0 0
@0 2 1A
0 1 2
2. ¿Es Bc una base ortogonal con el producto escalar considerado?
3. ¿Quién es el subespacio ortogonal a U =< {e2 , e3 } >?
4. ¿Quién es el subespacio ortogonal a W =< {e1 , e2 } >?
5. Usando el procedimiento de Gram-Schmidt obtén, a partir de la base Bc , una base ortonormal
(con el producto escalar considerado).

Ejercicio 4.1.1.4
Se considera el espacio vectorial euclı́deo V = R3 con el producto escalar estándar. Sea U = {(x, y, z) 2
R3 tal que x + 2y + 3z = 0}
1. Determina U ? .
2. Escribe el vector v = (1, 2, 3) 2 R3 como suma de un vector u 2 U y de un vector u0 2 U ? .
El vector u recibe el nombre de proyección ortogonal de v sobre U y se escribe u = pU (v).
El vector u0 recibe el nombre de proyección ortogonal de v sobre U ? y se escribe u0 = pU ? (v).
3. Escribe cualquier vector de V = R3 como suma de un vector u 2 U y de un vector u0 2 U ?
(u = pU (v) y u0 = pU ? (v)).

Ejercicio 4.1.1.5
Se considera el espacio vectorial euclı́deo V = R4 con el producto escalar estándar. Sea U =
{(x, y, z, t) 2 R4 tal que x + 2y + 3z = 0, t = 0}
1. Determina una base ortonormal de U .
2. Sea B ⇤ = {u1 , u2 , u3 , u4 } una base ortonormal de V tal que {u1 , u2 } sea la base de U hallada en
el apartado anterior.
· ¿Es {u3 , u4 } una base de U ? ?
· Si un vector v tiene coordenadas (↵1 , ↵2 , ↵3 , ↵4 ) respecto B ⇤ , ¿es cierto que ↵i coincide con el
producto escalar de ui y v?
4.2. PROYECCIÓN ORTOGONAL 121

3. Teniendo en cuenta los resultados anteriores, y sin determinar explı́citamente una base de U ? ,
halla pU (v) para v = (1, 2, 1, 2).

Ejercicio 4.1.1.6
Sea A una matriz real 7 ⇥ 7, cuyas columnas forman una base de R7 , y sea B la matriz que tiene por
columnas los vectores de R7 que se obtienen de aplicar Gram-Schmidt a las columnas de A. ¿Cuáles
de las siguientes afirmaciones son verdaderas?

1. El subespacio generado por la tercera columna de A y el subespacio generado por la tercera


columna de B son el mismo.

2. El subespacio generado por las tres primeras columnas de A y el subespacio generado por las
tres primeras columnas de B son el mismo.

3. La matriz traspuesta de B coinicide con la matriz inversa de B, esto es B t = B 1.

Ejercicio 4.1.1.7
Sea U el subespacio del espacio vectorial euclı́deo V = R4 siguiente:

U = {(x, y, z, t) 2 R4 /x 2y + 3z t = 0}

Hallar una base ortonormal de U .

Ejercicio 4.1.1.8
En el espacio vectorial euclı́deo V = R4 se considera el subespacio

U =< {(1, 1, 1, 0), (0, 0, 1, 0), (0, 0, 1, 1)} >

Determinar una base ortogonal de U , y un vector v 2 R4 que sea ortogonal a U .

4.2 Proyección ortogonal


Sea V un espacio vectorial euclı́deo, U un subespacio de V y U ? su ortogonal. Puesto que V = U U ? ,
es posible definir la aplicación siguiente:

pU : V ! V definida por pU (v) = u siendo v = u + u0 , u 2 U, u0 2 U ?

conocida como proyección ortogonal sobre U .


Obsérvese que la aplicación

pU ? : V ! V definida por pU ? (v) = u0 siendo v = u + u0 , u 2 U, u0 2 U ?

es la proyección ortogonal sobre U ? puesto que (U ? )? = U


En la proposición que se enuncia a continuación se establecen algunas propiedades de las aplica-
ciones anteriores. Su demostración es sencilla y se deja como ejercicio.

Proposición 4.2.1
En las condiciones anteriores se tiene:

1. Im(pU ) = U , ker(pU ) = U ? , p2U = pU , pU p U ? = 0V .

2. v · pU (w) = pU (v) · w, 8v, w 2 V


122 LECCIÓN 4. GEOMETRÍA EUCLÍDEA

3. IV = pU + pU ? . Resultado conocido como teorema de la proyección.

Ejemplo 4.2.1
Se considera el espacio vectorial euclı́deo R3 con el producto escalar estandar. Sea U = {(x, y, z) 2
R3 /x y + 2z = 0}, y v = (1, 2, 3). Vamos a determinar la proyección ortogonal de v sobre el plano
vectorial U .
Una base de U es BU = {(1, 1, 0), (2, 0, 1)}, y una base de U ? es, como se deduce de la ecuación
que define U , BU ? = {(1, 1, 2)}.
17 4 5
El vector v en la base B = {(1, 1, 0), (2, 0, 1), (1, 1, 2)} tiene coordenadas ( , , ), por tanto
6 3 6
17 4 1 17 4
pU (v) = (1, 1, 0) + ( )(2, 0, 1) = ( , , ).
6 3 6 6 3
5
Simultáneamente podemos determinar pU ? (v) = (1, 1, 2) = v pU (v).
6
En el ejemplo precedente la determinación de pU (v) ha necesitado del cálculo de las bases de U y
de U ? , y de expresar v como combinación lineal de la base unión de ambas. ¿Se reducirı́a el esfuerzo
de conocer una base ortonormal de U ?

Ejemplo 4.2.2
1
Si U es el subespacio del ejemplo anterior, una base ortonormal de él es BU0 = {u1 = p (1, 1, 0), u2 =
2
1
p (1, 1, 1)}, que se ha obtenido aplicando el procedimiento de Gram-Schmidt a la base BU .
3
Si u3 es un vector unitario que genera U ? , {u1 , u2 , u3 } es una base ortonormal de R3 respecto de
la cual las coordenadas de v son (v · u1 , v · u2 , v · u3 ).
3 (1, 1, 0) 4 (1, 1, 1) 1 17 4
Por tanto pU (v) = (v · u1 )u1 + (v · u2 )u2 = p p +( p ) p = ( , , ).
2 2 3 3 6 6 3
Trabajando ası́, la forma de obtener pU ? (v) es calculando v pU (v), puesto que no hemos deter-
minado explı́citamente una base de U ? .
5
En este caso, en el que dim(U ? ) = 1, el cálculo de pU ? (v) = (1, 1, 2), que es un vector no nulo,
6
nos permite establecer una base de U ? . Ello no es posible si dim(U ? ) > 1.

Por tanto, si dado un subespacio U de V , lo que interesa es exclusivamente conocer pU (v) con
v 2 V , uno puede optar por determinar una base ortonormal BU = {u1 , · · · , ul } de U (a la que siempre
se puede llegar aplicando Gram-Schmidt a cualquier base de U ) y tener en cuenta la siguiente

Proposición 4.2.2
Si BU = {u1 , · · · , ul } es una base ortonormal de U , pU (v) = ↵1 u1 + · · · + ↵l ul con ↵i = v · ui .

Demostracion
Sea BV = {u1 , · · · , ul , ul+1 , · · · , un } una base ortonormal de V , donde los l primeros vectores
constituyen la base dada de U , y los restantes una de U ? .
Si escribimos v como combinación lineal de BV : v = ↵1 u1 + · · · + ↵l ul + ↵l+1 ul+1 + · · · + ↵n un con
↵i = v · ui , y por tanto pU (v) = ↵1 u1 + · · · + ↵l ul .
Siempre la obtención de pU (v) nos permite obtener pU ? (v) = v pU (v), aunque no U ? . El
resultado anterior hace innecesario el cálculo de ninguna base de U ? .
Se trata ahora de determinar la proyección ortogonal de un vector de Rn sobre un subespacio U
sin necesidad de obtener, como se ha hecho en situaciones precedentes, una base de U ? o una base
ortonormal de U .
4.2. PROYECCIÓN ORTOGONAL 123

Sea V = Rn con el producto escalar estandar, y sea U un subespacio de V . Consideremos en


V la base canónica y en U la base BU = {u1 , · · · , ul } (no necesariamente ortonormal). El vector
u = pU (v) 2 U tendrá unas coordenadas (↵1 , · · · , ↵n ) respecto de la base canónica y unas coordenadas
( 1 , · · · , l ) respecto de la base BU . En lo que sigue se establece una relación matricial entre las coor-
denadas (x1 , · · · , xn ) de v en la base canónica, (↵1 , · · · , ↵n ) y ( 1 , · · · , l ), que nos permite determinar
automáticamente (↵1 , · · · , ↵n ) y ( 1 , · · · , l ), partiendo de (x1 , · · · , xn ).
Lo primero a tener en cuenta es que si A es la matriz n ⇥ l que tiene por columnas las coordenadas
de los vectores de BU respecto de la canónica, entonces:
0 1
↵1 0 1
B . C 1
B C B . C
B . C = AB C
B C @ . A
@ . A
l
↵n
A es la matriz del homomorfismo inclusión de U en V respecto de las bases BU en U y la canónica en
V , y su rango es obviamente l.
Puesto que v u 2 U ? (v = pU (v) + pU ? (v): teorema de la proyección), se tiene que el producto
escalar de v u y cualquier vector ui 2 BU es cero:
0 1
x1 0 1
B . C 1
B C B . C
(0, .., 0, 1, 0, .., 0) At [B
B . C
C AB
@
C] = 0
A
| {z } @ . A .
i)
l
xn
para i = 1, · · · , l.
De donde se deduce
0 1 0 1 0 1
x1 0 1 0 x1 0 1
B . C 1 B.C B . C 1
B C B . C B C B C B . C
A [B . C
t B
C AB C B C
@ . A] = B . C y A B . C
tB t B C
C = A A@ . A
@ . A @.A @ . A
l l
xn 0 xn
Si la matriz At A es inversible, se tiene:
0 1 0 1 0 1
0 1 x1 ↵1 x1
1 B . C B . C B . C
B . C B C B C B C
B C = (At A) 1 At B . C y B . C = A(At A) 1 tB
A B . C
@ . A B C B C C
@ . A @ . A @ . A
l
xn ↵n xn
Veámos finalmente que la matriz At A es inversible, aunque la prueba está basada en resultados en
aspectos no completamente vistos en este curso.
· At A es simétrica pues cada término cij de la matriz es ui · uj . At A representa pues el producto
escalar en U respecto de la base BU
· El producto escalar en U es no degenerado: Si w 2 U es tal que w · w0 = 0, 8w0 2 U , w · v 0 =
0, 8v 0 2 V puesto que v 0 es suma de un vector de U y uno de U ? . Por tanto w = 0. La matriz At A
es pues de rango l, y en consecuencia inversible.

Ejemplo 4.2.3
124 LECCIÓN 4. GEOMETRÍA EUCLÍDEA

• En este ejemplo se trabaja el mismo caso que en ejemplos anteriores pero desde esta nueva
perspectiva.
Se considera el espacio vectorial euclı́deo R3 con el producto escalar estandar. Sea U =
{(x, y, z) 2 R3 /x y + 2z = 0}, y v = (1, 2, 3). Vamos a determinar la proyección ortogo-
nal de v sobre el plano vectorial U .
Una base de U es BU = {(1, 1, 0), (2, 0, 1)}, por tanto, siguiendo la notación anterior, la matriz
A es: 0 1
1 2
A = @1 0 A
0 1
Si ( 1 , 2 ) son las coordenadas de pU (v) en BU , aplicando la fórmula matricial obtenida anteri-
ormente:
0 1 0 1
✓ ◆ 1 ✓ ◆✓ ◆ 1 ✓ 17 ◆
1 t 1 t@ A 1 5 2 1 1 0 @ A 6
= (A A) A 2 = 2 = 4
2 6 2 2 2 0 1 3
3 3
17 4
De donde pU (v) = 6 (1, 1, 0) +( 1) = ( 16 , 17
3 )(2, 0,
4
6 , 3 ) = (↵
✓ 1 , ↵◆2 , ↵3 ), coordenadas de pU (v)
1
en la base canónica, y que podrı́an haberse obtenido como A .
2
Observar que se podrı́a haber optado por resolver el sistema
0 1
✓ ◆ 1
t 1 t@ A
(A A) =A 2
2
3

en vez de calcular (At A) 1.

• ¿A qué se reduce el cálculo de (At A) 1 cuando el espacio sobre el que se proyecta es una recta
vectorial?

• Sea U un subespacio de Rn y U ? su ortogonal. Utiliza las igualdades matriciales anteriores para


pU (v) y pU ? (v) con el fı́n de probar que p2U = pU y que pU pU ? es la aplicación nula.

Para concluir esta sección vamos a probar que dado un vector v 2 Rn y un subespacio U de Rn ,
”el vector de U que menos difiere de v” es pU (v).

Teorema 4.2.1 De aproximación de la norma


En las condiciones anteriores se verifica:

kv pU (v)k < kv wk 8w 2 U con w 6= pU (v)

Demostración
Si u = pU (v), v w = (v u) + (u w) con v u 2 U ? y u w 2 U , de donde (v u) · (u w) = 0.
En consecuencia, kv wk2 = kv uk2 + ku wk2 . Deduciendo ası́ la tesis del teorema puesto que
ku wk2 6= 0 si y sólo si u = w.
En ese sentido se dice que pU (v) es la mejor aproximación de v en U .
Este último resultado tiene interesantes aplicaciones, algunas de las cuáles se recogen en la sección
próxima.
4.3. APLICACIONES 125

4.3 Aplicaciones
Vamos a estudiar dos problemas concretos en las que están involucrados el teorema de aproximación
de la norma y, en consecuencia, la proyección ortogonal de un vector. Esos problemas son el de
aproximación por mı́nimos cuadrados y la resolución de sistemas sobredimensionados.

4.3.1 Aproximación por mı́nimos cuadrados


Es conocido que en algunos fenómenos fı́sicos las variables que intervienen en su descripción guardan
tal relación entre ellas que dicha relación puede ser expresada mediante una fórmula:

1 2
e = v · t, s = s0 v0 t gt , · · ·
2
En muchos otros fenómenos no es fácil, o no es posible, encontrar fórmulas como las anteriores. En
esos casos se obtienen grandes cantidades de datos, con el objetivo de ajustar una curva a los mismos,
mediante la cuál se establece una relación ”aproximada” entre las variables del problema. Inicialmente
habrı́a que diferenciar dos partes en la resolución del problema en cuestión: una, la decisión de qué
tipo de curva ajustar; otra, encontrar la curva del tipo especı́fico que ”mejor” se ajuste a los datos
dados. A continuación se trata un caso particular de la segunda cuestión: se muestra cómo lograr esa
”mejor aproximación” cuando se tienen dos variables en el problema.
Supongamos que existen n datos: (x1 , y1 ), (x2 , y2 ), · · · , (xn , yn ) y que el tipo de curva por la que
vamos a aproximar viene dado por y = f (x) donde x, y representan las variables que deseamos rela-
cionar y f (x) = mx + b, ax2 + bx + c, · · ·, según el ajuste a realizar sea lineal, cuadrático, · · ·. Lo que
se hace en esta situación es buscar, por ejemplo, la recta y = mx + b que mejor se ajuste a los datos
del problema: ésto es, debemos determinar m y b tal que
n
X
(yi (b + mxi ))2
i=1

sea lo más pequeño posible. A esta búsqueda se denomina ajuste por mı́nimos cuadrados.

Teorema 4.3.1
Sean (x1 , y1 ), (x2 , y2 ), · · · , (xn , yn ) un conjunto de n puntos de R2 tal que no todos los xi coinciden. Si
0 1
1 x1
. .. A
A = @ .. .
1 xn
y
1 0
✓ ◆ y1
b .
= (At A) 1 At @ .. A
m
yn
entonces y = mx + b es la recta que da el mejor ajuste por mı́nimos cuadrados para los puntos
considerados.

Para este caso particular se puede probar la existencia de la inversa de At A viendo que su deter-
minante es no nulo utilizando la desigualdad de Cauchy-Schwarz.
126 LECCIÓN 4. GEOMETRÍA EUCLÍDEA

Teorema 4.3.2
Sean (x1 , y1 ), (x2 , y2 ), · · · , (xn , yn ) un conjunto de n puntos de R2 tal que no todos los xi coinciden. Si
0 1
1 x1 x21
A = ...
@ ..
.
.. A
.
1 xn x2n

y
0 1 10
a y1
@ b A = (At A) 1 t @ .. A
A .
c yn

entonces y = ax2 + bx + c es la parábola que da el mejor ajuste por mı́nimos cuadrados para los puntos
considerados.

La clave de la demostración de estos teoremas se halla en observar que el vector de los coeficioentes
de la recta o de la parábola verificando la condición exigida es justamente la proyección dl vector de
los yi ’s sobre el subespaico de Rn definido por las columnas de A.

4.3.2 Resolución de sistemas de ecuaciones lineales sobredimensionados


Genéricamente los sistemas de ecuaciones lineales con más ecuaciones que incógnitas no tienen ninguna
solución salvo que se verifiquen las hipótesis del Teorema de Rouche-Frobenius. Las técnicas desarrol-
ladas en este capı́tulo mos van a permitir calcular, como en la sección anterior, la mejor pseudosolución,
esto es el punto de Rn que está más proximo de ser una solución del sistema lineal considerado.

Teorema 4.3.3
Sean A una matriz con m filas y n columnas, m n y b un vector columna en Rm . Si

x = (At A) 1
At b

entonces
kAx bk < kAy bk

para todo y 2 Rn tal que y 6= x.

La clave de la demostración de este teorema se encuentra en observar que el vector x verificando la


condición exigida es justamente la proyección de b sobre el subespacio de Rm definido por las columnas
de A.

4.4 Isometrı́as en espacios vectoriales euclı́deos


En la sección anterior se ha definido por espacio vectorial euclı́deo cualquier espacio vectorial real
dotado de un producto escalar. Esta nueva sección comienza con el estudio de las aplicaciones lineales
sobre un espacio vectorial euclı́deo que conservan las normas.
4.4. ISOMETRÍAS EN ESPACIOS VECTORIALES EUCLÍDEOS 127

4.4.1 Definición y primeras propiedades


En lo que sigue V denotará un espacio euclı́deo de dimensión n.
Definición 4.4.1
Sea : V ! V un endomorfismo. Se dice que es una transformación ortogonal o isometrı́a si
conserva la norma, es decir, si k (v)k = kvk para todo v de V .
Observar que de la definición anterior se desprende que toda transformación ortogonal es biyectiva:
Si v 2 Ker( ), k (v)k = k0V k= 0. Puesto que conserva la norma, kvk = 0 y v = 0V . Se deduce
entonces que es inyectiva, y por ser endomorfismo, biyectiva.
• Sea V = R3 con el producto escalar habitual. El endomorfismo : V ! V definido por
(x, y, z) = (x, y, z) es una transformación ortogonal, como puede comprobarse fácilmente.
• Si V el espacio de las
R 1 funciones polinómicas de grado menor o igual que 2 con el producto escalar
< p(x), q(x) >= 0 p(x) · q(x)dx, el endomorfismo IV es, obviamente, una transformación
ortogonal.
• Sea V = Rn , U un subespacio no nulo de V y U ? su ortogonal. El endomorfismo = pU pU ?
de V es una transformación ortogonal:
Si v es un vector cualquiera de V , y u = pU (v) y u0 = pU ? (v), se tiene que (v) = u u0 .
Recordemos que pU + pU ? = IV , y que por tanto v = u + u0 .
Ası́ kvk2 = ku + u0 k2 = kuk2 + ku0 k2 + 2(u · u0 ) = kuk2 + ku0 k2 porque u y u0 son ortogonales.
Usando precisamente que u y u0 son ortogonales, se llega a que k (v)k2 = kuk2 + ku0 k2 .

Proposición 4.4.1
Sea un endomorfismo de V . Las siguientes condiciones son equivalentes:
i) k (v)k = kvk para todo v de V
ii) (u) · (v) = u · v para cualesquiera u, v de V

La implicación ii) =) i) es inmediata. Para probar que i) =) ii), desarrollar k (u + v)k2 y ku + vk2 .

Proposición 4.4.2
Sea un endomorfismo de V , y B = {u1 , · · · , un } una base ortonormal de V . Se tiene:
1. es una transformación ortogonal si y sólo si B 0 = { (u1 ), · · · , (un )} es una base ortonormal
de V .
2. es una transformación ortogonal si y sólo si la matriz MB ( ) es una matriz ortogonal.

Demostración
1. Supongamos que es una transformación ortogonal.
En este caso es biyectiva y por tanto { (u1 ), · · · , (un )} es base. Como conserva el producto
escalar: (ui ) · (uj ) = ui · uj = ij ,(0 si i 6= j, 1 si i = j). Lo que prueba que B 0 es ortonormal.
Supongamos que B 0 = { (u1 ), · · · , (un )} es una base ortonormal de V , y probemos que
conserva la norma.
Sea v un vector cualquiera de V , que se expresará en función de B como v = ↵1 u1 + · · · + ↵n un
(con ↵i = v · ui ). Por ser lineal, (v) = ↵1 (u1 ) + · · · + ↵n (un ) (con ↵i = v · ui = (v) · (ui )
por ser B 0 ortonormal).
P
Por ser B y B 0 ortonormales, kvk2 = n1 ↵i2 = k (v)k.
128 LECCIÓN 4. GEOMETRÍA EUCLÍDEA

2. Se deduce fácilmente del apartado anterior.

Proposición 4.4.3
Si es una transformación ortogonal de V , se verifica que

• Los únicos autovalores reales de son 1 y 1.

• 1 es una transformación ortogonal.

• La composición de con cualquier transformación ortogonal es una transformación ortogonal.

Supongamos que ↵ es un autovalor de , y sea v un vector propio asociado a ↵. Se tiene entonces que
k (v)k = |↵|kvk = kvk =6 0, de donde se obtiene que |↵| = 1, y ↵ = ±1. Queda ası́ probado el primero
de los apartados. La prueba de los dos últimos apartados no entraña ninguna dificultad.

4.4.2 Transformaciones ortogonales en un espacio de dimensión 2


En esta parte del capı́tulo vamos a determinar la forma más sencilla de expresar matricialmente una
transformación ortogonal. Comenzaremos con el caso de dimensión 2, que utilizaremos posteriormente
para espacios de dimensión finita cualquiera.

Proposición 4.4.4
Sea V un espacio vectorial euclı́deo de dimensión 2, y una transformación ortogonal definida en V .
Existe una base ortonormal de V respecto de la cuál la matriz asociada a es de una de las formas
siguientes:
✓ ◆
cos✓ sen✓
1. con 0  ✓ < 2⇧
sen✓ cos✓
✓ ◆
1 0
2.
0 1

Demostración
Observemos primero que un mismo endomorfismo no puede ser representado por las dos matrices
descritas anteriormente. Ello supondrı́a que dichas matrices fuesen semejantes y en consecuencia que
tuviesen el mismo determinante, cosa que no es cierta.
Sea B = {v1 , v2 } una base ortonormal cualquiera de V (siempre podemos hallar una, y en el caso
que V = R2 con el producto
✓ ◆escalar habitual podemos considerar la base canónica).
a b
Si A = MB ( ) = , A es ortogonal y por tanto, At A = AAt = In y det(A) = ±1. Después
c d
de realizar las operaciones correspondientes, se obtienen las siguientes igualdades (*):

a 2 + b2 = a 2 + c 2 = c 2 + d 2 = b2 + d 2 = 1

ac + bd = ab + cd = 0
Estas condiciones ✓
en el caso
◆ de que det(A) = ad bc = 1, conducen a que a = d y b = c, y en
a b
consecuencia A = con a2 + b2 = 1.
b a
Existe entonces un único valor ✓ 2 [0, 2⇧) tal que a = cos✓ y b = sen✓. Se tiene pues que la matriz
asociada a respecto cualquier base ortonormal es de la forma del apartado 1
4.4. ISOMETRÍAS EN ESPACIOS VECTORIALES EUCLÍDEOS 129

Las igualdades
✓ (*) junto
◆ con det(A) = ad bc = 1, permiten deducir que a = d y b = c. En
a b
este caso A = con a2 + b2 = 1, y su polinomio caracterı́stico es (X + 1)(X 1).
b a
Si b = 0 entonces a = ±1, y la base buscada es la de partida o la que se obtiene de permutar en
ella los vectores.
Si b 6= 0, el vector w1 de coordenadas (b, 1 a) es un vector propio asociado al valor propio 1 y w2
de coordenadas ( b, 1 + a) es un vector propio asociado al valor propio 1. El producto escalar de
w1
w1 y w2 es cero. Esto nos asegura que la base B 0 = { kw , w2 } es una base ortonormal.
1 k kw2 k

Definición 4.4.2
Sea V un espacio vectorial euclı́deo de dimensión 2, una transformación ortogonal definida en V , y
A la matriz asociada a con la forma de la proposición anterior. Se dice que es
✓ ◆
cos✓ sen✓
1. Una rotación vectorial de amplitud ✓, si A = con 0  ✓ < 2⇧.
sen✓ cos✓
2. Una simetrı́a
✓ vectorial
◆ ortogonal (de eje el conjunto de vectores fijos V (1) = {v 2 V / (v) = v}),
1 0
si A = .
0 1

Ejemplo 4.4.1

✓ 3 es4 la◆transformación ortogonal de R que respecto de la base canónica tiene por matriz
• Si 2

5 5
4 3 , p (X) = (X 1)(X + 1) y es una simetrı́a vectorial ortogonal de eje V(1) =< w1 =
5 5
(2, 1) >. Como V( =< w2 = (1, 2) >= V(1) ? , respecto de la base ortogonal {w , w } o de la
1) 1 2
✓ ◆
w1 1 0
base ortonormal { kw , w2 }, la matriz asociada a es
1 k kw2 k
.
0 1

• Si es la transformación
p ! ortogonal de R2 que respecto de la base canónica tiene por matriz
1 3
A= p2
3
2
1
, det(A) = 1 y p (X) = X 2 X + 1 es irreducible. La isometrı́a es una
2 2

rotación de amplitud 3, respecto de la base canónica.

• Si es una isometrı́a del espacio vectorial euclı́deo V de dimensión 2, y su polinomio caracterı́stico


p (X) = X 2 + ↵X + es irreducible sobre R, es una rotación (de matriz no diagonal).
Además, puesto que respecto de una base ortonormal la matriz asociada a es ortogonal, su
determinante es ±1, y como coincide con el término independiente de su polinomio caracterı́stico,
deducimos que = 1.
En este caso el polinomio caracterı́stico p (X) = X 2 + ↵X + 1 se puede escribir de la forma
2
p (X) = (X a)2 + b2 siendo a = ↵2 y b2 = 4 4↵ . Como a2 + b2 = 1, a = cos✓, b = sen✓ con
✓ 2 [0, 2⇧).

• Sea una isometrı́a del espacio vectorial euclı́deo V de dimensión 2, cuyo polinomio caracterı́stico
p (X) = X 2 + ↵X + es reducible sobre R. Si = 1 entonces es una simetrı́a. Si = 1, es
una rotación, de matriz I2 si ↵ = 2 y de matriz I2 si ↵ = 2.

En general, si V (1) = {v 2 V / (v) = v}, podemos deducir de lo anterior que:

es simetrı́a () dimV(1) = 1 () p (X) = (X 1)(X + 1)


130 LECCIÓN 4. GEOMETRÍA EUCLÍDEA
n n
0 1 no es raiz
es rotación () dimV(1) = () de p (X)
2 1 es raiz doble
8⇢
< X 2 + ↵X + irreducible sobre R
() p (X) = (X + 1)2
:
(X 1)2
• La composición de dos rotaciones es otra rotación de amplitud la suma de las amplitudes, módulo
2⇧.
La composición de dos simetrı́as es una rotación, que es la identidad si las simetrı́as coinciden.
La composición de una rotación y una simetrı́a es una simetrı́a.
Da un argumento que pruebe lo anterior.
• Sean y ' las isometrı́as de R2 definidas por:
(x, y) = (y, x) '(x, y) = (x, y)
Ambas son simetrı́as. El eje de es la recta vectorial cuyos elementos son de la forma (a, a)
(bisectriz del primer y tercer cuadrante). El eje de ' es el eje de abscisas como recta vectorial.
¿Qué rotaciones son ' y '? ¿Qué relación hay entre ambas?
• Se ha visto que la composición de dos simetrı́as es una rotación. El recı́proco también es cierto:
toda rotación es composición de dos simetrı́as.
Si r es una rotación, r = r IV = r s s, donde s es cualquier simetrı́a. La aplicación r s = s0
es otra simetrı́a.

4.4.3 Isometrı́as en espacios vectoriales euclı́deos.

Ejercicio 4.4.3.1
En el espacio vectorial euclı́deo V = R3 se considera el subespacio
U =< {(1, 1, 1), (0, 0, 1)} >
1. Determina U ?
2. Sea pU : R3 ! R3 el endomorfismo que a cada vector v 2 R3 le asocia su proyección ortogonal
sobre U , y sea pU ? : R3 ! R3 el endomorfismo que a cada vector v 2 R3 le asocia su proyección
ortogonal sobre U ? (ver ejercicio 4.1.1.4). Hallar los vectores pU (v) y pU ? (v) con v = (x, y, z).
3. Se considera el endomorfismo = pU pU ? de V = R3 . Comprueba que es una isometrı́a.
4. Supongamos que B ⇤ = {u1 , u2 , u3 } es una base ortonormal de V = R3 tal que {u1 , u2 } es base
de U . ¿Cuál es la matriz asociada a respecto de la base B ⇤ ?
5. Muestra gráficamente el comportamiento de .

Ejercicio 4.4.3.2
En el espacio vectorial euclı́deo V = R2 se consideran los siguientes endomorfismos i , determinados
por sus matrices asociadas respecto de la base canónica de R2 .
✓ ◆ ✓ ◆ ✓ ◆ ✓ ◆
1 0 0 1 1 0 0 1
1 : 2 : 3 : 4 :
✓ 0 1 ◆ ✓1 0 ◆ ✓ 0 1◆ ✓ 1 0◆
1 0 1 0 0 1 0 1
5 : 6 : 7 : 8 :
0 1 0 1 1 0 1 0
4.4. ISOMETRÍAS EN ESPACIOS VECTORIALES EUCLÍDEOS 131

1. Comprueba que cada uno de los endomorfismos anteriores es una isometrı́a.

2. Determina cuáles de las isometrı́as anteriores vienen definidas por una matriz de la forma
✓ ◆
cos✓ sen✓
sen✓ cos✓

con 0  ✓ < 2⇡.


¿Cuál es el polinomio caracterı́stico de cada uno de tales endomorfismos?

3. Comprueba que los endomorfismos no considerados en el apartado anterior tienen todos ellos
polinomio caracterı́stico igual a X 2 1.
Determina para cada uno de ellos una base respecto de la cuál la matriz asociada sea diagonal.
Comprueba que las bases obtenidas son ortogonales.

4. Representa gráficamente el comportamiento de todos los endomorfismos dados.

5. Completa la tabla siguiente donde en cada casilla debe aparece la composición de los dos endo-
morfismos de la fila y la columna correspondientes, como se indica en los ejemplos:
· en la tercera casilla de la primera fila aparece 3 porque 3 = 1 3,
· en la sexta casilla de la cuarta fila aparece 7 porque 7 = 4 6,
· como 8 = 6 4 = 3 7 aparece en los lugares (6,4) y (3,7) de la tabla, ...

1 2 3 4 5 6 7 8

1 3

2 3

3 8

4 7

6 8

8 1

6. Observando la tabla comprueba que 1 i = i 1 = i para i = 1, 2, ..., 8. Esto se expresa


diciendo que 1 es el elemento neutro del conjunto G = { 1 , 2 , 3 , ..., 8 } con la composición

7. Observando la tabla determina para cada i el j tal que i j = j i = 1 . Esto se expresa


diciendo que j es el elemento simétrico o inverso de i (respecto la composición).

El hecho de que el conjunto G con la composición de aplicaciones goce de las dos


últimas propiedades y además de la propiedad asociativa (el producto de matrices es
asociatvo) se expresa diciendo que (G, ) es un grupo.

8. Mirando la tabla determina tres subconjuntos de G que con la composición tengan estructura
de grupo. En este caso se dice que cada uno de esos subconjuntos es un susbgrupo de G.
132 LECCIÓN 4. GEOMETRÍA EUCLÍDEA

Ejercicio 4.4.3.3
Sean 1 , 2 y 3 los endomorfismos de V = R3 definidos, respecto de la base canónica, por las matrices
siguientes.
0 1 0 1 0 1
1 0 0 1 0 p0 1 0 0
1 3 A
M ( 1) = @ 0 1 0 A M ( 2 ) = @ 0 p2 2 M ( 3) = @ 0 1 0A
0 0 1 0 23 1
2
0 0 1

1. Demuestra que los endomorfismos 1, 2 y 3 son todos ellos isometrı́as (o transformaciones


ortogonales).

2. Las transformaciones 1 , 2 y 3 son simetrı́as (vectoriales). Señala para cada una de ellas,
el plano de vectores fijos (o base de la simetrı́a), ası́ como un vector que se transforme en su
opuesto. ¿Qué relación hay entre el plano y el vector?

3. ¿Qué tipo de isometrı́a es 1 · 3? Señala los elementos que la caracterizan.

4. Sea U =< e2 , e3 > y ⇢ la restricción de 2 · 3 a U . ¿Qué tipo de isometrı́a es ⇢?

5. ¿Tiene algún vector fijo 1 · 2 · 3?

Ejercicio 4.4.3.4
Se consideran las siguientes bases de V = R3 :

B = {v1 = (1, 1, 1), v2 = (1, 0, 0), v3 = (1, 1, 0)}

Bc = {e1 = (1, 0, 0), e2 = (0, 1, 1), e3 = (0, 0, 1)}


y la matriz 0 p 1
1 3
2 0 2
M = @ p0 1 0 A
3 1
2 0 2
Sea el endomorfismo de V = R3 definido, respecto de la base B, por la matriz M ( MB ( ) = M ), y
sea el endomorfismo de V = R3 definido, respecto de la base Bc , por la matriz M (MBc ( ) = M ).
1. Demuestra que:
· M es una matriz ortogonal.
· no es una isometrı́a en V = R3 .
· es una isometrı́a en V = R3 .

2. Suponiendo que ⇢ es endomorfismo de un espacio vectorial euclı́deo V , ¿son verdaderas o falsas


las siguientes afirmaciones?
· Si M es una de las matrices asociadas a ⇢, ⇢ es una isometrı́a si y sólo si M t M es la matriz
identidad
· Si M una matriz asociada a ⇢ respecto de una base ortonormal de V , ⇢ es una isometrı́a si y
sólo si M t M es la matriz identidad

3. Demuestra que es una simetrı́a (vectorial), y determina el plano de vectores fijos (base de la
simetrı́a).

4. Halla una isometrı́a ⇢ de V = R3 tal que ⇢ = ' sea la simetrı́a que tiene como plano de
vectores fijos el generado por e1 y e2 . Dı́ qué tipo de transformación es ⇢ y establece los elementos
que la caracterizan.
4.4. ISOMETRÍAS EN ESPACIOS VECTORIALES EUCLÍDEOS 133

Ejercicio 4.4.3.5
Se consideran las isometrı́as 1 y 2 de V = R3 siguientes

• 1 es una rotación de eje la recta vectorial U =< {e1 + e2 } > y amplitud .
3
• 2 es una simetrı́a ortogonal respecto el plano vectorial U ? (con U =< {e1 + e2 } >).

1. Escribe las matrices asociadas a 1 y 2 respecto de la base canónica de V = R3 .

2. Determina el tipo de isometrı́as que son 1 2 y 2 1.

3. ¿Las isometrı́as 1 2 y 2 1 dejan algún vector fijo?

4.4.4 Transformaciones ortogonales en un espacio de dimensión n


El estudio del caso general es algo más complejo. Vamos a ir estableciendo pequeños resultados que
nos permitirán finalmente enunciar el teorema por el que queda determinada la forma matricial más
sencilla que puede asociarse a una transformación ortogonal.
En lo que sigue V es un espacio euclı́deo de dimensión n y una transformación ortogonal definida
en V .

Lema 4.4.1
Si U es un subespacio vectorial de V -invariante, se tiene

1. (U ) = U

2. U ? es -invariante, y (U ? ) = U ?

Demostración
Si {u1 , · · · , ul } es una base de U , la familia de vectores { (u1 ), · · · , (ul )} es una base de U :
- Los vectores (u1 ), · · · , (ul ) son linealmente independientes por ser inyectiva.
- (ui ) 2 U para i = 1, · · · , l por ser -invariante.
- Como U tiene dimensión l, < { (u1 ), · · · , (ul )} >= U
Se deduce entonces que (U ) = U .
Para probar el punto 2 basta ver que (U ? ) ⇢ U ? .
Sea u 2 (U ? ), w 2 U ? tal que (w) = u y v un vector cualquiera de U . Veámos que el producto
escalar de u y v es 0.
El vector v = (v 0 ) con v 0 2 U por el apartado 1. Entonces u · v = (w) · (v 0 ) = w · v 0 = 0.

En el caso de que el 1 sea valor propio de , el subespacio V (1) = Ker( IV ) es -invariante, y


? ?
como consecuencia del lema anterior (V (1) ) = V (1) . Puede considerarse entonces restringido
a W = V (1)? : W : W ! W . Una situación análoga se tiene cuando el 1 es valor propio de . Una
vez hechas estas consideraciones podemos demostrar los siguientes resultados.

Lema 4.4.2

1. Si 1 es valor propio de y W = V (1)? , la transformación ortogonal |W : W ! W no tiene


como valor propio el 1, y dimV (1) coincide con la multiplicidad del 1 como raiz del polinomio
caracterı́stico de .
134 LECCIÓN 4. GEOMETRÍA EUCLÍDEA

2. Si 1 es valor propio de y W = V ( 1)? , la transformación ortogonal |W : W ! W no


tiene como valor propio el 1, y dimV ( 1) coincide con la multiplicidad del 1 como raiz del
polinomio caracterı́stico de .

Demostración
Sólo vamos a probar el primero de los apartados. En el segundo el razonamiento es completamente
análogo.
Supongamos que 1 es raiz de p |W (X). En este caso existe un vector no nulo v 2 W tal que
|W (v) = (v) = v. Por tanto v 2 V (1) \ V (1)? = {0}, lo que es contradictorio con el hecho de que
v es no nulo.
Se tiene que p (X) = (X 1)s p |W (X) siendo s = dimV (1) (considerar en V una base formada por
una base de V (1) y una de W ). Puesto que el 1 no es raiz de p |W (X), s coincide con la multiplicidad
del 1 en p (X).

Nos queda por analizar qué sucede cuando el polinomio caracterı́stico de no tenga raices reales.
Observemos que en este caso todos los factores irreducibles de p (X) son de grado 2. Además si
X 2 + ↵X + es uno de esos factores (cuyo discriminante
p es menor que cero) podemos expresarlo como
(X a)2 + b2 con b 6= 0 (hacer a = ↵/2 y b = 4 ↵2 /2).

Lema 4.4.3
Si p (X) no tiene raices reales y (X a)2 + b2 con b 6= 0 es uno de sus factores irreducibles, existe
una base ortonormal de V respecto de la cual la matriz asociada a es de la forma
0 1
a b 0 ... 0
Bb a 0 ... 0C
B C
B0 0 ? ... ?C
B. .. .. .. .. C
@ .. . . . .A
0 0 ? ... ?

con a2 + b2 = 1.

Demostración
La prueba de este enunciado necesita definir algunas aplicaciones auxiliares y obtener destintos
resultados acerca de las mismas. Esas aplicaciones son los endomorfismos de V siguientes:

aIV
=( aIV )2 + b2 IV y '=
b
.

1. Al ser (X a)2 + b2 un factor del polinomio caracterı́stico, el subespacio W = Ker( ) de V es


no nulo.
Las aplicaciones ' y conmutan, lo que garantiza que W es '-invariante.
Sea 'W la restricción de ' a W . Es fácil comprobar que '2W = IW , lo que garantiza que existe
un vector u 2 W unitario tal que '(u) 6= 0.
Los vectores u y '(u) son linealmente independientes, puesto que en caso contrario existirı́a un
número ↵ 6= 0 tal que '(u) = ↵u, pudiendo deducir que (u) = (a + b↵)u. El valor a + b↵ es
por tanto un autovalor real de , lo que contradice la hipótesis.
4.4. ISOMETRÍAS EN ESPACIOS VECTORIALES EUCLÍDEOS 135

2. Se considera el subespacio U =< u, '(u) > de W , de dimensión 2 por lo visto en el púnto


anterior. Veamos que U es -invariante.
(u) au
El vector (u) puede escribirse como (u) = au + b b = au + b'(u) 2 U
Como u 2 W , (u) = 0, lo que conlleva que 2 (u)
a (u) = a (u) (a2 + b2 )u. Usando esta
igualdad y teniendo en cuenta que ' = baIV , se puede deducir que ('(u)) = a'(u) bu 2 U .
El hecho de que la imagen por de una base de U esté contenida en U , es suficiente para
asegurar que U es -invariante.

3. La aplicación U (restricción de a U ) es una transformación ortogonal en U , por serlo en V .


En tal caso el determinante de cualquiera de sus matrices asociadas es 1 o 1. La matriz de U
respecto de la base BU = {u, '(u)} es, teniendo en cuenta el apartado 2,
✓ ◆
a b
b a

cuyo determinante a2 + b2 es positivo, por tanto a2 + b2 = 1.

4. La base BU es ortonormal como vemos a continuación.


- El vector u es unitario porque ası́ se habı́a elegido.
- El producto escalar de u y '(u) es 0:
2
u2W )( 2a + (a2 + b2 )IV )(u) = 0 ) 2
(u) 2a (u) + u = 0

Al multiplicar escalarmente la última expresión por (u) y aplicando que conserva los productos
escalares, obtenemos que u · (u) = a. Esto llevado al producto de u y '(u), prueba que
u · '(u) = 0.
- El que conserve las normas, u · (u) = a y a2 + b2 = 1 lleva a probar que '(u) · '(u) =
k'(u)k2 = 1.

Todas las consideracioones anteriores sirven para garantizar que V = U U ? con U y U ? subespacios
-invariantes. Si B = {u, '(u), u1 , · · · , un 2 } es una base ortonormal de V , la matriz asociada a
respecto dicha base es como la descrita en el enunciado.
Los lemas precedentes conducen al siguiente teorema.

Teorema 4.4.1
Sea V un espacio vectorial euclı́deo de dimensión n, y una transformación ortogonal definida en V .
Existe una base ortonormal B de V respecto de la cual la matriz asociada a es
0I 0 ... ... 0 1
s
B 0 It ... ... 0 C
B C
B 0 0 N (✓1 ) ... 0 C
B .. .. .. .. .. C
@ . . . . . A
0 0 0 ... N (✓q )

donde Is , It son las matrices identidad de orden s y t respectivamente (s es la multiplicidad del 1 y t


es la multiplicidad del 1 en el polinomio caracterı́stico de ). ✓ ◆
cos✓j sen✓j
Las raices complejas cos✓j ± sen✓j de p (X) producen las cajas N (✓j ) = con
sen✓j cos✓j
✓j 2 [0, 2⇧), ✓j 6= 0, ⇧
136 LECCIÓN 4. GEOMETRÍA EUCLÍDEA

Demostración
Basta escribir V = V (1) ? V ( 1) ? W , donde cada subespacio es -invariante. Después basta
aplicar en cada uno de ellos, para el endomorfismo restringido, el lema correspondiente. En el caso de
W , el lema 3 habrá de aplicarse reiteradamente.

Ejemplo 4.4.2

• Una matriz ortogonal real es diagonalizable sobre C.

• Si : R3 ! R3 es una transformación ortogonal, existe un subespacio U de R3 de dimensión 1


tal que (U ) = U .
El polinomio p (X) es de grado 3, por tanto una de sus raices ↵ es real (↵ = 1 o 1). Basta
considerar U =< u > siendo (u) = ↵u.

• Sea la transformación ortogonal de R3 definida respecto de la base canónica por la matriz


0 p 1
1/2 1/2 p 2/2
@ 1/2 1/2 2/2 A
p p
2/2 2/2 0

El polinomio caracterı́stico de la isometrı́a es p (X) = (X 1)(X 2 + 1) = (X 1)((X 0)2 + 12 ),


con lo que podemos deducir que respecto de alguna base ortonormal la matriz asociada es
0 1
1 0 0
@0 0 1A
0 1 0
Para obtener esa base p ortonormal,
p calculamos p p
V(1) =< {(1/ 2, 1/ 2, 0)} > y V(1) ? =< {( 1/ 2, 1/ 2, 0), (0, 0, 1)} >
p p
? , la matriz de ' respecto {( 1/ 2, 1/ 2, 0), (0, 0, 1)} es
Si ' es la rectricción de a V(1)
✓ ◆
0 1
1 0

Lo anterior garantiza que la matriz de respecto de la base ortonormal de R3


p p p p
B = {(1/ 2, 1/ 2, 0), ( 1/ 2, 1/ 2, 0), (0, 0, 1)} es la descrita al comienzo.
n
x y=0
La isometrı́a es la rotación de amplitud ⇧2 y de eje la recta .
z=0
• Muestra graficamente cuál es el efecto que produce sobre un vector de R3 la isometrı́a de matriz,
respecto base canónica, 0 1
cos✓ sen✓ 0
@ sen✓ cos✓ 0 A
0 0 1

• Sea V = Rn , U un subespacio no nulo de V y U ? su ortogonal. El endomorfismo = pU pU ?


de V es una transformación ortogonal. La matriz asociada a dicha isometrı́a respecto de una
base de Rn con los primeros vectores en U (ortogonales entre si o no) y los demás en U ? es
✓ ◆
Ir 0
0 In r
4.4. ISOMETRÍAS EN ESPACIOS VECTORIALES EUCLÍDEOS 137

donde Ir representa la matriz identidad de orden r = dimU , In r la matriz opuesta a la


identidad de orden n r = dimU ? y los 00 s las matrices nulas de tamaños adecuados.
En este caso recibe el nombre de simetrı́a ortogonal respecto el subespacio U .

Finalmente, y a tı́tulo de ejemplo, vamos a clasificar los tipos de transformaciones ortogonales en


espacios V de dimensión 3.

Ejemplo 4.4.3
Sea : V ! V una isometrı́a cualquiera. Como es habitual, denotamos por V(1) el subespacio de V
formado por el conjunto de vectores fijos por .

• Si dimV(1) = 3, es inmediato que = IV y p (X) = (X 1)3 .


? =V
• Si V(1) es un plano vectorial (dimV(1) = 2), se tiene que p (X) = (X 1)2 (X + 1) y V(1) ( 1)
(de dimensión 1). Si B es una base de V , donde los dos primeros vectores son base de V(1) y el
? , la matriz asociada a
tercero es base de V(1) respecto de esa base es
0 1
1 0 0
@0 1 0 A
0 0 1

Observar que B es ortogonal, pero sus vectores no son necesariamente unitarios. Si se desea que
la bases sea ortonormal no tendremos más que dividir por su norma a los vectores de B.
En este caso se dice que es una simetrı́a ortogonal respecto del plano de vectores invariantes.

• Si dimV(1) = 1, V(1) es una recta vectorial, y V(1) ? es un plano. La restricción de a V(1) es


? ?
obviamente la identidad. Puesto que V(1) \ V(1) = {0}, la restricción de a V(1) sólo deja fijo el
vector nulo, y en consecuencia tal restricción es una rotación distinta de la identidad.
Existe entonces una base ortonormal B = {u1 , u2 , u3 } de V (u1 base de V(1) , {u2 , u3 } base de
? ) respecto de la cual la matriz asociada a
V(1) es
0 1
1 0 0
@0 cos✓ sen✓ A
0 sen✓ cos✓

con ✓ 6= 0.
Una aplicación del tipo anterior o la identidad en V recibe el nombre de rotación vectorial

• Consideremos el caso en el que dimV(1) = 0. Puesto que el 1 no es raiz del polinomio caracterı́stico
de , se tendrá que

p (X) = (X + 1)3 o p (X) = (X + 1)((X cos✓)2 + sen✓2 ) con ✓ 6= 0, ⇧

De darse la primera circunstancia, = IV (la búsqueda de la base ortonormal es por tanto


innecesaria).
En la segunda, la aplicación restringida a V(? 1) es una rotación ⇢, y podrá escribirse como
producto de dos simetrı́as s1 , s2 (ver isometrı́as en espacios de dimensión 2).
138 LECCIÓN 4. GEOMETRÍA EUCLÍDEA

Si B = {u1 , u2 , u3 } es una base ortonormal de V con u1 2 V( 1) y u2 , u3 2 V(? 1) , la matriz de la


aplicación es 0 1
1 0 0
M = @ 0 cos✓ sen✓ A
0 sen✓ cos✓
con ✓ 6= 0, ⇧.
Obsérvese que
0 10 10 1
1 0 0 1 0 0 1 0 0
M =@ 0 1 0 A @ 0 a1 b1 A @ 0 a2 b2 A [1]
0 0 1 0 c1 d1 0 c2 d2
✓ ◆
a i bi
donde es la matriz de la simetrı́a si , i = 1, 2 respeto de la base {u2 , u3 } de V(? 1) . Por
c i di
tanto las matrices 0 1
1 0 0
@ 0 ai bi A i = 1, 2
0 ci di
representan simetrı́as en V (los espacios propios asociados al autovalor 1 son de dimensión 2).
La primera de las matrices de la descomposición de M en [1] también representa una simetrı́a.
De todo ello se deduce que es este caso es producto de tres simetrı́as.
¿Sucede eso mismo con la aplicación IV ?

Quedan pues estudiadas todas las isometrı́as en un espacio de dimensión 3.

4.5 Espacio Afı́n


El conjunto Rn ha aparecido con anterioridad en múltiples ocasiones, y siempre bajo su estructura de
R-espacio vectorial. En esta sección y otras posteriores, vamos a trabajar con Rn desde dos perspectivas
distintas, y de forma conjunta.
Por un lado la ya tratada, V = Rn como R-espacio vectorial donde sus elementos reciben el nombre
de vectores y son denotados por v, w, u, · · ·. Por otro, X = Rn como conjunto de puntos, a los que
denotaremos por P, Q, R, · · ·.
En cursos anteriores, y para los casos n = 2, 3, el alumno se ha familiarizado con conceptos tales
como recta determinada por dos puntos, plano que pasa por un punto y tiene dirección dada, · · ·
Ahora se trata de establecer ciertas relaciones entre puntos, y puntos y vectores, que nos permiten
abordar tales conceptos y deducir las propiedades geométricas más elementales de una forma algo más
rigurosa. Se trata de ”mirar y ver” la geometrı́a de puntos a través del álgebra de vectores.
El espacio afı́n n-dimensional está constituido por los elementos siguientes. El conjunto de puntos
X = Rn y una aplicación de X ⇥ X ! V que a cada par de puntos (P, Q) le asocia un vector v = P~Q
(también v = Q P o Q = P + v) verificando las dos propiedades siguientes:
i) 8P, Q, R 2 X, P~R = P~Q + QR ~
ii) 8P 2 X, 8v 2 V , existe un único Q 2 X tal que v = P~Q.

Definición 4.5.1
El conjunto de puntos X = Rn junto una aplicación como la descrita anteriormente, recibe el nombre
de espacio afı́n (estandar) asociado a V . Se define dimensión del espacio afı́n como la dimensión de
V.
4.5. ESPACIO AFÍN 139

• Considerando el espacio afı́n X = R2 , y realizando una gráfica sencilla, uno puede observar que
sobre cada punto de X, se tiene una copia de V = R2 .

Proposición 4.5.1
Son propiedades inmediatas las siguientes:

1. Para cualquier punto P , el vector P~P es el vector nulo.

2. Los vectores P~Q y QP


~ son opuestos entre si.

3. Si P~Q = P ~0 Q0 , entonces P~P 0 = QQ


~ 0

4.5.1 Sistemas de referencia y cambio de sistema de referencia


Definición 4.5.2
1. Se dice que los n + 1 puntos {P0 , P1 , · · · , Pn } de X son un sistema de referencia de X con origen
el punto P0 si el conjunto de vectores {P0~P1 , · · · , P0~Pn } es una base de V .
2. Dado un punto P 2 X y un sistema de referencia R = {P0 , P1 , · · · , Pn }, se llaman coordenadas de
P en R a las coordenadas del vector P~0 P en la base B = {P0~P1 , · · · , P0~Pn }.
3. El sistema de referencia Rc = {P0 ; e~1 , · · · , e~n } recibe el nombre de sistema de referencia canónico.

Es inmediato observar que en todo sistema de referencia el origen tiene coordenadas (0, · · · , 0).
Además es conveniente ver que no sólo un sistema de referencia, determina una base, sino que también
dada una base de V {v1 , · · · , vn }, y un punto P0 de X, queda determinado un sistema de referencia.
El sistema en cuestión es {P0 , P1 , · · · , Pn } donde cada Pi es el punto tal que P0~Pi = vi . Es por ello
que también se llame sistema de referencia al conjunto {P0 ; P0~P1 , · · · , P0~Pn }. En algunos textos el
primero es llamado sistema de referencia afı́n, y el segundo sistema de referencia vectorial, pero aquı́
no haremos tal distinción, y nos referiremos a uno u otro según convenga.
A continuación vamos a ver la relación que existe entre las coordenadas de un punto respecto
sistema de referencia distintos, obteniendo lo que se conoce como ecuación matricial de un cambio de
sistema de referencia.
Si R = {P0 , P1 , · · · , Pn } y R0 = {Q0 , Q1 , · · · , Qn } son dos sistemas de referencia de X, y P 2 X
tiene coordenadas (x1 , · · · , xn ) respecto R y coordenadas (y1 , · · · , yn ) respecto R0 , ¿qué relación hay
entre ambas?
P P
Se tiene que P~0 P = ni=1 xi P0~Pi y Q~0 P = ni=1 yi Q0~Qi .
Supuesto que las coordenadas de P0 en R0 son (a1 , · · · , an ), y que las coordenadas del vector P0~Pi
i = 1, · · · , n respecto de la base {Q0~Q1 , · · · , Q0~Qn } son (a1i , · · · , ani ), se tiene

n
X n
X n
X n
X n
X
Q~0 P = Q0~P0 + P~0 P = ai Q0~Qi + xi P0~Pi = ai Q0~Qi + xi ( aji Q0~Qj ) =
i=1 i=1 i=1 i=1 j=1

n
X n X
X n n
X n
X
= ai Q0~Qi + ( ~
xi aji )Q0 Qj = (ai + xi aji )Q0~Qj
i=1 i=1 j=1 i=1 j=1

Puesto que las coordenadas de un vector respecto de una base son únicas, tenemos que
n
X
yi = a i + xi aji
j=1
140 LECCIÓN 4. GEOMETRÍA EUCLÍDEA

para i = 1, · · · , n. Ese conjunto de relaciones puede expresarse matricialmente de la forma:


0 1 0 1 0 10 1
y1 a1 a11 · · · a1n x1
@ ... A = @ ... A + @ ... ..
.
.. A @ .. A
. . ,
yn an an1 · · · ann xn

expresión que recibe el nombre de ecuación matricial del cambio de sistema de referencia.
Si denotamos por B y B 0 las bases determinadas por R y R0 respectivamente, la igualdad anterior
puede leerse como
coord(P ) en R0 = coord(P0 ) en R0 + matriz que expresa B respecto B 0 · coord(P ) en R

Ejemplo 4.5.1
La relación descrita por la expresión anterior es tratada también en los siguientes ejemplos.

• En X = R2 se considera el sistema de referencia R = {P0 (1, 2), P1 (2, 3), P2 (1, 4)}.
Las coordenadas del punto P1 en el sistema de refencia R son (1, 0). El origen del sistema de
refencia canónico tiene coordenadas ( 1, 2) en R.
Si P es un punto de coordenadas (x, y) según el sistema canónico, sus coordenadas (x0 , y 0 ) en el
sistema R vienen dadas por
✓ 0◆ ✓ ◆ ✓ ◆✓ ◆
x 1 1 0 x
0 = +
y 2 1 2 y

ya que P0~P1 = (1, 1) y P0~P2 = (0, 2)

• En X = R2 se consideran los sistemas de referencia R = {P0 (1, 2), P1 (2, 3), P2 (1, 4)} y R0 =
{Q0 (1, 1), Q1 ( 1, 1), Q2 (2, 0)}. El sistema R tiene asociada la base B = {P0~P1 = (1, 1), P0~P2 =
(0, 2)} y el sistema R0 tiene asociada la base B 0 = {Q0~Q1 = ( 2, 2), Q0~Q2 ✓= (1, 1)}. ◆ Por
1
2
tanto la matriz asociada al cambio de base que expresa B en función de B 0 es 2 .
0 1
Como Q0~P0 = (0, 1) = 1 ~
4 ( Q0 Q1 + 2Q0~Q2 ), las coordenadas de P0 en R0 son ( 1
4,
1
2 ).
Se tiene entonces que si un punto P tiene coordenadas (x, y) en función del sistema de referencia
R, las coordenadas (x0 , y 0 ) de ese punto en el sistema R0 vendrán dadas por
✓ 0◆ ✓ 1 ◆ ✓ 1
◆✓ ◆
x 4 2 2 x
= 1 +
y0 2 0 1 y

¿Cuáles son las coordenadas en R y R0 del punto P de coordenadas (2, 3) en el sistema de


referencia canónico?

4.5.2 Aplicaciones Afines


Este apartado vamos a dedicarlo al estudio de las aplicaciones propias de la estructura afı́n, las
aplicaciones afines.
1. Definición y ejemplos
Sea f : X = Rn ! X = Rn una aplicación y sea P un punto cualquiera , pero fijo, de X. Esos dos
objetos nos permiten definir la siguiente aplicación en el espacio vectorial V = Rn .

P : V = Rn ! V = Rn
4.5. ESPACIO AFÍN 141

v = P~Q ! P (v)
~ (Q)
= f (P )f
No siempre la aplicación P es lineal, pero nuestro interés estará centrado en el caso en que esa
aplicación sea lineal. Por un lado las aplicaciones lineales son las especı́ficas de los espacios vectoriales,
pero además se tiene la siguiente

Proposición 4.5.2
En las condiciones anteriores, si P es lineal, entonces R es lineal cualquiera que sea el punto R de
X. Además P = R .

Demostración
Basta ver que P (v) = R (v) cualquiera que sea el vector v de V . Sea v = P~Q = RS.
~

P (v) = ~
P (P Q) = ~
P (RS) = P (P S
~ P~R) = ~
P (P S) (P~R) =
~ (S)
= f (P )f ~ (R) = f (R)f
f (P )f ~ (S) = ~
R (RS) = R (v)

Definición 4.5.3
Sea f : X = Rn ! X = Rn una aplicación.

1. Si para la aplicación anterior existe un punto P para el cuál la aplicación P : V = Rn ! V = Rn


definida como antes es lineal, se dice que f es afı́n. La aplicación P = se denomina aplicación
lineal asociada a f .

2. Una aplicación afı́n se dice que es una transformación afı́n si es biyectiva, o equivalentemente,
si la aplicación lineal asociada es un isomorfismo.

La proposición anterior nos permite, para conocer si una aplicación es afı́n o no, considerar como
origen de cualquier vector el punto P0 = (0, 0, · · · , 0) y estudiar la linealidad o no de la aplicación
P0 =

Ejemplo 4.5.2
Los siguientes ejemplos muestran algunas aplicaciones afines, y otras que no lo son.

• La aplicación f : X = R2 ! X = R2 definida por f (x, y) = (5x + 2, x y + 2) es afı́n.

• La aplicación g : X = R2 ! X = R2 definida por g(x, y) = (5x2 , x y + 2) no es afı́n.

• La aplicación h : X = R2 ! X = R2 definida por h(x, y) = (5x + 2, 5y 3) es afı́n.


p p p p
2 2 2 2
• La aplicación k : X = R2 ! X = R2 definida por k(x, y) = ( 2 x 2 y 2, 1 + 2 x + 2 y) es
afı́n.

• La aplicación l : X = R2 ! X = R2 definida por l(x, y) = (x 3, y + 6) es afı́n.


Obsérvese que en todos los casos, si = P0 (x0 , y 0 )
es la imagen del punto P = (x, y) entonces se
puede establecer una igualdad del tipo
✓ 0◆ ✓ ◆ ✓ ◆✓ ◆
x a a11 a12 x
= +
y0 b a21 a22 y

En la igualdad anterior la matriz (aij ) puede considerarse, en cada caso, la de la aplicación lineal
asociada respecto de la base canónica.
142 LECCIÓN 4. GEOMETRÍA EUCLÍDEA

• Sea r la recta afı́n de ecuación 2x y = 3, y sea m la aplicación de X = R2 en X = R2 definida


por m(P ) = P 0 donde P 0 es el punto de intersección de la recta r con la recta que pasa por P y
tiene por vector director v = (1, 1). Tal aplicación es afı́n.
Basta ver que si P = (x, y) y P 0 = (x0 , y 0 ) entonces se tiene una relación matricial como la
descrita anteriormente, donde la aplicación lineal asociada está determinada por la matriz (aij )

• Sea r la recta afı́n de ecuación 2x y = 3, y sea n la aplicación de X = R2 en X = R2 definida


por n(P ) = P ” donde P ” está determinado por la condición P ~P ” = 2P~P 0 , donde P 0 es la imagen
de P por la aplicación m anterior. Un método análogo al señalado para m prueba que n es afı́n.

Es un buen ejercicio:
- Representar gráficamente el efecto que produce sobre distintos puntos cada una de las aplicaciones
anteriores. Ası́ como el producido, en cada caso, por la aplicación lineal asociada.
- Determinar el conjunto de puntos fijos (aquellos que coinciden con su imagen) por cada una de
las aplicaciones.
- Establecer la relación, cuando sea posible, entre el conjunto de puntos fijos por una aplicación
afı́n y el conjunto de vectores fijos por su aplicación lineal asociada.
- Determinar en qué casos la aplicación afı́n es una transformación.
- Elegir entre términos tales como traslación, homotecia, giro, ... áquel que parezca apropiado
asignar a cada una de las aplicaciones afines anteriores.
2. Determinación de una aplicación afı́n
Supongamos que en el espacio afı́n X = Rn hay fijado un sistema de refencia R = {P0 , P1 , · · · , Pn },
y que f : X ! X es una aplicación afı́n de la que conocemos las imágenes por f de los puntos del
sistema de referencia R.
Obsérvese que esto último es equivalente a conocer la imagen por f del punto P0 y las imágenes
por de los vectores de la base B determinada por R: vi = P0~Pi para i = 1, 2, · · · , n, donde es la
aplicación lineal asociada a f .
A continuación lo que vamos a ver es que basta tener cualquiera de esas dos condiciones (equiva-
lentes) para poder determinar la imagen de cualquier punto de X.
Sea P un punto cualquiera de X. Por la definición de aplicación lineal asociada a una aplicación
afı́n se tiene que f (P0~)f (P ) = (P~0 P ). Por ello, si (x1 , · · · , xn ) son las coordenadas de P , (x01 , · · · , x0n )
son las coordenadas de f (P ), y (a1 , · · · , an ) son las de f (P0 ) (todas ellas referidas al sistema de
referencia R) podemos establecer la siguiente igualdad:
0 1 0 1 0 1
x01 a1 x1
@ ... A = @ ... A + MB ( ) @ ... A
x0n an xn

denominada ecuación matricial de la aplicación afı́n f respecto del sistema de refencia R.


Es fácil comprobar el recı́proco de lo aquı́ visto. Una expresión matricial como la anterior permite
definir una aplicación afı́n, y sólo una, en X.
3. Distancia entre puntos. Movimientos
Hasta aquı́ hemos considerado X = Rn como conjunto de puntos y V = Rn como conjunto de
vectores. Hemos establecido una aplicación de X ⇥ X en V que define a X como espacio afı́n con
V como espacio vectorial asociado. También se ha viso que el concepto de aplicación afı́n en X está
ligado al de endomorfismo en V .
Además en V tenemos un producto escalar que nos permite definir norma de un vector, concepto
que vamos a emplear para definir distancia entre dos puntos de X.
4.5. ESPACIO AFÍN 143

Definición 4.5.4
Dados dos puntos P, Q 2 X, se define distancia de P a Q como el número d(P, Q) = kP~Qk.

Observar que la distancia es una aplicación d : X ⇥ X ! R

Proposición 4.5.3
Algunas de las propiedades de la distancia son las siguientes. Sean P, Q, R 2 X puntos cualesquiera,
se verifica

1. d(P, Q) 0, d(P, Q) = d(Q, P )

2. d(P, Q) = 0 , P = Q

3. d(P, R)  d(P, Q) + d(Q, R)

La prueba de las propiedades anteriores se deduce de forma inmediata de las relativas a la norma.

Definición 4.5.5
El espacio afı́n X = Rn junto con la distancia definida anteriormente recibe el nombre de espacio afı́n
euclı́deo (estandar).

En el espacio afı́n euclı́deo X = Rn se consideran aquellas aplicaciones afines que son biyectivas
(transformaciones afines). Entre dichas aplicaciones vamos a seleccionar áquellas que conservan las
distancias, para después realizar un estudio algo más detallado de las mismas.

Definición 4.5.6

1. Una transformación afı́n f se dice que conserva las distancias si 8P, Q, 2 X se verifica que
d(f (P ), f (Q)) = d(P, Q).

2. Una transformación afı́n que conserva las distancias se dice que es un movimiento.

Recordemos que decir que una aplicación afı́n es transformación afı́n es equivalente a decir que la
aplicación lineal asociada es un isomorfismo. En la siguiente proposición se ve la relación entre
”conservar distancias” y ”conservar normas”.

Proposición 4.5.4
Sea f : X = Rn ! X = Rn una transformación afı́n, y sea F : V = Rn ! V = Rn el isomorfismo
asociado a f . Se verifica:

f es movimiento si y sólo si F es isometrı́a

Demostración
Supongamos que f es un movimiento, y sea v = P~Q un vector cualquiera de V con P, Q 2 X. La
siguiente cadena de igualdades prueba que es una isometrı́a.

~ (Q)k = k (P~Q)k = k (v)k


kvk = kP~Qk = d(P, Q) = d(f (P ), f (Q)) = kf (P )f
Supongamos que es isometrı́a, y que P, Q son puntos cualesquiera de X. Veamos que f conserva las
distancias.
~ (Q)k = k (P~Q)k = kP~Qk = d(P, Q)
d(f (P ), f (Q)) = kf (P )f
144 LECCIÓN 4. GEOMETRÍA EUCLÍDEA

Una última observación antes de pasar a estudiar algunas aplicaciones afines particulares. En la
definición de movimiento se exige que la aplicación sea biyectiva, condición innecesaria puesto que el
hecho de conservar distancias conduce a la biyectividad, como se señala en uno de los ejercicios de
este capı́tulo. Sólo un planteamiento más cómodo desde el principio nos ha llevado a establecer la
definición en esos términos.
Es un ejercicio sencillo el probar que por un movimiento m rectas se transforman en rectas, una
circunferencia de centro C se trasnforma en una circunferencia de centro m(C), · · ·

4.6 Estudio de algunas aplicaciones afines particulares

4.6.1 Proyecciones

Sea Y un subespacio afı́n de X = Rn de dirección W (Y ). Denotemos por S un subespacio de V = Rn


tal que V = S W (Y ).
Si M es un punto cualquiera de X, y M + S es el subespacio afı́n que pasa por M y tiene dirección
S, se verifica que la intersección de los subespacios Y y M + S es no vacia y se reduce a un punto:
Si Q es un punto cualquiera de Y , el vector QM ~ se escribe de forma única como QM ~ = s+w
con s 2 S, w 2 W (Y ). Por tanto existe un único punto M 0 2 Y tal que w = QM ~ 0 , deduciéndose que
~
0 0 0 0
s = M M 2 S y M 2 M + S. Como M es único en Y con esa condición, {M } = Y \ (M + S).
Respetando la notación anterior, y teniendo en cuenta las consideraciones previas, definimos la
aplicación
pY,S : X ! X

M ! M0

Proposición 4.6.1
La aplicación M : V ! V que a cada vector v = M~N le asocia el vector v 0 = M~0 N 0 (M 0 = pY,S (M ),
N 0 = pY,S (N )) coincide con la proyección vectorial de base W (Y ) y dirección S. La aplicación pY,S :
X ! X es por tanto afı́n, cuya aplicación lineal asociada es pW (Y ),S

Demostración
~ 0 y QN
Sea Q un punto cualquiera (fijo) de Y . Los vectores QM ~ 0 están en W (Y ) puesto que
M , N 2 Y , y los vectores M~0 M y N~0 N pertenecen a S. Como QM
0 0 ~ = QM ~ 0 + M~0 M y QN~ =
~ 0 ~0 ~ 0 ~ ~ 0 ~
QN + N N , se tiene que QM = pW (Y ),S (QM ) y QN = pW (Y ),S (QN ).

(M~N ) = M~0 N 0 = QN
~ 0 ~ 0 = pW (Y ),S (QN
QM ~ ) ~ )=
pW (Y ),S (QM

~
= pW (Y ),S (QN ~ ) = pW (Y ),S (M~N )
QM

Definición 4.6.1
La aplicación afı́n pY,S recibe el nombre de proyección (afı́n) de base Y en la dirección S.

Observar que la proyección anterior deja fijos los puntos de la base, esto es si M 2 Y entonces
pY,S (M ) = M . Como hay puntos fuera de Y que también tienen por imagen M , se puede afirmar
que pY,S no es una transformación, y tampoco movimiento, puesto que no es inyectiva. Además
p2Y,S = pY,S .
4.6. ESTUDIO DE ALGUNAS APLICACIONES AFINES PARTICULARES 145

Ejemplo 4.6.1
En X = R2 se considera el subespacio afı́n Y = {(x, y) 2 X/x + 2y = 1}. Se tiene entonces que
W (Y ) =< ( 2, 1) >, y consideramos como subespacio S =< (1, 1) >. ¿Cuál es la imagen del punto
M (7, 0) por pY,S ?
La recta que pasa por M y tiene la dirección de S es la de ecuación x y = 7. La intersección de
dicha recta con Y es el punto M 0 (5, 2). Tal punto es la imagen de M .

4.6.2 Simetrı́as

Como en el caso de las proyecciones, Y es un subespacio afı́n de X, S un subespacio suplementario a


W (Y ), · · ·. Definimos la siguiente aplicación

sY,S : X ! X

M ! M”
donde M ” es el punto de X tal que M ~M ” = 2M~M 0 siendo M 0 = pY,S (M )

Proposición 4.6.2
La aplicación M : V ! V que a cada vector v = M~N le asocia el vector v” = M ”N ~ ” (M ” =
sY,S (M ), N ” = sY,S (N )) coincide con el endomorfismo de V pW (Y ),S pS,W (Y ) . La aplicación sY,S :
X ! X es por tanto afı́n, cuya aplicación lineal asociada es el endomorfismo señalado anteriormente.

La prueba de esta proposición está basada en la siguiente cadena de igualdades. La justificación


de los pasos intermedios se deja como ejercicio.

~ ” = M ~”M + M~N + N ~N ” = M~N + 2(N~N 0


(M~N ) = M ”N M~M 0 ) = M~N + 2(N~M N 0~M 0 ) =

= N~M + 2M~0 N 0 = M~N + 2pW (Y ),S (M~N ) = (2pW (Y ),S IRn )(M~N ) = (pW (Y ),S pS,W (Y ) )(M~N )

Definición 4.6.2
La aplicación afı́n sY,S recibe el nombre de simetrı́a (afı́n) de base Y en la dirección S.

Observar que:
- La simetrı́a anterior deja fijos los puntos de la base, esto es si M 2 Y entonces sY,S (M ) = M .
Pero si M 62 Y , sY,S (M ) 62 Y .
- s2Y,S = IX , como puede probarse fácilmente.
- La igualdad anterior ya es suficiente para garantizar que la simetrı́a es biyectiva. Otra forma de
justificarlo es viendo que la aplicación lineal asociada a la simetrı́a es un isomorfismo, por tanto la
simetrı́a (afı́n) es una transformación, que en general no es movimiento.
- En el caso en que una simetrı́a afı́n tenga como base una variedad afı́n cuya dirección sea
perpendicular a la dirección de la simetrı́a, es un movimiento.
Recuérdese que en la primera sección de este capı́tulo se ha probado que si U es un subespacio
de V , la aplicación pU pU ? es una isometrı́a (pU proyección vectorial de base U y dirección U ? , y
análogo para pU ? ).
En el caso que nos ocupa, haciendo U = W (Y ) y S = U ? = W (Y )? , obtenemos que la aplicación
vectorial asociada a la simetrı́a afı́n sY,W (Y )? es una isometrı́a, lo que equivale a que sY,W (Y )? conserve
las distancias. En esta situación:
146 LECCIÓN 4. GEOMETRÍA EUCLÍDEA

Definición 4.6.3
La simetrı́a afı́n sY,W (Y )? recibe el nombre de simetrı́a ortogonal del espacio afı́n X. Como la variedad
afı́n Y determina W (Y ) y W (Y )? , dicho movimiento se denota por sY .

Ejemplo 4.6.2
En X = R2 se considera el subespacio afı́n Y = {(x, y) 2 X/x + 2y = 1}. Se tiene entonces que
W (Y ) =< ( 2, 1) >, y consideramos como subespacio S =< (1, 1) >. La imagen del punto M (7, 0)
por pY,S es M 0 (5, 2), por tanto la imagen de M por sY,S es M ”(3, 4). ¿Cuál es la imagen de M
por la simetrı́a ortogonal sY ?

4.6.3 Traslaciones

En este apartado vamos a mostrar cómo cada vector (fijo) v de V = Rn determina una aplicación
en el espacio afı́n X = Rn que ”mueve” cada punto de X, en la dirección y sentido que indica v, la
longitud dada por su módulo.
Dado pues un vector v 2 V , se define tv : X ! X como la aplicación que a cada punto P le asigna
el punto P 0 tal que P~P 0 = v.

Definición 4.6.4
La aplicación tv anterior recibe el nombre de traslación de vector v.

Proposición 4.6.3
En relación a las traslaciones se tienen las siguientes propiedades.

1. Toda traslación es un movimiento.

2. La traslación t~0 es la aplicación identidad, y cualquier otra traslación tv con v 6= ~0 no deja


puntos fijos.

3. El vector de una traslación queda determinado por un punto y su imagen.

4. Una aplicación afı́n definida en X es una traslación si y sólo si la aplicación lineal asociada es
la identidad en V .

Demostración
Si Q 2 X es un punto cualquiera, denotaremos Q0 = tv (Q).
Sea P un punto fijo de X, y definimos la aplicación P : V = Rn ! V = Rn que a cada vector
w = P~Q le asocia el vector w0 = P ~0 Q0 . Puesto que v = P~P 0 = QQ
~ 0 , se tiene que w = P~Q = P ~0 Q0 = w0
y por tanto que P = IV . Si tenemos en cuenta toda la información que este hecho nos proporciona,
podemos concluir que tv es afı́n, es biyectiva y conserva distancias, es decir, es movimiento.
Los puntos segundo y tercero son inmediatos, y una de las implicaciones del último de los apartados
está probado al probar el punto 1. Veámos por último que una aplicación afı́n f cuya aplicación lineal
asociada sea la identidad es una traslación.
Si la ecuación matricial de f respecto el sistema de referencia canónico es
0 1 0 1 0 1
x01 a1 x1
@ ... A = @ ... A + In @ ... A
x0n an xn
4.6. ESTUDIO DE ALGUNAS APLICACIONES AFINES PARTICULARES 147

el vector definido por un punto cualquiera P y su imagen P 0 = f (P ) tiene coordenadas (respecto base
canónica) (x01 x1 , · · · , x0n xn ) = (a1 , · · · , an ). Si consideramos entonces la traslación tv , donde v es
el vector de coordenadas (a1 , · · · , an ), dicha traslación actúa sobre P en la misma forma que lo hace
f , es decir f = tv .

Ejemplo 4.6.3

• Si r es una recta afı́n cuya dirección viene determinada por el vector v, se tiene que tv (r) = r.
Si r es una recta cuya dirección es independiente de v, tv (r) es una recta distinta de r pero de
su misma dirección.
Por una traslación una recta se transforma entonces en una recta paralela a ella.

• Si en X = R2 consideramos la traslación de vector v(2, 1), la recta r de ecuación x 2y = 1 se


trasforma en la recta r0 de ecuación x 2y = 5.

• Obsérvese que la composición de dos traslaciones es otra traslación de vector la suma de los
vectores, lo que garantiza a su vez que la composición de traslaciones es conmutativa: tv tw =
tw+v = tv+w = tw tv .
También es consecuencia de lo anterior que tv 1 = t v.

¿Puedes realizar una gráfica que ilustre lo que sucede cuando se realiza la composición de dos
traslaciones?

4.6.4 Homotecias
En este punto se trata el estudio de un tipo de afinidades biyectivas que no conservando las distancias
conservan la ”forma”. Las homotecias son transformaciones que conservan los ángulos y la razón entre
longitudes.

Definición 4.6.5
Sea C un punto fijo de X = Rn y ↵ 6= 0 un número real cualquiera. Se llama homotecia de centro C
y razón ↵, que representamos por hC,↵ , a la aplicación

hC,↵ : X ! X

C!C
P 6= C ! P 0
~ 0 = ↵CP
siendo P 0 el punto tal que CP ~ .

~ le asocia el vector
Si consideramos la aplicación C : V = Rn ! V = Rn que a cada vector v = CP
v0= CP~ 0 donde P = hC,↵ (P ) (C = hC,↵ (C)), se tiene que C (v) = v = ↵v. Por tanto C = ↵ · IRn ,
0 0

que es lineal. Como consecuencia se tiene la siguiente proposición

Proposición 4.6.4
La homotecia hC,↵ es una aplicación afı́n.

Proposición 4.6.5
En las condiciones de la definición anterior, se verifica

1. hC,↵ es biyectiva.
148 LECCIÓN 4. GEOMETRÍA EUCLÍDEA

2. hC,↵ conserva las distancias si y sólo si ↵ = ±1. Si la razón es 1, la homotecia es la aplicación


identidad (y recı́procamente).
3. Por una homotecia distinta de la identidad, el único punto fijo que resulta es el centro de la
homotecia.
4. Si f es una aplicación afı́n definida en X = Rn cuya aplicación lineal asociada es ↵IV =Rn
con ↵ 6= 0, 1, f es entonces una homotecia de razón ↵ y de centro el punto C de coordenadas
( 1a1↵ , · · · , 1an↵ ), siendo (a1 , · · · , an ) las coordenadas del punto imagen del origen del sistema de
referencia.
5. La composición de dos homotecias es una homotecia o una traslación, y la composición de una
traslación con una homotecia (no identidad) es una homotecia.

La demostración de la mayor parte de estas propiedades se deja como ejercicio. El cuarto de los puntos
puede abordarse a través de la ecuación matricial de f , viendo que C es un punto fijo por f y que si
P 0 es la imagen de P por f entonces CP~ 0 = ↵CP~ . Por último mencionar que la prueba del último de
los puntos es inmediato si se acude a las matrices de las aplicaciones lineales que las caracterizan.

Ejemplo 4.6.4
En el plano afı́n X = R2 se consideran las homotecias hC,p2 y hC, 3 con C(1, 2). Es fácil comprobar
2
que si P (3, 2), la imagen de P por la primera de las homotecias es un punto cuyas coordenadas no son
enteras. ¿Podrı́as realizar una representación gráfica de lo que sucede? El punto P 0 = hC, 3 (P ) tiene
2
coordenadas enteras y son (4, 4).
¿Podrı́as decir para qué valores de ↵ el transformado de P (3, 2) por hC,↵ tiene coordenadas enteras?

4.6.5 Giros en X = R2
La mayor complejidad del estudio de los giros desaconseja, en parte, su tratamiento en el caso general.
Debido a esto se ha optado por el estudio de los mismos en el espacio afı́n de dimensión 2.
Sea f : X = R2 ! X = R2 la aplicación afı́n que viene dada por la ecuación matricial siguiente
(respecto del sistema de referencia canónico).
✓ 0◆ ✓ ◆ ✓ ◆✓ ◆
x a cos✓ sen✓ x
0 = +
y b sen✓ cos✓ y
con 0 < ✓ < 2⇧.
Respecto de f podemos decir que
1. Es movimiento, puesto que la aplicación lineal asociada a f tiene como matriz, respecto de una
base ortonormal, una matriz ortogonal, lo que garantiza que tal aplicación lineal sea isometrı́a.
2. El conjunto de puntos fijos por f se determina resolviendo el sistema
✓ ◆✓ ◆ ✓ ◆
1 cos✓ sen✓ x a
=
sen✓ 1 cos✓ y b
Dicho sistema tiene solución única si (y sólo si) la matriz que lo define es de rango 2.
✓ ◆
1 cos✓ sen✓
rango = 2 () (1 cos✓)2 + sen2 ✓ 6= 0 ()
sen✓ 1 cos✓
() 2 2cos✓ 6= 0 () cos✓ 6= 1 () ✓ 6= 2k⇧
Como inicialmente 0 < ✓ < 2⇧, f deja un único punto fijo que vamos a denotar por C.
4.6. ESTUDIO DE ALGUNAS APLICACIONES AFINES PARTICULARES 149

Definición 4.6.6
La aplicación f definida por la ecuación matricial anterior recibe el nombre de giro de centro C y
amplitud ✓, y es denotada por gC,✓ .

Ejemplo 4.6.5

• Supuesto fijado el sistema de referencia canónico, si en X = R2 se considera el giro de centro


C(1, 2) y amplitud ⇧6 , la imagen P 0 (x0 , y 0 ) de un punto P (x, y) vendrá determinada por una
ecuación del tipo
✓ 0◆ ✓ ◆ p !✓ ◆
1 3
x a p2 2 x
= + ,
y0 b 3 1 y
2 2

donde (a, b), recordemos, son las coordenadas del punto imagen de O(0, 0) por el giro. El hecho
de conocer que el punto (1, 2) es un punto fijo nos permite hallar dichos valores a y b.
✓ ◆ p !✓ ◆ p !
1 3 1 2 3
a 1 1
= p2 2 = 2p
b 3
1 1 2 2 3
2 2 2

• Si gC,✓ y gD, son dos giros, la composicón gC,✓ gD, es otro giro o una traslación, puesto que
la aplicación lineal asociada a tal composición es
✓ ◆ ✓ ◆
cos(✓ + ) sen(✓ + ) cos⇢ sen⇢
=
sen(✓ + ) cos(✓ + ) sen⇢ cos⇢

verificando ✓ + = ⇢ + 2⇧ con 0  ⇢ < 2⇧.


Si la matriz anterior no es la identidad (caso ⇢ 6= 0) la composición es un giro, en el otro caso la
composición es una traslación.

• Si t y g son respectivamente una traslación y un giro en R2 , la composición t g es un giro puesto


que la matriz de la aplicación lineal asociada coincide con la de g, por ser la de t la identidad.
Teniendo esto en cuenta se deja como ejercicio determinar el centro y la amplitud del giro t g
donde:
· t es la traslación en que el punto (6, 0) es la imagen del punto (0, 0) y
· g es el giro de centro (0, 0) en que (0, 2) es la imagen de (2, 0).
¿El giro anterior coincide con g t?

Resumiendo, las afinidades que hemos estudiado en X = Rn son


8
> No biyectivas: Proyecciones
8 (Ortogonales / No ortogonales)
n
>
>
>
> > Simetrı́as no ortogonales
< >
> No conservan distancias
< 8 Homotecias
> Transformaciones < Simetrı́as ortogonales
>
> >
>
> >
> Movimientos Traslaciones
: : :
Giros ( estudiados para n=2)
150 LECCIÓN 4. GEOMETRÍA EUCLÍDEA

4.7 Cónicas y Cuádricas

4.7.1 Cónicas

En el plano afı́n se llama cónica al lugar geométrico de los puntos cuyas coordenadas (respecto sistema
de referencia canónico) (x1 , x2 ) verifican una ecuación del tipo

a11 x21 + 2a12 x1 x2 + a22 x22 + 2b1 x1 + 2b2 x2 + c = 0 [1]

para ciertos números reales aij , bk , c tales que a11 , a12 , a22 no son simultáneamente los tres nulos.
La ecuación anterior se expresa matricialmente:
0 10 1
c b1 b2 1
@
( 1 x1 x2 ) b1 a11 a12 A @ x1 A = 0
b2 a12 a22 x2

El conjunto de puntos de coordenadas (x1 , x2 ) que verifica la ecuación [1] es el mismo que el que
verifica la ecuación

↵(a11 x21 + 2a12 x1 x2 + a22 x22 + 2b1 x1 + 2b2 x2 + c) = 0 [2]

cuando ↵ 6= 0, que escrita de forma matricial:


0 10 1
c b1 b2 1
( 1 x1 x 2 ) ↵ @ b1 a11 a12 A @ x1 A = 0
b2 a12 a22 x2

Esto es, las ecuaciones [1], [2] definen una misma cónica, lo que justifica la siguiente definición.

Definición 4.7.1 0 1
c b1 b2
Se llama matriz de la cónica definida por la ecuación [1] a la matriz M = @ b1 a11 a12 A o a
✓ b2 a12◆ a22
a11 a12
cualquiera de sus proporcionales: ↵M con ↵ 6= 0. La matriz no nula A = se llamará
a12 a22
matriz de los términos cuadráticos.
2
x2
• La cónica de ecuación 5x2 + 9y 2 45 = 0, coincide con la de ecuación+ (py5)2 = 1, que es la
32
p
ecuación reducida de la elipse centrada en el punto (0, 0) y de semiejes 3 y 5.
El lugar geométrico de los puntos de coordenadas (x, y) ( en el canónico) que verifican la ecuación
5x2 9y 2 45 = 0 es una hipérbola. La ecuación y 2 = 5x define una parábola.

• Pero no son únicamente cónicas las elipses, hiperbólas y parábolas. También lo son las siguientes,
donde las ecuaciones las suponemos siempre referidas al sistema canónico:
· La ecuación x2 y 2 = 0 tiene como solución la pareja de rectas y = x, y = x (par de rectas
concurrentes).
· La cónica de ecuación x2 4 = 0 está constituida por los puntos de las rectas x = 2 y x = 2
(par de rectas paralelas).
4.7. CÓNICAS Y CUÁDRICAS 151

· La ecuación x2 = 0 tiene como solución al conjunto de puntos de la recta x = 0 contados dos


veces (recta doble o par de rectas coincidentes).
· La ecuación x2 + 4 = 0 no tiene solución real. Se dice que la cónica definida por dicha ecuación
es el conjunto vacio o ”el par de rectas imaginarias” (y paralelas) x = ±2i
· Cuando se considera la ecuación x2 + y 2 = 0, el conjunto solución real es el punto (0, 0) pero
también se dice que la cónica resultante es formado por las ”rectas imaginarias” (y secantes en
el (0, 0)) de ecuaciones y = ±ix

• Consideremos la cónica de ecuación x2 + y 2 + 1 = 0 (en el sistema de referencia canónico). Por


tratarse del conjunto vacio, lo más común serı́a decir que coincide con la de ecuación x2 + 4 = 0.
Ahora bien, si esta última cónica la interpretamos como el par de ”rectas imaginarias” x = ±2i,
podemos observar que algunos ”puntos imaginarios” que están en esas ”rectas” no satisfacen
la ecuación de la primera cónica. 2
2 2
p El ”punto” (2i, 1) satisface la ecuación x + 4 = 0, pero no
x + y + 1 = 0. El ”punto” (2i, 3) satisface ambas ecuaciones. Después de ver que el ”conjunto
solución de puntos imaginarios” para ambas ecuaciones no es el mismo, costarı́a más afirmar que
ambas cónicas son iguales.
Podemos observar también que las matrices que definen dichas cónicas
0 1 0 1
4 0 0 1 0 0
@0 1 0A y @0 1 0A
0 0 0 0 0 1

no son proporcionales. Tampoco tienen el mismo rango, ni la misma signatura (conceptos ligados
a cierta clasificación de las matrices simétricas).

De todo lo anterior uno puede admitir que en el plano afı́n, y respecto del sistema de referencia
canónico,
✓ una cónica
◆ queda caracterizada por cualquiera
✓ ◆ matrices simétricas ↵M , siendo ↵ 6= 0
de las
c B a11 a12
yM= , de tamaño 3 ⇥ 3, donde A = y B = ( b1 b2 ). Por tanto
Bt A a12 a22
Definición 4.7.2
Se dice que dos cónicas son iguales si y sólo si sus matrices (en el mismo sistema de referencia) son
proporcionales.

Supongamos que se tiene una cónica de ecuación [1] respecto del sistema de referencia canónico, que
matricialmente la expresamos por
✓ ◆ ✓ ◆
1 c B
(1 X )M = 0 [1’] , donde X = ( x1 x2 ) y M =
Xt Bt A

con c, B, A las matrices descritas anteriormente. Si se adopta un nuevo sistema de referencia R0 donde
las coordenadas de un punto las denotamos por (x01 , x02 ) se tiene la relación
✓ ◆ ✓ ◆ ✓ 0◆
x1 c1 x1
= +Q [3]
x2 c2 x02

donde C = (c1 , c2 ) son las coordenadas del nuevo origen, y Q la matriz del cambio de base (sus
columnas expresan la base nueva en función de la canónica). La ecuación [3] puede escribirse:
✓ ◆ ✓ ◆
t ⇤ 1 ⇤ 1 0
(1 X ) = Q [3’] con Q =
X 0t Ct Q
152 LECCIÓN 4. GEOMETRÍA EUCLÍDEA

Obsérvese que el hecho de que Q sea regular ✓ garantiza ◆que lo sea Q⇤ Entonces, en la nueva referencia,
d B 0
la cónica tiene por matriz M 0 = Q⇤t M Q⇤ = siendo A0 = Qt AQ como puede comprobarse
B 0t A0
sustituyendo [30 ] en [10 ]. De donde se deduce que M y M 0 son congruentes. Por tanto poseen el mismo
rango y, al ser simétricas, la misma signatura. También los determinantes tienen el mismo signo:
det(M 0 ) = (det(Q⇤ ))2 det(M ) y (det(Q⇤ ))2 > 0 Lo mismo sucede para A y A0 .
Todo lo visto hasta aquı́ justifica en parte, que una matriz cualquiera asociada a una cónica
(respecto del sistema de referencia que sea) determine completamente dicha cónica.
En el siguiente cuadro se plasma la clasificación general de las cónicas. En él, M es la matriz de
la cónica y A es su matriz de términos cuadráticos (en un sistema de referencia dado).

Caso 1.- det(A) > 0, CONICA DE TIPO ELIPTICO

• det(M ) 6= 0 y sig(M ) = 3 o sig(M ) = 0: elipse imaginaria

• det(M ) 6= 0 y sig(M ) = 2 o sig(M ) = 1: elipse real

• det(M ) = 0: un punto (dos rectas imaginarias que se cortan en el punto)

Caso 2.- det(A) < 0, CONICA DE TIPO HIPERBOLICO

• det(M ) 6= 0: hipérbola

• det(M ) = 0: dos rectas (reales) concurrentes

Caso 3.- det(A) = 0, CONICA DE TIPO PARABOLICO

• det(M ) 6= 0: parábola

• det(M ) = 0: dos rectas paralelas (coincidentes si rg(M ) = 1, distintas si rg(M ) = 2 y sig(M ) =


1, imaginarias si rg(M ) = 2 y sig(M ) = 2, 0)

Para justificar la tabla anterior procedemos como sigue:


Vamos a considerar el sistema de ecuaciones (S):
✓ ◆✓ ◆ ✓ ◆
a11 a12 h1 b1
= ,
a12 a22 h2 b2

y partiendo del conjunto de soluciones que tenga dicho sistema vamos a realizar el estudio completo
de las cónicas.

1. El sistema (S) tiene solución única si y sólo si det(A) 6= 0


Supongamos que se tiene esta situación, y que (h1 , h2 ) es la solución de dicho sistema. En este
caso el punto de coordenadas (h1 , h2 ) recibe el nombre de centro de la cónica.
Consideramos el sistema de referencia R0 constituido por el punto P0 de coordenadas (h1 , h2 )
en el sistema de referencia de partida, y la base del mismo sistema de referencia. Con esto la
matriz del cambio del sistema de referencia es
0 1
1 0 0
Q ⇤ = @ h1 1 0 A ,
h2 0 1
4.7. CÓNICAS Y CUÁDRICAS 153

y la matriz M 0 asociada a la cónica es


0 1
d 0 0
0 ⇤t ⇤ @
M = Q MQ = 0 a11 a12 A
0 a12 a22
✓ ◆
↵ 0
siendo d = c + b1 h1 + b2 h2 . Sea T una matrix 2 ⇥ 2 regular tal que = A0 T t AT
=
0
(diagonal). Denotemos por R” el sistema de referencia con origen el punto P0 y base {v1 , v2 },
donde vi tiene por coordenadas en la base de R0 las de la columna i-ésima de Q. La matriz de
la cónica en el sistema R” es
0 1
d 0 0
M ” = T ⇤t M 0 T ⇤ = @ 0 ↵ 0 A
0 0
✓ ◆
1 0
donde T ⇤ es la matriz 3 ⇥ 3 del cambio del sistema de referencia de R0 a R”: T ⇤ = .
0 T
Teniendo en cuenta lo anterior:
1.1. det(A) > 0 si y sólo si ↵ y son simultáneamente positivos, o simultáneamente negativos,
y en esta situación:

• Si d = 0, lo que equivale a que det(M ) = 0, la ecuación de la cónica en el último sistema


de referencia es ↵x2 + y 2 = 0 que sólo tiene una solución. Por tanto en este caso la cónica
se reduce a un punto (dos rectas imaginarias secantes en ese punto).
• Si d > 0, entonces det(M ) 6= 0, y sig(M ) = 3 si ↵, > 0 o bien sig(M ) = 1 si ↵, < 0.
· Si sig(M ) = 3, la ecuación de la cónica en el último sistema de referencia es ↵x2 + y 2 +d =
0 con todos los coeficientes estrictamentes positivos, por tanto dicha ecuación no tiene
solución: elipse imaginaria.
· Si sig(M ) = 1, la ecuación de la cónica en el último sistema de referencia puede expresarse
como ( ↵)x2 + ( )y 2 = d, correspondiente a una elipse (real).
• Si d < 0, entonces det(M ) 6= 0, y sig(M ) = 2 si ↵, > 0 o bien sig(M ) = 0 si ↵, < 0.
· Si sig(M ) = 2, la ecuación es equivalente a la del caso d > 0, sig(M ) = 1: elipse.
· Si sig(M ) = 0, la situación es análoga a la de sig(M ) = 3: elipse imaginaria.

1.2. det(A) < 0 si y sólo si ↵ y son de signos opuestos. Supongamos que ↵ > 0 y < 0.

• Si d = 0, lo que equivale a que det(M ) = 0, la ecuación de la cónica en el último


q sistema de
2 2 ↵
referencia es ↵x + y = 0 que tiene como solución al par de rectas y = ± x, reales
y concurrentes.
• Si d 6= 0, lo que equivale a que det(M ) 6= 0, la ecuación de la cónica es la de una hipérbola.

Los otros dos casos que aparecen, en los que el sistema (S) o tiene infinitas soluciones, o no tiene
solución, aportan las cónicas que no tienen centro.

2. El sistema (S) tiene infinitas soluciones si y sólo si rango(A) = rango(A|bi ) = 1. En este caso
por tanto det(A) = 0.

3. El sistema (S) no tiene solución si y sólo si rango(A) = 1 y rango(A|bi ) = 2. También aquı́


det(A) = 0.
154 LECCIÓN 4. GEOMETRÍA EUCLÍDEA

• Se considera la cónica que, respecto del sistema de referencia canónico, tiene por ecuación

11x2 + 4xy + 14y 2 + 4x 8y 20 = 0

Vamos a ver si es una cónica con centro o sin centro, cuál es su ecuación reducida, las ecuaciones
de sus ejes en el caso de tenerlos, · · ·.

– La ecuación de la cónica escrita matricialmente es


0 10 1
20 2 4 1
(1 x y) @ 2 11 2 A @ xA = 0
4 2 14 y

Utilizando la notación manejada anteriormente, se tiene que


0 1
✓ ◆ 20 2 4
11 2
c= 20, B = (2 4), A= , M =@ 2 11 2 A
2 14
4 2 14

– Como rango de A es 2, la cónica es una cónica con centro, pues el sistema que planteamos
a continuación tiene solución y es única.
✓ ◆✓ ◆ ✓ ◆
11 2 h1 2
=
2 14 h2 4

6 8
– La solución de ese sistema es el centro de la cónica: P0 = ( 25 , 25 ).
Una base respecto de la cual la matriz de términos cuadráticos de la cónica es diagonal es
{e1 , 2e1 11e2 }:
✓ ◆✓ ◆✓ ◆ ✓ ◆
0 t 1 0 11 2 1 2 11 0
A = T AT = =
2 11 2 14 0 11 0 11 · 150
6 8
Si en el plano afı́n se considera el sistema de referencia R = {P0 = ( 25 , 25 ); v1 =
(1, 0), v2 = (2, 11)}, la matriz de la cónica respecto de este nuevo sistema de referen-
cia es (manteniendo la notación de la parte teórica):
0 544 1
25 0 0
M ” = T ⇤t M 0 T ⇤ = T ⇤t Q⇤t M Q⇤ T ⇤ = @ 0 11 0 A
0 0 1650

donde Q⇤ T ⇤ es la matriz del cambio de sistema de referencia (Q⇤ cambia el centro del
sistema, T ⇤ cambia la base).
0 10 1 0 1
1 0 0 1 0 0 1 0 0
Q⇤ T ⇤ = @ 6
25 1 0A@0 1 2 A = @ 256
1 2 A
8 8
25 0 1 0 0 11 25 0 11
544
La ecuación de la cónica en el nuevo sistema es por tanto 11x02 + 1650y 02 25 = 0, que
también se escribe
x02 y 02
q + q =1
( 544
275 ) 2 ( 544 2
31.250 )
4.7. CÓNICAS Y CUÁDRICAS 155

Si un punto P de la cónica tiene coordenadas (x, y) respecto el sistema de referencia canónico


y coordenadas (x0 , y 0 ) respecto R, se tiene la siguiente relación (como se ha visto más arriba)
✓ ◆ ✓ 6 ◆ ✓ ◆✓ 0◆
x 25 1 2 x
= 8 +
y 25 0 11 y0
Esto es,
6 2 8 1 8
x0 = (x + ) + (y ), y0 = (y )
25 11 25 11 25
– Si la diagonalización de A se hubiese realizado a partir de la base ortonormal B = {v1 =
p1 (2, 1), v2 = p1 (1, 2)} tendrı́amos
5 5
✓ ◆
10 0
A01 = T1t AT1 =
0 15
siendo T1 la matriz cuyas columnas son los vectores de B. Los elementos 15 y 10 de la
diagonal principal de A01 son los autovalores de A.
Cuando en el plano se considera el sistema de refencia ortonormal R1 = {P0 ; v1 , v2 }, la
matriz de la cónica es 0 544 1
25 0 0
M” = @ 0 10 0 A
0 0 15
y su ecuación por tanto
544
10x21 + 15y12 = 0,
25
x21 y12
que también se escribe q
544 2
+ q
544 2
= 1 Esta ecuación recibe el nombre de ecuación
( 250
) ( 375
)
reducida de la cónica. Se llaman ejes de la cónica a las rectas perpendiculares que pasan
por el centro de la cónica y tienen las direcciones de los vectores de la base ortonormal
de autovectores de la matriz A. En este caso concreto son ejes de la elipse las rectas de
ecuaciones paramétricas siguientes:
( 6
(
x = 25 + p15 ↵ 0
x = 25 6
+ p25 ↵
r: 8 r :
y = 25 + p25 ↵ 8
y = 25 p1 ↵
5

Los ejes de la elipse (o en general de una cónica con centro) son ejes de simetrı́a de la
misma. q q
Los valores a = 544250 y b = 544
375 reciben el nombre de longitudinales de los semiejes. El
valor c > 0 que verifica a2 = b2 + c2 se llama semidistancia focal y el cociente ac recibe el
nombre de excentricidad de la elipse. Los puntos que en el sistema de referencia R1 tienen
coordenadas (±c, 0) reciben el nombre de focos de la elipse.

4.7.2 Cuádricas

En el espacio afı́n tridimensional se llama cuádrica al lugar geométrico de los puntos cuyas coordenadas
(respecto sistema de referencia canónico) (x1 , x2 , x3 ) verifican una ecuación del tipo

a11 x21 + a22 x22 + a33 x23 + 2a12 x1 x2 + 2a13 x1 x3 + 2a23 x2 x3 + 2b1 x1 + 2b2 x2 + 2b3 x3 + c = 0 [1]
156 LECCIÓN 4. GEOMETRÍA EUCLÍDEA

para ciertos números reales aij , bk , c tales que los aij no son simultáneamente todos nulos.
La ecuación anterior se expresa matricialmente:
0 10 1
c b1 b2 b3 1
B b1 a11 a12 a13 C B x1 C
( 1 x1 x2 x3 ) B @ b2 a12
CB C = 0
a22 a23 A @ x2 A
b3 a13 a23 a33 x3
El conjunto de puntos de coordenadas (x1 , x2 , x3 ) que verifica la ecuación [1] es el mismo que el que
verifica la ecuación

↵(a11 x21 + a22 x22 + a33 x23 + 2a12 x1 x2 + 2a13 x1 x3 + 2a23 x2 x3 + 2b1 x1 + 2b2 x2 + 2b3 x3 + c) = 0 [2]

cuando ↵ 6= 0, que escrita de forma matricial:


0 10 1
c b1 b2 b3 1
B b1 a11 a12 a13 C B x1 C
C B
( 1 x1 x2 x3 ) ↵ B
@ b2
C=0
a12 a22 a23 A @ x2 A
b3 a13 a23 a33 x3

Definición 4.7.3 0 1
c b1 b2 b3
B b1 a11 a12 a13 C
Se llama matriz de la cuádrica definida por la ecuación [1] a la matriz M = B
@ b2
Co
a12 a22 a23 A
0 b3 a13 a23 1a33
a11 a12 a13
a cualquiera de sus proporcionales: ↵M con ↵ 6= 0. La matriz no nula A = @ a12 a22 a23 A recibe
a13 a23 a33
el nombre de matriz de los términos cuadráticos de la cuádrica.

Un tratamiento similar al realizado para las cónicas nos permitirı́a decir que cuando se realiza un
cambio de sistema de referencia en el espacio afı́n:
1. La matriz M 0 asociada a la cuádrica respecto de ese nuevo sistema de referencia es equivalente a
la matriz M . El mismo resultado se obtiene respecto de las matrices de los términos cuadráticos.

2. Es consecuencia de lo anterior que los rangos de M y M 0 son iguales ası́ como sus signa-turas.
Lo mismo sucede cuando se consideran las matrices de términos cuadráticos.

3. Los determinantes de M y M 0 tienen el mismo signo. También este resultado es cierto para las
matrices A y A0 .
En el siguiente cuadro se resume la clasificación de las cuádricas. En él, M es la matriz de la
cuádrica y A es su submatriz de los términos cuadráticos (en un sistema de referencia cualquiera). En
las expresiones del tipo tipo s(X) = (p, q), donde X=A ó M y p y q valores enteros debe tenerse en
cuenta que p se corresponde con la cantidad de valores propios estrictamente positivos de la matriz
correspondiente y q con la cantidad de valores propios estrictamente negativos. En el cuadro no apare-
cen los casos en los que la cuádrica es un par de planos (paralelos, secantes, ...) porque complican en
exceso la clasificación y además pueden resultar de menor interés. Sólo al final aparece un ejemplo
que muestra uno de esos casos.

Caso 1.- rango(M) = 4, Cuádricas ordinarias o no degeneradas


4.7. CÓNICAS Y CUÁDRICAS 157

• rango(A) = 3, cuádricas con centro

1. s(M)=(4,0) y s(A)=(3,0), ELIPSOIDE IMAGINARIO


2. s(M)=(3,1) y s(A)=(3,0), ELIPSOIDE REAL
3. s(M)=(3,1) y s(A)=(2,1), HIPERBOLOIDE ELÍPTICO
4. s(M)=(2,2) y s(A)=(2,1), HIPERBOLOIDE HIPERBÓLICO

• rango(A) = 2, cuádricas sin centro

1. s(M)=(3,1) y s(A)=(2,0), PARABOLOIDE ELÍPTICO


2. s(M)=(2,2) y s(A)=(1,1), PARABOLOIDE HIPERBÓLICO

Caso 2.- rango(M) = 3, Cuádricas con un punto singular

• rango(A) = 3, conos

1. s(M)=(3,0) y s(A)=(3,0), CONO IMAGINARIO (con vértice real)


2. s(M)=(2,1) y s(A)=(2,1), CONO REAL

• rango(A) = 2, cilindros

1. s(M)=(3,0) y s(A)=(2,0), CILINDRO IMAGINARIO


2. s(M)=(2,1) y s(A)=(2,0), CILINDRO ELÍPTICO (real)
3. s(M)=(2,1) y s(A)=(1,1), CILINDRO HIPERBÓLICO
4. s(M)=(2,1) y s(A)=(1,0), CILINDRO PARABÓLICO

La cuádrica de ecuación: x2 + y 2 z 2 + 2xy x y + z = 0, tiene por matriz asociada a


0 1 1 1 1
0 2 2 2
B 1 1 1 0 C
M =B @ 1
2 C
2 1 1 0 A
1
2 0 0 1

En este caso det(M ) = 0, rango(M ) = 3, y el rango(A) = 2. Como ejercicio se deja el determinar


las signaturas de M y A, y comprobar que no encaja en ninguno de los casos del cuadro anterior.
Finalmente observar que x2 + y 2 z 2 + 2xy x y + z = (x + y + z 1)(x + y z) = 0, y que el
conjunto solución está formado por los planos de ecuaciones:

x+y+z 1=0

x+y z=0
158 LECCIÓN 4. GEOMETRÍA EUCLÍDEA

4.8 Problemas de Geometrı́a Euclı́dea


Problema 4.8.1
En R5 se tiene definido el producto interior habitual y se considera el subespacio

W = h(1, 2, 3, 1, 2), (2, 4, 7, 2, 1)i

i) Determina el conjunto W ? de vectores de R5 ortogonales a todos los de W , y demuestra que es


un subespacio de R5 . ¿Quiénes son W \ W ? y W + W ? ?.

ii) Calcula bases ortonormales para W y para su complemento ortogonal W ? .

Problema 4.8.2
En R3 con el producto interior habitual se consideran los vectores v = (1, 0, 1), w = (1, 2, 0) y
u = (0, 2, 3).
i) Halla, a partir de los vectores anteriores, una base ortonormal de R3 aplicando el proce-dimiento
de Gram-Schmidt.

ii) Halla una base del complemento ortogonal al subespacio generado por v y u.

iii) Halla la intersección de los subespacios S y T , donde S es el subespacio ortogonal a los vectores
v y u, y T es el subespacio ortogonal a los vectores v y w.

Problema 4.8.3
Halla una base ortonormal u, v, w de R3 tal que el subespacio generado por u y v esté contenido en el
plano x + y + z = 0, y el generado por u y w lo esté en el plano 2x y z = 0.

Problema 4.8.4 p p
Demuestra que los vectores de R4 : u = (1/ 2, 0, 1/ 2, 0) y v = ( 1/2, 1/2, 1/2, 1/2) son ortonor-
males y halla una base ortonormal de R4 que incluya los vectores anteriores.

Problema 4.8.5
¿Son verdaderas o falsas las siguientes afirmaciones?.
i) Si P y Q son matrices ortogonales de orden n ⇥ n, entonces P Q es ortogonal.

ii) Si P es una matriz ortogonal simétrica, entonces P 2 = I.

iii) Si P es ortogonal, entonces detP = +1.

Problema 4.8.6 p
Sean u y v dos vectores ortonormales de Rn . Prueba que la norma de u v es 2.
4.8. PROBLEMAS DE GEOMETRÍA EUCLÍDEA 159

Problema 4.8.7
Sea A una matriz cuyas columnas forman una base de R3 . Sea B la matriz que tiene por columnas
los vectores de R3 que se obtienen de aplicar Gram-Schmidt a las columnas de A. ¿Cuáles de las
siguientes afirmaciones son verdaderas?.

• Las dos primeras columnas de A y las dos primeras columnas de B generan el mismo subespacio
de R3 .

• B es una matriz ortogonal.

Problema 4.8.8
Demuestra que en Rn :

a) Para cualquier subespacio S, (S ? )? =S.

b) Si S y T son subespacios tales que S ? = T ? , entonces S = T .

c) Si S y T son subespacios tales que S ⇢ T , entonces T ? ⇢ S ? .

Problema 4.8.9
Demuestra el teorema generalizado de Pitágoras: Sean u y v dos vectores de Rn ortogonales. Entonces
||u + v||2 = ||u||2 + ||v||2 .

Problema 4.8.10
En cada uno de los siguientes apartados se da un subespacio U y un vector v de R2 , R3 o R4 , y se
pide para cada caso:

i) Calcular pU v .

ii) Hallar una base ortonormal para U .

iii) Escribir v = u + u0 con u 2 U y u0 2 U .

a) U = {(x, y) 2 R2 : x + y = 0}; v = ( 1, 2)
b) U = {(x, y) 2 R2 : x + y = 0}; v = (1, 1)
c) U = {(x, y) 2 R2 : ax + by = 0}; v = (a, b) con a o b no nulos
d) U = {(x, y, z) 2 R3 : ax + by + cz = 0}; v = (a, b, c) con a, b o c no nulos.
e) U = {(x, y, z) 2 R3 : 3x 2y + 6z = 0}; v = (3, 1, 4)
f) U = {(x, y, z) 2 R3 : x/2 = y/3 = z/4}; v = (1, 1, 1)
g) U = {(x, y, z, t) 2 R4 : 2x y + 3z t = 0}; v = (1, 1, 2, 3)
h) U = {(x, y, z, t) 2 R4 : x = y, t = 3y}; v = ( 1, 2, 3, 1)
160 LECCIÓN 4. GEOMETRÍA EUCLÍDEA

Problema 4.8.11
En cada uno de los siguientes casos encuentra la recta que se ajusta mejor a los puntos dados.

a) (1, 3), ( 2, 4), (7, 0)

b) ( 3, 7), (4, 9)

b) ( 3, 7), (4, 9), (1, 3), ( 2, 4)

Problema 4.8.12
En cada uno de los siguientes casos encuentra el mejor ajuste cuadrático para los puntos dados.

a) (2, 5), (3, 0), (1, 1), (4, 2)

b) ( 7, 3), (2, 8), (1, 5)

Problema 4.8.13
Sean u y w dos vectores unitarios de R2 linealmente independientes. Sea s la simetrı́a ortogonal de
eje la recta (vectorial) engendrada por u + w. Demuestra que s(u) = w.

Problema 4.8.14
Se considera el endomorfismo f de R2 que respecto de la base canónica tiene como matriz la siguiente:
✓p p ◆
p2/2 p 2/2
2/2 2/2

i) Demuestra que f es una isometrı́a. ¿Es rotación o simetrı́a?.

ii) Sea u = (1, 1) y s la simetrı́a ortogonal de eje la recta engendradra por u. Determina una
simetrı́a s0 tal que f = s0 os.

Problema 4.8.15
En R2 se considera la base canónica y los vectores u = (1, 1) y u0 = ( 1, 2). Sean s y s0 las simetrı́as
ortogonales de ejes las rectas engendradas por u y u0 respectivamente. ¿Cuáles son las matrices de las
rotaciones sos0 y s0 os?.¿Qué relación existe entre ambas?.

Problema 4.8.16
16.-
4.8. PROBLEMAS DE GEOMETRÍA EUCLÍDEA 161

En R2 se considera la rotación vectorial r que respecto de la base canónica tiene por matriz
✓ p ◆
p1/2 3/2
3/2 1/2

Halla respecto de esa base las matrices de las rotaciones t tales que t2 = r.

Problema 4.8.17
Se considera el plano euclı́deo R2 .

i) Halla la matriz (respecto de la base canónica) de la simetrı́a ortogonal s de eje la recta (vectorial)
engendrada por el vector u = (1, 2).

ii) Determina la simetrı́a ortogonal s0 tal que r = s0 os, donde r es la rotación vectorial, que respecto
de una base ortonormal, tiene por matriz A.
✓ p ◆
1/3
p 2 2/3
A=
2 2/3 1/3

Problema 4.8.18
En R2 se consideran los vectores u = (1, 2) y v = ( 1, 1) y las semirrectas vectoriales Du =
{↵(1, 2)/↵ 2 R+ } y Dv = {↵( 1, 1)/↵ 2 R+ }. Halla respecto de la base canónica las matrices
de las isometrı́as f de R2 tales que f (Du ) = Dv .

Problema 4.8.19
Sean u, v, w tres vectores de R2 tales que u y v son linealmente independientes y u + v + w = 0. Sea
f un endomorfismo de R2 tal que f conserva la norma de u, v y w.

i) Demuestra que conserva el producto escalar de u y v.

ii) Demuestra que f es una isometrı́a de R2 .

Problema 4.8.20 p p p p p
En R3 se considera la base B = {u = (1, 1, 1), v = (1/ 2, 0, 1/ 2), w = ( 1/ 6, 2/ 6, 1/ 6)}.

a) Demuestra que el subespacio ortogonal a hui está generado por v y w.

b) Sea f la isometrı́a de R3 que tiene asociada respecto de B la matriz A siguiente


0 1
1 p0 p0
A = @ 0 p2/2 p 2/2 A
0 2/2 2/2

¿Es una isometrı́a positiva o negativa?. ¿Cuál es su polinomio caracterı́stico?. ¿De qué tipo de
transformación se trata?. Describe los elementos que la caracterizan.

c) Halla la imagen por f de los vectores (1, 1, 2), (1, 0, 0), ( 2, 2, 2).
162 LECCIÓN 4. GEOMETRÍA EUCLÍDEA

Problema 4.8.21
En R3 se considera el plano vectorial P engendrado por los vectores u = (1, 2, 0) y v = ( 1, 1, 1) y la
simetrı́a ortogonal s respecto del plano P .
a) ¿Cuál es el polinomio caracterı́stico de s?. Determina una base de R3 respecto de la cual s esté
representada, como isometrı́a, por una matriz canónica.

b) Determina la matriz asociada a s respecto de la base canónica de R3 .

c) Halla la imagen por s de los vectores (0, 3, 1), ( 2, 1, 3), (1, 0, 0).

Problema 4.8.22
Sean 1 , 2 y 3 los endomorfismos de V = R3 definidos, respecto de la base canónica, por las matrices
siguientes.
0 1 0 1 0 1
1 0 0 1 p0 p0 1 0 0
2 2 A
M ( 1) = @ 0 1 0 A M ( 2 ) = @ 0 p2 2p M ( 3) = @ 0 1 0 A
0 0 1 2 2 0 0 1
0 2 2

1. Demuestra que los endomorfismos 1, 2 y 3 son todos ellos isometrı́as (o transformaciones


ortogonales).

2. Las transformaciones 1 , 2 y 3 son simetrı́as (vectoriales). Señala para cada una de ellas,
el plano de vectores fijos (o base de la simetrı́a), ası́ como un vector que se transforme en su
opuesto. ¿Qué relación hay entre el plano y el vector?.

3. ¿Qué tipo de isometrı́a es 1 · 3 ?. Señala los elementos que la caracterizan.

4. Sea U =< e2 , e3 > y ⇢ la restricción de 2 · 3 a U . ¿Qué tipo de isometrı́a es ⇢?.

5. ¿Tiene algún vector fijo 1 · 2 · 3 ?.

Problema 4.8.23
Se consideran las siguientes bases de V = R3 :

B = {v1 = (1, 1, 1), v2 = (1, 0, 0), v3 = (1, 1, 0)}

Bc = {e1 = (1, 0, 0), e2 = (0, 1, 1), e3 = (0, 0, 1)}


y la matriz 0 p2 p 1
2
2 0 2
M = @ p0 1 0p A
2 2
2 0 2
Sea el endomorfismo de V = R3 definido, respecto de la base B, por la matriz M ( MB ( ) = M ), y
sea el endomorfismo de V = R3 definido, respecto de la base Bc , por la matriz M (MBc ( ) = M ).
4.8. PROBLEMAS DE GEOMETRÍA EUCLÍDEA 163

1. Demuestra que:
· M es una matriz ortogonal.
· no es una isometrı́a en V = R3 .
· es una isometrı́a en V = R3 .

2. Suponiendo que ⇢ es endomorfismo de un espacio vectorial euclı́deo V , ¿son verdaderas o falsas


las siguientes afirmaciones?
· Si M es una de las matrices asociadas a ⇢, ⇢ es una isometrı́a si y sólo si M t M es la matriz
identidad
· Si M una matriz asociada a ⇢ respecto de una base ortonormal de V , ⇢ es una isometrı́a si y
sólo si M t M es la matriz identidad

3. Demuestra que es una simetrı́a (vectorial), y determina el plano de vectores fijos (base de la
simetrı́a).

4. Halla una isometrı́a ⇢ de V = R3 tal que ⇢ = ' sea la simetrı́a que tiene como plano de
vectores fijos el generado por e1 y e2 . Dı́ qué tipo de transformación es ⇢ y establece los elementos
que la caracterizan.

Problema 4.8.24
Prueba que cada uno de los conjuntos de puntos siguientes es un sistema de referencia en el espacio
afı́n (estandar) R3 .

a) P0 = (1, 0, 1), P1 = (1, 1, 0), P2 = (0, 1, 1), P3 = (0, 0, 1)

b) Q0 = ( 1, 0, 2), Q1 = (0, 1, 2), Q2 = (0, 0, 1), Q3 = (1, 0, 3)

Problema 4.8.25
Se considera el espacio afı́n R3 .

a) Establece la relación existente entre el sistema de referencia canónico de R3 y cada uno de los
sistemas de referencia del ejercicio anterior.

b) Establece la relación existente entre el sistema de referencia R = {P0 , P1 , P2 , P3 } y R0 =


{Q0 , Q1 , Q2 , Q3 }

c) Sea el punto P = (1, 2, 3) de R3 . Halla las coordenadas de P en los sistemas de refencia R y R0 .

Problema 4.8.26
onsideremos en el espacio afı́n estandar Rn un subconjunto Y de puntos. Se dice que Y es un subespacio
afı́n de Rn si para algún punto P de Y , el conjunto de vectores WP (Y ) = {P~Q/Q 2 Y } es un subespacio
del espacio vectorial Rn .
164 LECCIÓN 4. GEOMETRÍA EUCLÍDEA

i) Demuestra que si para algún P 2 Y , WP (Y ) es un subespacio, entonces para todo punto P 0 de


Y , el conjunto WP 0 (Y ) es un subespacio y coincide con WP (Y ) .
El resultado anterior nos permite establecer las siguientes definiciones. Si Y es un subespacio
afı́n, el subespacio vectorial W (Y ) = WP (Y ) (pues no depende de P ) es llamado espacio vectorial
asociado con Y . Se define como dimensión de Y la dimensión de W (Y ). Observar que si Y = Rn ,
W (Y ) = Rn y que la dimensión de Rn como espacio afı́n es la misma que tiene como espacio
vectorial.
ii) Sea P un punto del espacio afı́n Rn , y W un subespacio de Rn (como espacio vectorial). ¿Es
Y = {Q/P~Q 2 W } un espacio afı́n?.
iii) ¿En qué consiste un subespacio afı́n de dimensión 0?. Un subespacio afı́n de Rn es llamado recta,
plano o hiperplano cuando dimY es respectivamente 1, 2 o n 1.

Problema 4.8.27
En R3 consideramos el punto P = (1, 2, 3) y sea W el subespacio generado por los vectores v = (1, 0, 1)
y w = (1, 1, 1).
i) Da las ecuaciones paramétricas del subespacio afı́n Y que pasa por P y tiene como subespacio
vectorial asociado a W .
ii) Da una recta afı́n que verifique en cada caso una de las condiciones siguientes:
- Pasa por P y está contenida en Y
- Está contenida en Y pero no pasa por P
- Pasa por P y no está contenida en Y
- Tiene un solo punto en común con Y y es distinto de P
- No tiene ningún punto en común con Y

Problema 4.8.28
En R3 consideramos dos rectas afines r y r0 .
i) Si existe un plano que contiene a ambas, ¿qué puede decirse de la posición relativa de dichas
rectas?. Justifica tu respuesta.
ii) Da una recta afı́n r que pase por el punto (1, 1, 1) y una recta r que pase por el (1, 0, 1) para
las cuáles no exista un plano que contenga a ambas rectas a la vez.

Problema 4.8.29
Sea f : R3 ! R3 la aplicación que a cada punto P (x, y, z) le asocia el punto f (P ) = (x0 , y 0 , z 0 ) tal que
x0 = 1 + x + 2y + z
y0 = 2 + y z
0
z = 1 + x + 3z
4.8. PROBLEMAS DE GEOMETRÍA EUCLÍDEA 165

a) Demuestra que f es una aplicación afı́n. ¿Es f una transformación afı́n?

b) Si F es la aplicación lineal asociada a f , determina KerF y Im(f )

c) Se considera la recta de puntos r de R3 dada por las ecuaciones paramétricas siguientes:

x=1+↵

y=2 ↵
z= 1+↵
Determina f (r).

d) Se consideran los siguientes planos de puntos:

⇧ de ecuación 2x + y z+1=0

⇧0 de ecuación x + y + 2z 1=0
Obtén la imagen de cada plano por f y explica los resultados.

Problema 4.8.30
Consideremos Rn como espacio afı́n euclideo, y sea f : Rn ! Rn una aplicación que conserva la
distancia. La condición anterior es suficiente para garantizar que f es un movimiento, es decir, que
es afı́n y biyectiva. En este ejercicio se pretende que pruebes lo anterior resolviendo cada uno de los
siguientes apartados:

a) Sea g : V = Rn ! V = Rn una aplicación que conserva el producto escalar, y sea B = {v1 , ..., vn }
una base ortonormal de Rn . Obsérvese que no se dice que g sea lineal, eso es lo que se trata de
probar.

i) Demuestra que g(B) = {g(v1 ), ..., g(vn )} es una familia de vectores ortonormal. Deduce
que g(B) es una base de Rn .
ii) Recuerda que por ser B una base ortonormal, si v 2 Rn es tal que v = a1 v1 + ... + an vn ,
entonces ai = v.vi , 8i. También para g(v) = b1 g(v1 )+...+bn g(vn ), se tiene bi = g(v).g(vi ),8i.
Usa lo anterior para probar que g es lineal.
iii) Deduce que g es un isomorfismo.

b) Sea P 2 X = Rn un punto cualquiera pero fijo, y sea FP : V = Rn ! V = Rn la aplicación


~ (Q), donde f es la aplicacón de Rn en Rn que conserva las
definida por FP (P~Q) = f (P )f
distancias

i) Prueba que FP conserva el producto escalar. (Indicación: Desarrolla (v w).(v w) y


(FP (v) FP (w)).(FP (v) FP (w)) para v = P~Q y w = P~R)
ii) Deduce que FP es lineal. ¿Es FP biyectiva?.
iii) ¿Puedes concluir ya que f es afı́n y biyectiva?.
166 LECCIÓN 4. GEOMETRÍA EUCLÍDEA

Problema 4.8.31
Sean tv y tu dos traslaciones del espacio afı́n euclideo R2 . Determina qué aplicaciones son tv otu y
tu otv . ¿Qué sucede en el caso en que u = v?.

Problema 4.8.32
Sean hP,↵ y hP, dos homotecias de centro P del espacio afı́n R2 . Determina qué aplicaciones son
hP,↵ ohP, , y hP, ohP,↵ . ¿En qué caso las composiciones anteriores resultan ser la aplicación identidad?.

Problema 4.8.33
En el espacio afı́n R2 se considera la homotecia hP, 1.

a) Realiza un dibujo que muestre el comportamiento de dicha homotecia. ¿Darı́as un nombre


especial a la aplicación anterior?. ¿Qué aplicación es (hP, 1 )2 ?.

b) Se considera el cuadrado de vértices (0, 0), (1, 0), (0, 1), (1, 1). ¿Cuál es la imagen de dicho
cuadrado por la homotecia hP, 1 con P = (1/2, 1/2)?. ¿Qué nombre darı́as a P en referencia al
cuadrado?.

Problema 4.8.34
Sean f y g dos afinidades en el espacio afı́n Rn , y sean F y G lasaplicaciones lineales respectivas.
Demuestra que f og es una afinidad de aplicación lineal asociada F oG.

Problema 4.8.35
Sea p : R3 ! R3 la proyección afı́n de base el plano ⇧ : x + y + z = 1 y dirección W = h(1, 1, 2)i.
Determina la imagen por dicha proyección

i) del punto (1, 1, 1)

ii) de la recta
x=1+↵

y=1 ↵

z = 1 + 2↵

iii) de la recta
x=1+↵

y =1+↵

z =1+↵
4.8. PROBLEMAS DE GEOMETRÍA EUCLÍDEA 167

Problema 4.8.36
Demuestra que la aplicación de R3 en R3 , que al punto M (x, y, z) asocia el punto M 0 (x0 , y 0 , z 0 ) tal
que
x0 = y + z 1
y0 = x+z 1
z0 = x y + 2z 1
es una proyección. Determina sus elementos base y dirección.

Problema 4.8.37
Demuestra que la aplicación de R3 en R3 , que al punto M (x, y, z) asocia el punto M 0 (x0 , y 0 , z 0 ) tal que

x0 = 2x 2z 3

y0 = x z 2
z0 = x z 3
es una proyección. Determina sus elementos base y dirección.

Problema 4.8.38
Sean Y y Z dos subespacios afines de Rn con la misma dimensión, y W (Y ) y W (Z) los subespacios
vectoriales asociados (llamados direccionesde Y y Z respectivamente). Se dice que Y y Z son paralelos
si W (Y ) = W (Z).

i) Da ejemplos de rectas en R3 que sean paralelas.

ii) ¿Son paralelos los planos de R3 siguientes?

Y :x y + 2z = 1

Z:x=1 a + 3b
y =1+a+b
z =1+a b

iii) ¿Son paralelos los planos de R3 siguientes?

Y :x y + 2z = 1

Z:x=1 a + 3b
y =a+b
z=a b

iv) ¿Cómo son Y y Z si siendo paralelos tienen un punto en común?.

v) Demuestra que si Y y Z son rectas paralelas sin puntos en común, entonces existe un plano que
contiene a ambas rectas.
168 LECCIÓN 4. GEOMETRÍA EUCLÍDEA

vi) Demuestra que la imagen por una homotecia o traslación de una recta afı́n es otra recta paralela
a la primera. Deduce que rectas paralelas se transforman por una homotecia o una traslación
en rectas paralelas.

Problema 4.8.39
Da la ecuación matricial de la simetrı́a afı́n de R2 respecto a la recta de ecuación x + y = 1 paralela-
mente al subespacio vectorial engendrado por el vector u = (1, 2).

Problema 4.8.40
Se considera el espacio afı́n estandar R3 con el sistema de referencia canónico. Sea f : R3 ! R3 la
aplicación que a cada punto M (x, y, z) le asocia el punto f (M ) : (x0 , y 0 , z 0 ) siendo x0 = 3x 4z 6,
y 0 = 2x y 2z 4, z 0 = 2x 3z 6. Demuestra que f es una aplicación afı́n. Prueba que f es una
simetrı́a determinando sus elementos (base y dirección).

Problema 4.8.41
De las rectas que hayas dado en el apartado i) del ejercicio 4.8.38, obtén sus imágenes por

i) la proyección del ejercicio 4.8.36.

ii) la simetrı́a del ejercicio 4.8.40.

¿Los subespacios afines obtenidos en i) son paralelos? ¿Los subespacios afines obtenidos en ii) son
paralelos?

Problema 4.8.42
En el espacio afı́n euclideo X = R2 se considera la siguiente aplicación afı́n:

f : X = R2 ! X = R2

(x, y) ! (x + 1, y 2)
Demuestra que es un movimiento y dı́ de qué movimiento se trata dando los elementos que lo definen.

Problema 4.8.43
En el espacio afı́n X = R2 se consideran los puntos P = (1, 2) y Q = (2, 3). Si r es la recta que pasa
por P y Q, ¿cuál es la ecuación de la recta imagen de r por una traslación de vector v = ( 1, 1)?.

Problema 4.8.44
En el espacio afı́n X = R3 se considera el plano de puntos ⇧ = {(x, y, z) 2 X : x y = z + 1}.
Determina la imagen del punto P = (0, 0, 0) por la simetria ortogonal de base el plano ⇧.

Problema 4.8.45
En el espacio afı́n X = R3 se considera el punto P (1, 2, 3).
4.8. PROBLEMAS DE GEOMETRÍA EUCLÍDEA 169

1. Determina la imagen del punto P por cada una de las aplicaciones afines siguientes.

(a) Traslación de vector v : ( 1, 2, 3).


(b) Proyección ortogonal de base el plano de puntos x + 2y + 3z = 0.
(c) Simetrı́a ortogonal de base el plano de puntos x + 2y + 3z = 7.
(d) Homotecia de centro C(2, 4, 6) y razón ↵ = 2.

2. Realiza dos dibujos que ilustren que las aplicaciones de los apartados 2. y 4. no son movimientos.
170 LECCIÓN 4. GEOMETRÍA EUCLÍDEA
Parte II

Cuestionarios

171
Cuestionarios

Se incluye a continuación un conjunto de preguntas de respuesta múltiple cuya realización se aconseja


con el fin de verificar que se han asimilado correctamente los conceptos que se han manejado en las
siete lecciones de este volumen. En cada cuestión siempre hay, al menos, una respuesta correcta
pudiendo ser correctas todas las respuestas posibles.

Cuestionario 1: Espacios Vectoriales


Cuestión 1
¿Cuáles de los siguientes conjuntos son subespacios vectoriales de (R4 , +, ·R )?

1. U = {(x, y, z, t) 2 R4 : x, y, z 2 Z, t = 0}

2. W = {(x, y, z, t) 2 R4 : y, z, t 2 Q, x = 0}

3. T = {(x, y, z, t) 2 R4 : y = 0}

4. S = {(x, y, z, t) 2 R4 : z = 3, t = 0}

Cuestión 2
Se considera el subespacio de (R4 , +, ·R ) siguiente:

U = {(x, y, z, t) 2 R4 : x + 2y + 3z + 4t = 0}

¿Cuáles de los siguientes conjuntos de vectores son sistema generador de U ?

1. S1 = {(2, 1, 0, 0), (3, 0, 1, 0), (4, 0, 0, 1)}

2. S2 = {(1, 1, 1, 0), (3, 2, 1, 1)}

3. S3 = {(2, 1, 0, 0), (3, 0, 1, 0), (4, 0, 0, 1), (1, 1, 1, 0)}

4. S4 = {(2, 1, 0, 0), (3, 0, 1, 0), (1, 1, 1, 0)}

Cuestión 3
¿Cuáles de las siguientes familias de vectores de (R4 , +, ·R ) son libres?

1. L1 = {(2, 1, 0, 0), (3, 0, 1, 0), (4, 0, 1, 0)}

173
174 CUESTIONARIO

2. L2 = {(2, 1, 0, 0), (3, 0, 1, 0), (1, 1, 1, 0)}

3. L3 = {(1, 0, 0, 1), (0, 1, 1, 0), (1, 0, 1, 0), (0, 1, 0, 1)}

4. L4 = {(1, 1, 1, 1)}

Cuestión 4
Sea V un R-espacio vectorial de dimensión 6. ¿Cuáles de las siguientes afirmaciones son verdaderas?
1. En V existen sistemas generadores con 6, 7, 8 y más vectores.

2. Si L es una familia libre de vectores de V , entonces en L hay a lo sumo 6 vectores.

3. Si v1 , v2 , v3 son vectores linealmente independientes de V , entonces existen vectores v4 , v5 tales


que {v1 , v2 , v3 , v4 , v5 } es una familia libre.

4. Si v1 , v2 , v3 son vectores linealmente independientes de V , entonces existen vectores v4 , v5 tales


que {v1 , v2 , v3 , v4 , v5 } es un sistema generador.

Cuestión 5
Sea V un R-espacio vectorial de dimensión 4 y U y W subespacios de V y distintos entre sı́. ¿Cuáles
de las siguientes afirmaciones son verdaderas?
1. Si U y W tienen ambos dimensión 3, entonces la dimensión de U \ W es 2.

2. Si U = {u1 , u2 } y u1 , u2 2
/ W , entonces U \ W = {0}.

3. Si la dimensión de U es 3, la dimensión de W es 2 y W no es subespacio de U , entonces existe


un subespacio T tal que T ⇢ W y V = U T .

4. Si dim(U + W ) = 3 y dim(U \ W ) = 2, entonces U ⇢ W o W ⇢ U .

Cuestión 6
Sea V el R-espacio vectorial de las matrices de la forma
0 1
a b 0
@0 c dA a, b, c 2 R
0 0 e
¿Cuáles de las siguientes afirmaciones son verdaderas?
1. dimR (V ) = 5
0 1 0 1
1 0 0 0 1 0
2. Las matrices @ 0 1 0 A y @ 0 0 1 A, ambas en V , son linealmente independientes.
0 0 1 0 0 0
(01 0 01 00 1 01)
3. El conjunto @ 0 1 0 A , @ 0 0 1 A es base de V .
0 0 1 0 0 0
CUESTIONARIO 175
0 1
3 4 0
4. La matriz @ 0 2 5 A 2 V , no pertenece al subespacio generado por
0 0 1
(01 0 01 00 1
1
0 )
S = @0 1 0A, @0 0 1A
0 0 1 0 0 0

Cuestión 7
En el R-espacio vectorial R3 [X] de los polinomios con coeficientes reales de grado menor o igual a 3
se consideran los subespacios:

U = {p(X) = aX 3 + bX 2 + cX + d 2 R3 [X] : (p(X))00 = cX + d}

W = {p(X) = aX 3 + bX 2 + cX + d 2 R3 [X] : (p(X))0 = bX 2 + cX + d}


¿Cuáles de las siguientes afirmaciones son verdaderas?

1. El conjunto {X 3 + 6X, X 2 + 2} es base de U .

2. W = {X 3 + 3X 2 + 6X + 2}

3. W ⇢ U

4. U \ W = {0}

Cuestión 8
Se considera el subespacio de R3 :
U = h{(1, 1, 1), (1, 1, 0)}i
y sean uk = (1, 1, 1) + k(1, 1, 0) y Uk = h{uk }i con k 2 Z, k > 0 ¿Cuáles de las siguientes afirmaciones
son verdaderas?

1. Si i 6= j, entonces Ui \ Uj = {0}.

2. Ui \ Uj = {0} o Ui = Uj cualesquiera que sean i, j.

3. En U hay una cantidad infinita de subespacios de dimensi’on 1.

4. Ui = Uj cualesquiera que sean i, j.

Cuestión 9
Sea U el siguiente subespacio de R5 :

U = {(x, y, z, t, u) 2 R5 : x + y + z = 0, t + u = 0}

¿Cuáles de los subespacio Wi siguientes satisfacen la condición U W i = R5 ?

1. W1 = h{(1, 1, 2, 5, 5), (1, 1, 1, 0, 0)}i


176 CUESTIONARIO

2. W2 = {(x, y, z, t, u) 2 R5 : x + y + z + t + u = 0}

3. W3 = h{(1, 0, 2, 1, 0), (0, 1, 0, 3, 4)}i

4. W2 = {(x, y, z, t, u) 2 R5 : x + 2y = 0, z = u = 0}

Cuestión 10
Señala qué afirmaciones de las siguientes son ciertas.

1. Para cada número natural n existen R-espacios vectoriales de dimensión n.

2. Si V es un R-espacio vectorial de dimensión n, entonces se puede considerrar una colección de


subespacios U1 , U2 , · · · , Un verificando

{0} ⇢ U1 ⇢ U2 ⇢ · · · ⇢ Un = V

3. Si V es un R-espacio vectorial y {v1 , v2 , · · · , vn } es una base de V , entonces {v1 , v1 + v2 , v1 + v2 +


v3 , · · · , v1 + v2 + v3 + vn } es una base de V .

4. Si V es un R-espacio vectorial de dimensión 2m + 1, y las dimensiones de dos subespacios U y


W de V , tales que U + W = V , son pares, entonces U \ W 6= {0}.
CUESTIONARIO 177

Cuestionario 2: Aplicaciones Lineales


Cuestión 11
Señala qué aplicaciones de las siguientes son lineales.

f i : R4 ! R3

1. f1 (x, y, z, t) = (ex , ey , t + z)

2. f2 (x, y, z, t) = (x2 , y, t + z)

3. f3 (x, y, z, t) = (x, y, t + z)

4. f4 (x, y, z, t) = (x + y + z + t, x + y + z, x + y)

Cuestión 12
¿Indica qué aplicaciones de las siguientes son lineales.

gi : R4 [X] ! R3 [X]

1. g1 (p(X)) = p0 ( 1) donde p0 (X) es el polinomio derivado de p(X).

2. g2 (p(X)) = p0 (X) + p00 (X)

3. g3 (aX 4 + bX 3 + cX 2 + dX + e) = bX 3 + cX 2 + dX + e

4. g4 (aX 4 + bX 3 + cX 2 + dX + e) = bX 3 + cX 2 + dX + e + 1

Cuestión 13
Sean B = {v1 , v2 , v3 } y B 0 = {w1 , w2 , w3 } bases del R-espacio vectorial R3 . Indica qué afirmaciones de
las siguientes son ciertas.

1. Si las coordenadas del vector v1 respecto de la base B 0 son (↵, , ), las coordenadas de v1 en la
base B1 = {w2 , w1 , w3 } son ( , ↵, ).

2. Si las coordenadas de los vectores v1 , v2 , v3 en función de B 0 son respectivamente (0, 0, 1), (0, 1, 0)
y (1, 0, 0), entonces v1 = w3 , v2 = w2 , v3 = w1 .

3. Supongamos que las columnas de la matriz M están formadas, respectivamente, por las coorde-
nadas de los vectores vi (i=1,2,3) respecto B 0 :
0 1
1 1 0
@
M= 1 1 1A
1 1 1

En esas condiciones si las coordenadas de v respecto B son (↵, , ), entonces las coordenadas
de v respecto B 0 son (↵ ,↵ + + ,↵ + )

4. Si B y B 0 son distintas, entonces existe algún vector de R3 con coordenadas diferentes respecto
de ambas bases.
178 CUESTIONARIO

Cuestión 14
1
Sea Bc = {e1 , e2 , e3 } la base canónica de R3 y B = {v1 , v2 , v3 } la base de R3 definida por v1 = (e1 +e2 ),
2
1
v2 = (e1 e2 ) y v3 = e2 + e3 . ¿Cuáles de las siguientes frases son verdaderas?.
2
1. El vector de coordenadas (1, 1, 1) en la base B, tiene coordenadas (1, 1, 1) en la base Bc .

2. La matriz del endomorfismo identidad de R3 , respecto de las bases B (en el espacio inicial) y Bc
(en el espacio final) es: 01 1
1
0
B2 2 C
B C
B C
MB,Bc = B 1 1
1C
B2 2 C
@ A
0 0 1

3. Un vector v de coordenadas (↵, , ) respecto de la base Bc tiene coordenadas (↵0 , 0, 0) respecto


de la base B, donde 0 01 0 10 1
↵ 1 1 1 ↵
@ 0 A = @1 1 1 A@ A
0 0 0 1

4. El vector de coordenadas (0, 0, 0) respecto de la base Bc tiene coordenadas (1, 1, 0) respecto de


la base B.

Cuestión 15
Si f : R4 ! R3 es la aplicación lineal definida por

f (x, y, z, t) = (x + y + z + t, 2x + y + x, 3x + y),

¿cuáles de las siguientes afirmaciones son verdaderas?


1. ker(f ) = h{(1, 3, 1, 1)}i

2. Im(f ) = R3

3. dim(Im(f ))=2

4. f no es inyectiva y sı́ es sobreyectiva.

Cuestión 16
Sea f : R4 ! R3 la aplicación lineal definida por la matriz siguiente cuando en los espacios inicial y
final se consideran las bases canónicas.
0 1
0 2 3 4
@0 2 3 4A
0 0 3 4
¿Cuáles de las siguientes afirmaciones son verdaderas?
CUESTIONARIO 179

1. ker(f ) = h{(1, 3, 1, 1)}i

2. Im(f ) = R3

3. dim(Im(f ))=2

4. f no es inyectiva y sı́ es sobreyectiva.

Cuestión 17
Si V y W son R-espacios vectoriales de dimensiones 2 y 5 respectivamente y f : V ! W es una
aplicación lineal, ¿cuáles de las siguientes afirmaciones son verdaderas?

1. f no es sobreyectiva.

2. Si f no es inyectiva, entonces dim(Im(f )) = 1 o f es la aplicación nula.

3. f siempre es inyectiva.

4. Si f es inyectiva, entonces la aplicación f : V ! Im(f ) definida por f (v) = f (v) es un isomor-


fismo.

Cuestión 18
Sea f : R3 [X] ! R2 [X] la aplicación lineal que a cada polinomio le asocia su polinomio derivado.
¿Cuáles de las proposiciones siguientes son ciertas?

1. f puede representarse, respecto bases apropiadas, por la matriz


0 1
1 0 0 0
@0 0 0 1A.
1 0 0 0

2. f puede representarse, respecto bases apropiadas, por la matriz


0 1
1 0 0 0
@0 0 0 1A.
0 1 0 0

3. f puede representarse, respecto bases apropiadas, por la matriz


0 1
1 0 0 0
@0 0 0 1A.
0 0 0 0

4. f puede representarse, respecto bases apropiadas, por la matriz


0 1
1 0 0 0
@0 1 0 0A.
0 0 1 0
180 CUESTIONARIO

Cuestión 19
Denotemos por M2⇥3 (R) el conjunto de matrices con coeficientes reales de tamaño 2 ⇥ 3, y sea
f : M2⇥3 (R) ! R3 la aplicación que a cada matriz
✓ ◆
a11 a12 a13
M= 2 M2⇥3 (R)
a21 a22 a23

le asocia el vector (a11 + a21 , a12 + a22 , a13 + a23 ) de R3 .


Sea BC = {Eij : i = 1, 2, j = 1, 2, 3} la base canónica de M2⇥3 (R) (Eij es la matriz de M2⇥3 (R) que
tiene un 1 en el lugar (i, j) y 0 en el resto).
Sea Bc = {e1 , e2 , e3 } la base canónica de R3 .¿Cuáles de las siguientes afirmaciones son ciertas?

1. La matriz asociada a f respecto de las bases BC y Bc es


0 1
1 0 0 1 0 0
@0 1 0 0 1 0A
0 0 1 0 0 1

2. El núcleo de f está generado por las matrices E11 E21 , E12 E22 y E13 E23

3. El rango de la aplicación lineal es 3.

4. Respecto de las bases

B = {E11 E21 , E12 E22 , E13 E23 , E11 , E12 , E13 } y

B 0 = {e3 , e2 , e1 }
la matriz asociada a f es 0 1
0 0 0 0 0 1
MB,B0 @
= 0 0 0 0 1 0A
0 0 0 1 0 0

Cuestión 20
En los espacios vectoriales R2 y R3 se consideran las bases respectivas

B = {(1, 1), (2, 0)} y B 0 = {(1, 1, 1), (1, 1, 1), (2, 0, 0)}

y sea f : R2 ! R3 la aplicación lineal que respecto dichas bases tiene por matriz asociada
0 1
1 1
MB,B0 (f ) = @ 0 1 A .
2 0

Señala de las frases siguientes las que sean verdaderas.

1. Si v es el vector de R2 de coordenadas (1, 1) respecto B, entonces f (v) es el vector de R3 que


tiene coordenadas (2, 1, 2) respecto de la base canónica de R3 .

2. Si u es el vector de R2 de coordenadas (1, 1) respecto B, entonces f (u) es el vector de R3 que


tiene coordenadas (1, 0, 2) respecto de la base B 0 de R3 .
CUESTIONARIO 181

3. Si w es el vector de R2 de coordenadas (↵, ↵) respecto B, entonces f (w) es el vector de R3 que


tiene coordenadas (2↵, ↵, 2↵) respecto de la base B 0 de R3 .
4. Los vectores e1 , e2 de la base canónica de R2 se transforman mediante f en los vectores (1, 0, 1)
y ( 4, 1, 0) respectivamente (expresados respecto de la base canónica de R3 ).

Cuestión 21
Sean V1 , V2 , · · · , V1000 espacios vectoriales sobre R, finito dimensionales, y supongamos que en la se-
cuencia
f1 f2 f3 f999 f1000
V1 !V2 !V3 !······ !V1000 !V1
las aplicaciones fi son lineales y sucede que la imagen de cada una de ellas coincide con el núcleo
de la siguiente (entiéndase además f1 siguiente a f1000 ) . ¿Cuáles de las proposiciones siguientes son
ciertas?
1. f2 f1 , f3 f2 , · · ·, f1000 f999 son aplicaciones nulas.
2. dim V1 dim V2 + dim V3 dim V4 + · · · + dim V999 dim V1000 = 0.
3. f1000 f999 · · · f2 f1 es la aplicación nula.
4. dim Vi es par para i = 1, 2, 3, · · · , 999, 1000.

Cuestión 22
Sean U y W subespacios distintos de R4 tales que dim(U ) = dim(W ) = 3 y f : U ! W tal que
ker(f ) = U \ W . ¿Cuáles de las proposiciones siguientes son ciertas?
1. Existen bases BU y BW de U y W respectivamente tales que la matriz asociada a f respecto
dichas bases es 0 1
0 0 0
@
MBU ,BW (f ) = 0 0 1A
0 0 0
2. Existen bases BU y BW de U y W respectivamente tales que la matriz asociada a f respecto
dichas bases es 0 1
1 0 0
@
MBU ,BW (f ) = 0 0 0A
0 0 0
3. Existen bases BU y BW de U y W respectivamente tales que la matriz asociada a f respecto
dichas bases es 0 1
1 0 0
MBU ,BW (f ) = @ 0 1 0A
0 0 1
4. Existen bases BU y BW de U y W respectivamente tales que la matriz asociada a f respecto
dichas bases es 0 1
1 0 0
MBU ,BW (f ) = @ 0 1 0A
0 0 0
182 CUESTIONARIO

Cuestionario 3: Teorı́a del endomorfismo (Diagonalización)


Cuestión 23
Sea f un endomorfismo de R3 . ¿Cuál de las siguientes afirmaciones es verdadera?

1. Si el polinomio caracterı́stico de f es pf (X) = (X 1)2 X, entonces siempre existen vectores


v1 , v2 , v3 de R3 linealmente independientes tales que

f (v1 ) = v1 , f (v2 ) = v2 , f (v3 ) = 0.

2. Si respecto de una base B de R3 la matriz asociada a f es de la forma


0 1
1 a b
@0 1 c A
0 0 1

y f es diagonalizable, entonces el polinomio mı́nimo de f es mf (X) = (X 1)(X + 1) y a = 0.

3. Si respecto de una base B de R3 la matriz asociada a f es


0 1
1 0 0
MB (f ) = @ 0 1 0 A,
0 0 1

existe otra base B 0 de R3 respecto de la cual la matriz asociada a f es


0 1
1 0 0
MB0 (f ) = @ 0 1 0 A.
0 0 1

4. Si f tiene dos autovalores distintos y dim(ker(f )) = 2, entonces f es diagonalizable.

Cuestión 24
Sea f un endomorfismo de R3 tal que respecto de la base canónica está representado por la matriz
0 1
0 a 0
@b 0 bA
0 a 0

siendo a, b números reales. ¿Cuál de las siguientes afirmaciones es verdadera?

1. f es no inyectiva.

2. Si a = 0 y b 6= 0 entonces f no es diagonalizable.

3. Si a 6= 0 y b = 0 entonces f no es diagonalizable.

4. Si a = 1 y b = 2 entonces f es diagonalizable.
CUESTIONARIO 183

Cuestión 25
Sea f un endomorfismo no nulo de R2 tal que respecto de la base canónica está representado por la
matriz ✓ ◆
a b
b c
siendo a, b, c números reales. ¿Cuál de las siguientes afirmaciones es verdadera?

1. El polinomio caracterı́stico de f siempre tiene raices reales.

2. f siempre es diagonalizable, independientemente de los valores de a, b, c.

3. Si a = c y b 6= 0, entonces {(1, 1), (1, 1)} es una base de vectores propios.

4. Si a = c y b = 0, entonces cualquier base de R2 es una base de vectores propios.

Cuestión
026 1
1 2 3
Sea A = @ 0 1 3 A. Señalar qué proposiciones de las siguientes son ciertas.
0 0 1

1. El polinomio caracterı́stico de A es (X 1)2 (X + 1)


0 1
1 0 1
2. Si P = @ 0 3 1 A entonces P 1 AP es una matriz diagonal.
0 2 0

3. A35 = A

4. A35 es la matriz nula.

Cuestión 27
Sea f un endomorfismo de R2 [X] que está representado respecto de la base canónica {1, X, X 2 } por
la matriz 0 1
1 2 3
A = @0 1 3A.
0 0 1
Indicar cuáles de las siguientes afirmaciones son ciertas.

1. {1, 3X + 2X 2 , 1 + X} es una base de vectores propios de f .

2. No existe una base de vectores propios para f .

3. El polinomio mı́nimo y el polinomio caracterı́stico de f coinciden.

4. f 6 f 2 es la aplicación idénticamente nula.


184 CUESTIONARIO

Cuestión 28
Sean f y g endomorfismos de Rn . Indicar cuáles de las siguientes afirmaciones son ciertas.

1. Si 0 es autovalor de f , entonces 0 es autovalor de g f .

2. Si im(f )\ ker(g) 6= {0}, entonces 0 es autovalor de g f .

3. Si ↵ 6= 0 es autovalor de f , entonces ↵ es autovalor de g f .

4. Si v 2 Rn es autovector de f y autovector de g, entonces v es autovector de g f .

Cuestión 29
Sean f : R3 ! R4 y g : R4 ! R3 las aplicaciones lineales definidas, respecto de las bases canónicas
correspondientes, por las matrices A y B siguientes:
0 1
1 1 1 0 1
B1 2 0C 1 1 2 2
A=B @1 2 0A
C B = @1 1 1 1A
1 0 1 1
1 2 1

Indicar cuáles de las siguientes afirmaciones son verdaderas.

1. f g es diagonalizable.

2. e3 e4 es un vector propio de f g.

3. g f es diagonalizable.

4. g f es inyectiva.

Cuestión 30
Sea f : R4 ! R4 la aplicación lineal definida, respecto de la base canónica, por las matrices A siguiente:
0 1
0 0 0 3
B 0 1 0 0C
A=B @ 0
C.
1 0 0A
1 1 1 4

Indicar cuáles de las siguientes afirmaciones son verdaderas.

1. El conjunto de vectores {e1 + e4 , e1 e3 , 3e1 + e4 , 3e1 + 4e2 + 4e3 + e4 } constituye una base de
vectores propios para el endomorfismo f .

2. La matriz asociada a f respecto de la base B = {e1 + e4 , e3 + e4 , 5e1 e3 + 2e4 , e1 + e2 + e3 + e4 }


de R4 es una matriz triangular superior.

3. f no puede ser representado por una matriz triangular.

4. Existe un número natural m tal que f m es la aplicación nula.


CUESTIONARIO 185

Cuestión 31
Sea f un endomorfismo de R4 cuyo polinomio caracterı́stico es pf (X) = (X 1)2 (X + 1)(X 3).
Indicar cuáles de las siguientes afirmaciones son ciertas.

1. Si existen vectores v, w 2 R4 linealmente independientes, tales que f (v) = v y f (w) = w,


entonces f es diagonalizable.

2. Si el número 1 no es raiz del polinomio m0f (X) (derivado del polinomio mf (X), polinomio mı́nimo
de f ), entonces f es diagonalizable.

3. Si el polinomio mı́nimo de f , mf (X), es de grado tres, entonces f es diagonalizable.

4. f 2 es la aplicación nula.

Cuestión 32
Sea f un endomorfismo de R5 , del que se sabe que

• Su polinomio caracterı́stico tiene tres raices distintas.

• (f I)2 (f 3 5f 2 ) es la aplicación nula.

¿Cuáles de las siguientes afirmaciones son ciertas?

1. El polinomio caracterı́stico de f es (X 1)2 X 2 (X 5).

2. El polinomio caracterı́stico de f es de la forma (X 1)r1 X r2 (X 5)r3 con r1 + r2 + r3 = 5 y


ri 1 con i = 1, 2, 3.

3. f no es triangularizable.

4. Si pf (X) = (X 1)2 X 2 (X 5), no es posible afirmar que f sea diagonalizable, pero sı́ que
existen bases B y B 0 de R5 tales que la matriz asociada a f respecto dichas bases es
0 1
1 0 0 0 0
B0 1 0 0 0C
B C
MB,B0 (f ) = B
B 0 0 5 0 0 C
C
@0 0 0 0 0A
0 0 0 0 0

Cuestión 33
Sea f un endomorfismo de R5 , del que se sabe:

• Su polinomio caracterı́stico es pf (X) = (X 1)2 X 2 (X 5)

• Existe un vector v1 2 ker(f I)2 ker(f I)

• v2 , v3 , v4 son vectores propios asociados a 1, 0, 5 respectivamente.

¿Cuáles de las siguientes afirmaciones son ciertas?

1. dim(ker(f I)) = 1 y ker(f I)2 = h{v1 , v2 }i.


186 CUESTIONARIO

2. La familia {v1 , v2 , v3 , v4 } es una parte libre de R5 .

3. f (v1 ) 2 ker(f I)2 .

4. Si B = {v2 , v1 , v3 , v4 , v5 } es una base de R5 , entonces la matriz asociada a f respecto a esa base


es triangular.
CUESTIONARIO 187

Cuestionario 4: Teorı́a del endomorfismo (Formas de Jordan)


Cuestión 34
Si f es un endomorfismo de R3 definido, respecto de la base canónica, por la matriz
0 1
1 2 1
A = @0 1 3 A,
0 2 2
¿cuáles de las afirmaciones siguientes son verdaderas?
1. El endomorfismo f 2 3f de R3 está definido, respecto de la base canónica, también por la matriz
A.

2. Cualquier matriz de la forma Am + am 1 Am 1 + am 2 Am 2 + · · · + a1 A + a0 con m 3 coincide


con alguna matriz que se expresa como b2 A2 + b1 A + b0 , donde los ai y los bj son números reales.

3. f no es biyectivo.
1
4. La matriz A tiene inversa y es ( )(A2 + 2A 7I).
4

Cuestión 35
Sea f un endomorfismo de R3 definido, respecto de la base canónica por la matriz
0 1
1 2 1
@0 1 3A
0 2 2

cuyo polinomio caracterı́stico es (X 1)(X 2 + X + 4). ¿Cuáles de las afirmaciones siguientes son
verdaderas?
1. ker(f I) = im(f 2 + f + 4I)

2. La forma de Jordan asociada a f es del tipo


0 1
1 0 0
@0 ↵ 1 A con ↵ 6= 0
0 0 ↵

3. ker(f 2 + f + 4I) = h{4e1 3e2 , e1 + e2 }i

4. Respecto de la base B = {e1 , 4e1 3e2 , e1 + e3 } la matriz asociada f es


0 1
1 0 0
@0 1 1 A
0 6 2

Cuestión 36
Sea f endomorfismo de un C-espacio vectorial de dimensión 4 con dim(ker(f )) = 2. Indica cuáles de
las afirmaciones siguientes son verdaderas.
188 CUESTIONARIO

1. Las posibles formas de Jordan de f son


0 1 0 1 0 1
0 0 0 0 0 1 0 0 0 0 0 0
B0 0 1 0C B0 0 0 0C B0 0 1 0C
B C B C B C
@0 0 0 1A @0 0 0 1A @0 0 0 0A
0 0 0 0 0 0 0 0 0 0 0 ↵
0 1 0 1 0 1
0 0 0 0 0 0 0 0 0 0 0 0
B0 0 0 0 C B0 0 0 0C B0 0 0 0C
B C B C B C
@0 0 ↵ 0 A @0 0 ↵ 0A @0 0 ↵ 1A
0 0 0 0 0 0 ↵ 0 0 0 ↵
donde ↵, 2 C distintos.
2. Si 1 y 1 son autovalores de f , el polinomio mı́nimo de f es X(X 2 1)
3. Si X 2 + 1 es un factor del polinomio caracterı́stico de f entonces la forma de Jordan de f es
diagonal y los elementos de la diagonal son 0, 0, i, i.
4. f no puede tener como polinomio caracterı́stico pf (X) = X 4 .

Cuestión 37
Sea f un endomorfismo de R3 tal que respecto de la base B = {v1 , v2 , v3 } tiene asociada la matriz de
Jordan siguiente: 0 1
1 0 0
J = @0 1 1A.
0 0 1
Indica cuáles de las siguientes proposiciones son ciertas.
1. f es un isomorfismo.
0 1
1 0 0
2. La matriz asociada a f 1 respecto B es @ 0 1 1A.
0 0 1
3. Respecto de la base B 0 = {v1 , v2 , v3 } la matriz asociada a f 1 es J.
4. ker(f I) = h{v1 , v2 }i.

Cuestión 38
Sea f un endomorfismo de un R-espacio vectorial V de dimensión 4. Indica cuáles de las siguientes
proposiciones son ciertas.
1. No puede existir f tal que su polinomio caracterı́stico sea pf (X) = X 4 2X 3 X 2 + 4X 2y
su matriz de Jordan sea de la forma
0 1
⇤ 1 0 0
B0 ⇤ 1 0C
B C
@0 0 ⇤ 1A
0 0 0 ⇤
donde los ⇤ representan los autovalores de f .
CUESTIONARIO 189

2. No puede existir f tal que su polinomio mı́nimo sea de grado 4.

3. Las matrices 0 1 0 1
1 1 0 0 1 1 0 0
B0 1 1 0C B0 1 0 0C
J1 = B
@0
C y J2 = B C
0 1 0A @0 0 1 1A
0 0 0 1 0 0 0 1
no pueden representar ambas a f .

4. Las matrices 0 1 0 1
1 1 0 0 1 0 0 0
B0 1 0 0C B0 1 1 0 C
J3 = B
@0
C y J4 = B C
0 1 0A @0 0 1 0 A
0 0 0 1 0 0 0 1
no pueden representar ambas a f .

Cuestión 39
Sea f un endomorfismo de un K-espacio vectorial V de dimensión 5, y sea d(X) el máximo común
divisor entre el polinomio mı́nimo de f y la derivada de éste. Indica cuáles de las siguientes frases son
verdaderas teniendo en cuenta que
0 1 0 1
1 1 0 0 0 1 0 0 0 0
B0 1 1 0 0C B0 1 1 0 0C
B C B C
J1 = BB0 0 1 0 0C
C J2 = B B0 0 1 0 0C
C
@0 0 0 2 0A @0 0 0 2 0A
0 0 0 0 3 0 0 0 0 3
0 1 0 1
1 0 0 0 0 1 1 0 0 0
B0 1 1 0 0C B0 1 0 0 0C
B C B C
B
J3 = B 0 0 1 0 0 C C J4 = B 0 0 2 1 0 C
B C
@0 0 0 2 0A @0 0 0 2 0A
0 0 0 0 2 0 0 0 0 3
1. Si los autovalores de f son 1, 2 y 3, y d(X) = (X 1)2 , entonces la forma de Jordan de f es J1 .

2. Si los autovalores de f son 1, 2 y 3, y d(X) = (X 1), entonces la forma de Jordan de f es J2 .

3. Si los autovalores de f son 1, 2 y 3, y d(X) = (X 1)(X 2), entonces la forma de Jordan de


f es J4 .

4. Si los autovalores de f son 1 y 2, y d(X) = (X 1)(X 2), entonces la forma de Jordan de f


es J3 .

Cuestión 40
¿Cuáles de las siguientes afirmaciones son verdaderas?

1. Si A es una matriz cualquiera y ↵ es uno de sus autovalores, entonces ↵2 + 3↵ + 1 es un autovalor


de la matriz A2 + 3A + I
190 CUESTIONARIO

2. Si J es la forma de Jordan de una matriz M cuyos autovalores son 1, 2, 3, entonces J no es


nilpotente.
3. Si J es la forma de Jordan de una matriz M , y J es nilpotente, entonces el polinomio carac-
terı́stico de M tiene como único factor irreducible X.
4. Los autovalores de una matriz y su forma de Jordan pueden ser distintos.

Cuestión 41
Indica cuáles de las siguientes afirmaciones son verdaderas.
1. Dos matrices semejantes tienen el mismo rango, el mismo polinomio caracterı́stico y el mismo
polinomio mı́nimo.
2. Una matriz y su forma de Jordan tienen el mismo rango, el mismo polinomio caracterı́stico y el
mismo polinomio mı́nimo.
3. Dos matrices de igual tamaño pueden tener el mismo rango, el mismo polinomio caracterı́stico
y el mismo polinomio mı́nimo, y no ser semejantes.
4. Si dos matrices de igual tamaño tienen polinomos mı́nimos diferentes, entonces no son semejantes.

Cuestión 42
Se consideran las siguientes matrices de tamaño 6 ⇥ 6:
0 1 0 1
1 1 0 0 0 0 1 0 0 0 0 0
B0 1 1 0 0 0C C B 0C
B B0 1 1 0 0 C
B0 0 1 0 0 0C B0 0 1 0 0 0C
A=B B0 0 0
C B = B C
B 1 1 0C C
B0
B 0 0 1 1 0CC
@0 0 0 0 1 1 A @0 0 0 0 1 1A
0 0 0 0 0 1 0 0 0 0 0 1
¿Cuáles de las siguientes afirmaciones son verdaderas?
1. Las matrices A y B son de Jordan.
2. Las matrices A y B tienen el mismo rango, el mismo polinomio caracterı́stico y el mismo poli-
nomio mı́nimo.
3. Las matrices A y B no son semejantes.
4. Las matrices A y B son semejantes.

Cuestión 43
Se consideran las matrices
0 1 0 1
a 0 0 2 0 0
A = @0 b cA B = @0 1 1A.
d 0 2 0 0 1
Indica cuáles de las siguientes afirmaciones son ciertas.
CUESTIONARIO 191

1. Si a = b = 1 y cd 6= 0, entonces las matrices A y B son semejantes.

2. A y B tienen igual forma de Jordan si y sólo si se da una de las condiciones siguientes

(a = b = 1, c 6= 0) o (a = b = 1, d 6= 0).

3. Si c = d = 0, entonces A y B no tienen la misma forma de Jordan.

4. Si A y B son semejantes entonces a = b = 1.

Cuestión 44
Sea f un endomorfismo de un R-espacio vectorial de dimensión 300 y A una de sus matrices asociadas.
¿Cuáles de las afirmaciones siguientes son verdaderas?

1. Si f 3 3f = f entonces el polinomio caracterı́stico de f es pf (X) = (X 2)r (X + 2)s X t con


r + s + t = 300 y r, s, t 0 y f es diagonalizable.

2. Si f es inyectivo, f 3 2f 2 = f y el subespacio propio asociado al valor propio 1 tiene dimensión


1, entonces la matriz de Jordan de f es la matriz J = (xij ) donde xij = 1 si j = i o j = i + 1 y
0 en el resto de los casos.

3. Si f 3 3f = f entonces f es un isomorfismo.

4. Si pf (X) = (X 1)100 (X 2)200 y los rangos de las matrices A I y A 2I son 200 y 299
respectivamente, entonces la forma de Jordan de f es
✓ ◆
J1 0
J=
0 J2

donde
· J1 es la matriz identidad de orden 100,
· J2 = (xij ) es una matriz 200 ⇥ 200 tal que xii = 2, xii+1 = 1 para todo i y
· los ceros son matrices nulas de tamaños adecuados.
192 CUESTIONARIO

Cuestionario final. Preguntas de carácter general


Cuestión 45
¿Cuáles de los siguientes subconjuntos del R-espacio vectorial R3 [X] son subespacios?

1. {p(X) 2 R3 [X] : p0 (X) = 3}

2. {X 2 + 1, X}

3. {p(X) 2 R3 [X] : p(0) = 0}

4. {↵X : ↵ 2 R}

Cuestión 46
Se consideran el R - espacio vectorial V = R3 y los siguientes subespacios de V

U =< {(1, 1, 2), (3, 4, 0)} >, W = {(x, y, z) 2 V : x = 0, 6y + z = 0}

¿Cuáles de las afirmaciones siguientes son verdaderas?

1. U \ W = {~0}

2. W ⇢ U

3. U + W = R3

4. U = W

Cuestión 47
Se considera el R - espacio vectorial V = R4 , y sea U el siguiente subespacio de V

U = {(x, y, z, t) 2 R4 tales que 2x + y 3z = 0}

¿Cuáles de las siguientes afirmaciones son ciertas?

1. < {(1, 2, 0, 0), (0, 3, 1, 0)} > es base de U .

2. U tiene dimensión 3.

3. W = {(x, y, z, t) 2 R4 tales que x+y z = 0, x 2z = 0} es un subespacio de U .

4. No existe un subespacio T de R4 tal que U T = R4 .

Cuestión 48
Las coordenadas del vector v = (1, 2, 3, 4) respecto de la base

B = {v1 = (4, 3, 2, 1), v2 = (3, 2, 1, 0), v3 = (2, 1, 0, 0), v4 = (1, 0, 0, 0)}

son:
CUESTIONARIO 193

Cuestión 49
Sea f : R4 ! R3 la aplicación lineal definida por su matriz asociada respecto las bases canónicas en
los espacios inicial y final: 0 1
1 1 1 3
MBc ,Bc0 (f ) = @ 1 1 2 4A
1 1 1 5
¿Cuáles de las siguientes afirmaciones son verdaderas?

1. f (↵e1 + e4 ) = (↵ + 3 , ↵ + 4 , ↵ + 5 )

2. El rango de la aplicación lineal es 4.

3. f es inyectiva.

4. La dimensión del núcleo de la aplicación lineal es 1.

Cuestión 50
Sea f : R12 ! R4 la aplicación lineal definida por su matriz asociada respecto las bases canónicas en
los espacios inicial y final:
0 1
1 0 0 0 1 0 0 0 1 0 0 0
B0 1 0 0 0 1 0 0 0 1 0 0C
MBc ,Bc0 (f ) = B
@0 0 1 0 0
C
0 1 0 0 0 1 0A
0 0 0 1 0 0 0 1 0 0 0 1

¿Cuáles de las siguientes afirmaciones son verdaderas?

1. f es sobreyeectiva.

2. La dimensión del núcleo de la aplicación lineal es 4.

3. ker(f )=< {e1 e5 , e1 e 9 , e2 e 6 , e2 e10 , e3 e 7 , e3 e11 ,


e4 e8 , e4 e12 , } >.

4. (1, 1, 1, 1) 2
/ im(f )

Cuestión 51
Se consideran las siguientes matrices
0 1
3 0 1 0 1
B1 1 0 1 1
3 C
M =B @2 1
C @
P = 2 1 0 A
4 A
1 3 1
1 1 0

Sea f : R3 ! R4 la aplicación lineal cuya matriz asociada respecto de las bases B = {v1 = (0, 2, 1), v2 =
( 1, 1, 3), v3 = (1, 0, 1)} en R3 y la base canónica Bc0 en R4 es MB,Bc0 (f ) = M
¿Cuáles de las siguientes afirmaciones son verdaderas?
194 CUESTIONARIO

1. MBc ,Bc0 (f ) = M P

2. MBc ,Bc0 (f ) = M P 1

3. MBc ,Bc0 (f ) = P M

4. MBc ,Bc0 (f ) = P 1M

Cuestión 52
Sea f el endomorfismo de R4 que tiene por matriz asociada respecto de la base canónica la matriz
0 1
0 0 0 4
B0 0 3 0C
M = MBc (f ) = B@0 2 0 0A
C

1 0 0 0

¿Cuáles de las siguientes afirmaciones son verdaderas?

1. Si B = {e1 , e4 , e2 , e3 } entonces la matriz asociada a f respecto de B es


0 1
0 4 0 0
B1 0 0 0C
MB (f ) = B
@0
C
0 0 3A
0 0 2 0

2. Existen bases B1 y B2 de R4 tales que MB1 ,B2 (f ) = I4

3. No existen matrices inversibles P y Q tales que QM P = I4

4. No es posible hablar de f 1

Cuestión 53
Sea f el endomorfismo de R4 que tiene por matriz asociada respecto de la base canónica la matriz
0 1
0 0 0 4
B0 0 3 0C
M = MBc (f ) = B@0 2 0 0A
C

1 0 0 0

¿Cuáles de las siguientes afirmaciones son verdaderas?

1. e1 + e4 es vector propio asociado a algún autovalor de f .


p p
2. 2, 2, 6, 6 son los valores propios asociados a f .

3. f no es diagonalizable.

4. 2e1 + e4 es vector propio asociado a algún autovalor de f .


CUESTIONARIO 195

Cuestión 54
Sea f : R3 ! R4 una aplicación lineal definida por

f (x, y, z) = (4x + y + z, x + y + 2z, x 2y 5z, 0)

¿Cuál de las siguientes matrices es la matriz asociada a f cuando en el espacio inicial y en el final se
consideran las bases canónicas respectivas?
0 1 0 1
4 1 1 1 1 0
B 1 1 2 C B 1 1 1C
1) B
@ 1
C 2) B C
2 5A @ 2 1 1A
0 0 0 2 2 3
0 1 0 1
1 1 1 1 1 1
B 1 1 1 C B 1 1 1C
3) B
@ 1
C 4) B C
2 3A @ 1 1 1A
1 2 3 2 3 3

Cuestión 55
Se considera el R - espacio vectorial V = R4 , y sea U el siguiente subespacio de V

U = {(x, y, z, t) 2 R4 tales que 2x y = 0, x + 3z t = 0}

¿Cuáles de las siguientes afirmaciones son ciertas?


1. Si W1 =< {(1, 1, 1, 1)} >, entonces la suma U + W1 es directa: U W1 .

2. Si W2 =< {( 2, 1, 1, 3)} >, entonces W2 está contenido en U : W2 ⇢ U

3. Si W3 = {(x, y, z, t) 2 R4 tales que 3x y + 3z t = 0}, entonces U \ W3 = U .

4. Si W4 = {(x, y, z, t) 2 R4 tales que x + y + z = 0, t = 0}, entonces U W4 = V .

Cuestión 56
Las coordenadas del vector v = (1, 2, 3, 7) respecto de la base

B = {v1 = (7, 6, 5, 4), v2 = (3, 2, 1, 0), v3 = (2, 1, 0, 0), v4 = (1, 0, 0, 0)}

son:

Cuestión 57
Se consideran los siguientes subespacios del R-espacio vectorial V = R4

U = {(x, y, z, t) 2 V tales que x + y + z = 0, t = 0}

W = {(x, y, z, t) 2 V tales que x + y = 0, y t = 0, z + 2t = 0}


Sea f : U ! W una aplicación lineal.
¿Cuáles de las afirmaciones siguientes son ciertas?
196 CUESTIONARIO

1. Cualquier matriz asociada a f es de tamaño 4 ⇥ 4


2. Si f no es la aplicación nula, entonces f es sobreyectiva.
3. Cualquier matriz asociada a f es de tamaño 1 ⇥ 2
4. La aplicación f nunca puede ser isomorfismo.

Cuestión 58
Sea f : R12 ! R4 la aplicación lineal definida por su matriz asociada respecto las bases canónicas en
los espacios inicial y final:
0 1
1 0 0 0 1 0 0 0 1 0 0 0
B0 1 0 0 0 1 0 0 0 1 0 0C
MBc ,Bc0 (f ) = B
@0 0 1 0 0
C
0 1 0 0 0 1 0A
0 0 0 0 0 0 0 0 0 0 0 0
¿Cuáles de las siguientes afirmaciones son verdaderas?
1. f no es sobreyeectiva.
2. La dimensión del núcleo de la aplicación lineal es 4.
3. ker(f )=< {e1 e5 , e1 e 9 , e2 e 6 , e2 e10 , e3 e 7 , e3 e11 ,
e4 e8 , e4 e12 , } >.
4. (1, 1, 1, 1) 2
/ im(f )

Cuestión 59
Sean U y W dos subespacios de R4 [X], de los que se sabe que
< {X 2 3X + 2, X 4 1} >⇢ U \ W
Decir cuáles de las siguientes afirmaciones son verdaderas.
1. Si X 3 2 U y X 4 X3 1 2 W entonces dim(U \ W ) 3.
2. Si dim(U )=2 entonces < {X 2 3X + 2, X 4 1} >= U \ W = U .
3. Si dim(U + W )=3, entonces dim(U )=3 y dim(W )=3.
4. Si dim(U + W )=3, entonces dim(U )=3 ó dim(W )=3.

Cuestión 60
¿Cuáles de los siguientes subconjuntos del R-espacio vectorial R3 [X] son subespacios?
1. {p(X) 2 R3 [X] : p00 (X) = 0}
2. {X 2 , X, X + 3}
3. {p(X) 2 R3 [X] : p(0) = 1}
4. {↵X 2 + X + (X + 3) : ↵, , 2 R}

También podría gustarte