Algebra Lineal Cap 1 Al 5

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 221

Facultad de Ciencias Exactas, Ingenierı́a y Agrimensura

Universidad Nacional de Rosario

ÁLGEBRA LINEAL

Adriana Mateu - José Semitiel

Departamento de Matemática - Escuela de Formación Básica

MATERIAL DE USO INTERNO - 2018


Índice general

1. SISTEMAS DE ECUACIONES LINEALES 3


1.1. Ecuaciones lineales con n incógnitas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2. Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3. Eliminación gaussiana y de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.4. Resolución de sistemas lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.5. Introducción a Scilab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

2. MATRICES 38
2.1. Vectores de Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.2. Operaciones matriciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.3. Matriz inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64

3. DETERMINANTES 77
3.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.2. Propiedades de los determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
3.3. La inversa a través de la adjunta. La regla de Cramer . . . . . . . . . . . . . . . . . . 93

4. ESPACIOS VECTORIALES 101


4.1. Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
4.2. Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
4.3. Combinación lineal y espacio generado . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
4.4. Independencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
4.5. Base y dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
4.6. Coordenadas y cambio de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
4.7. Rango y nulidad de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167

5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO 186


5.1. El espacio euclidiano Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
5.2. Producto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
5.3. Bases ortogonales y ortonormales. Proceso de Gram-Schmidt . . . . . . . . . . . . . . 205

Material de uso interno Mateu-Semitiel 2


Capı́tulo 1

SISTEMAS DE ECUACIONES
LINEALES

1.1. Ecuaciones lineales con n incógnitas

Definición (Ecuación lineal). Una ecuación lineal en las n variables o incógnitas x1 , x2 ,...,
xn es una ecuación que puede escribirse en la forma

a1 x1 + a2 x2 + ... + an xn = b, (1.1)

llamada forma canónica o estándar de la ecuación lineal, donde a1 ,a2 ,...,an y b son constantes
reales. Los ai con i = 1, 2, ..., n son los coeficientes de la ecuación y b es el término constante.
Si b = 0 la ecuación se denomina homogénea.
Considerando las variables ordenadas de izquierda a derecha, la primer variable cuyo co-
eficiente es distinto de cero, recibe el nombre de variable delantera o principal. Las demás
variables se llaman variables libres.

Ejemplo 1.1. La ecuación

1 + 2x1 + x2 − x3 + 3x4 = 2x1 + 2 + x3 ,

es lineal no homogonéa en cuatro variables x1 , x2 , x3 y x4 . Su forma canónica o estándar es:

0x1 + x2 − 2x3 + 3x4 = 1.

Los coeficientes (en orden) son 0, 1, −2 y 3 y el término constante es 1. La variable delantera es


x2 y x1 , x3 y x4 son las variables libres.J

Ejemplo 1.2. Las ecuaciones



2xy + 2x = 3 , x2 − y = 1 , x + y − 3 = 0,

no son lineales.J

Material de uso interno Mateu-Semitiel 3


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

Ejemplo 1.3. La ecuación


2x + 3y − z = 0,
es lineal homogénea en las variables x, y, z. Los coeficientes (en orden) son 2, 3 y −1 y el término
constante es 0. La variable delantera es x y las variables libres son y, z. Notemos que esta es la ecuación
de un plano que contiene al origen de coordenadas.

En general, toda ecuación lineal en tres variables

ax + by + cz = d,

con al menos un coeficiente no nulo, es la ecuación de un plano en el espacio.J

Ejemplo 1.4. Toda ecuación lineal en dos variables

ax + by = c,

con al menos uno de los coeficientes no nulos, es la ecuación de una recta en el plano.J

Definición (Solución de una ecuación lineal). Una solución (particular) de la ecuación


lineal
a1 x1 + a2 x2 + ... + an xn = b,
es una n− upla odenada de números reales (c1 , c2 , ..., cn ) tales que cuando se sustituye xi por
ci para todo i = 1, 2, ..., n la ecuación se convierte en una identidad.
El conjunto de todas las soluciones de la ecuación lineal se llama conjunto solución.
Resolver una ecuación lineal es hallar su conjunto solución. Para obtenerlo se despeja la
variable delantera en función de las variables libres, haciendo que cada variable libre asuma
cualquier valor real. Con esto se llega a un elemento genérico del conjunto solución el cual se
llama solución general.

Ejemplo 1.5. Una solución de la ecuación lineal del Ejemplo 1.1

0x1 + x2 − 2x3 + 3x4 = 1,

es (1, 5, 2, 0). Es más, cualquier 4−upla ordenada de la forma (a, 5, 2, 0) es solución.

Para obtener todas las soluciones, despejando x2 de la ecuación se obtiene

x2 = 1 + 0x1 + 2x3 − 3x4 .

Las variables libres pueden tomar cualquier valor real, ası́ podemos considerar x1 = t, x3 = s y
x4 = r. Por consiguiente la solución general se expresa como:

x1 = t, x2 = 1 + 0t + 2s − 3r = 1 + 2s − 3r, x3 = s y x4 = r, para todo t, s, r ∈ R,

o en forma de 4-upla
(t, 1 + 2s − 3r, s, r)

Material de uso interno Mateu-Semitiel 4


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

para todo t, s, r ∈ R. Las letras t, s y r reciben el nombre de parámetros.

El conjunto solución es
{(t, 1 + 2s − 3r, s, r) : t, s, r ∈ R} . J

Actividad 1.1. Obtenga el conjunto solución de la ecuación lineal

−3x1 + 2x2 − x3 = −x1 + x4 − 1.

Definición (Ecuaciones consistentes). Una ecuación lineal se dice consistente si tiene al


menos una solución y es inconsistente si no tiene solución.

La ecuación del Ejemplo 1.1 es consistente. La ecuación del ejemplo que sigue es inconsistente:

Ejemplo 1.6. Claramente, la ecuaciń x1 + 2x2 − 5x3 = 8 + x1 + 2x2 − 5x3 es inconsistente. Su forma
canónica es
0x1 + 0x2 + 0x3 = 8.
Ninguna terna de números reales la satisface y por lo tanto su conjunto solución es vacı́o.J

Ejemplo 1.7. Una ecuación lineal homogénea

a1 x1 + a2 x2 + ... + an xn = 0,

siempre es consistente, tiene al menos la llamada solución trivial x1 = x2 = ... = xn = 0.J

Ejemplo 1.8. La ecuación lineal 73 x1 +2x2 −5 = 37 x1 +2x2 −5 se satisface para cualquier par ordenado
de números reales. Su forma canónica es

0x1 + 0x2 = 0,

y su conjunto solución es {(a, b) : a, b ∈ R}.J

Teorema 1.1 (Inconsistencia de una ecuación lineal). Una ecuación lineal en n variables

a1 x1 + a2 x2 + ... + an xn = b,

es inconsistente si y sólo si b 6= 0 y a1 = a2 = ... = an = 0.

Demostración. En efecto, 0x1 + 0x2 + ... + 0xn = b con b 6= 0 es inconsistente.


Recı́procamente:

Si b = 0 la ecuación es homogénea y por lo tanto es consistente cualesquiera sean los coeficientes.

Material de uso interno Mateu-Semitiel 5


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

Si algún coeficiente es distinto de cero, la ecuación es consistente cualquiera sea b puesto que
habrá una variable delantera que podrá “despejarse”.

Nota: Una ecuación lineal en una variable ax = b tiene una única solución, infinitas soluciones o es
inconsistente. Si la ecuación lineal tiene dos o mas variables, es inconsistente o tiene un número infinito
de soluciones.

Actividad 1.2. Encuentre para qué valores de a y b, la ecuación lineal en una variable ax = b, tiene
una única solución, infinitas soluciones o ninguna solución.

Ejercicios

1. Para cada una de las siguientes ecuaciones:

a) 2x − 5 = x − 3y + z c) x1 − 2x2 + 3 = x2 + 5x3 − x4 + 3
b) xy − 4x + y = 0 d ) x1 + x2 − x3 = x1 + x2 − x3 + 9

determine si es o no lineal. En caso de ser lineal, indique: si es homogénea, sus coeficientes, su


término constante, la variable delantera, las variables libres y obtenga su conjunto solución.

2. Determine todos los valores de a de modo que cada una de las ecuaciones: (i) tenga única
solución, (ii) tenga infinitas soluciones, (iii) no tenga solución.

a) a2 x − 4 = 16x + a c) a2 (x + y) − x − y = a − 1
b) ax1 − a2 x2 = 2a d ) a(x + y) − x − y − a + 1 = 0

1.2. Sistemas de ecuaciones lineales


Muchos problemas en Matemática, Ingenierı́a, Economı́a, Fı́sica y otras ciencias se reducen a resolver
sistemas de ecuaciones lineales. Un ejemplo sencillo de un sistema lineal se presenta en el siguiente
problema:
Un dı́a una tienda vendió 45 camisetas. Las lisas tenı́an un precio de venta de $110 mientras que
las estampadas $135. Ese dı́a se recaudó un total de $5575 en ventas de camisetas. ¿Cuántas camisetas
estampadas y cuántas lisas se vendieron?
Llamando x al número de camisetas lisas y y al número de camisetas estampadas, el problema
consiste en hallar los valores de x y y que satisfacen simultáneamente las ecuaciones lineales:

x + y = 45
110x + 135y = 5575

Material de uso interno Mateu-Semitiel 6


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

El conjunto formado por estas dos ecuaciones lineales recibe el nombre de ssistema lineal. Más
precisamente:

Definición (Sistema lineal). Un sistema lineal de m ecuaciones con n incógnitas o variables


x1 , x2 ,..., xn es un conjunto de m ecuaciones lineales de la forma:

 a11 x1 + a12 x2 + a13 x3 + ... + a1n xn = b1

 a21 x1 + a22 x2 + a23 x3 + ... + a2n xn = b2

.. (1.2)


 .
am1 x1 + am2 x2 + am3 x3 + ...amn xn = bm

llamada forma canónica o estándar del sistema lineal. Los números aij con i = 1, 2, .., m
y j = 1, 2, ..., n son los coeficientes del sistema y bi con i = 1, 2, ..., m son los términos
constantes.
Si bi = 0 para todo i = 1, 2, ..., m el sistema lineal se denomina homogéneo.
Una única ecuación lineal es un sistema lineal (m = 1).

Ejemplo 1.9. El sistema 


 x1 − 2x2 + x3 = x4 + 2
2x1 = x3 − 2x4
−x2 + x3 − x4 = 1

es lineal no homogéno de 3 ecuaciones con 4 incógnitas x1 , x2 , x3 y x4 . Su forma canónica o estándar


es: 
 x1 −2x2 +x3 −x4 = 2
2x1 +0x2 −x3 +2x4 = 0
0x1 −x2 +x3 −x4 = 1

aunque suelen omitirse los términos con coeficientes cero escribiéndose:



 x1 −2x2 +x3 −x4 = 2
2x1 −x3 +2x4 = 0
−x2 +x3 −x4 = 1

Los coeficientes son: a11 = 1, a12 = −2, a13 = 1, a14 = −1, a21 = 2, a22 = 0, a23 = −1, a24 = 2,
a31 = 0, a32 = −1, a33 = 1 y a34 = −1. Los términos constantes son b1 = 2, b2 = 0 y b3 = 1.J

Definición (Solución de un sistema lineal). Una solución (particular) del sistema lineal
(1.2) es una n−upla ordenada de números reales (c1 , c2 , ..., cn ) que es solución de todas las
ecuaciones del sistema.
El conjunto de todas las soluciones del sistema lineal (1.2) se llama conjunto solución.
Resolver un sistema lineal es hallar su conjunto solución. Un elemento genérico del conjunto
solución es una solución general del sistema.

Material de uso interno Mateu-Semitiel 7


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

Ejemplo 1.10. La 4-upla (−3, −4, 0, 3) es una solución del sistema del Ejemplo 1.9. En efecto,

 −3 − 2(−4) + 0 − 3 = 2
2(−3) + 0 + 0 + 2(3) = 0
0 − (−4) + 0 − 3 = 1

Entonces este sistema tiene al menos una solución, ¿será la única solución o admitirá más solucio-
nes?. Para cualquier t ∈ R, la 4-upla
(−t, −1 − t, 0, t)
es también una solución del sistema (verifı́quelo). Si t = 3 se obtiene la solución particular previamente
considerada. Puede observarse que el sistema del Ejemplo 1.9 tiene infinitas soluciones.J

Definición (Sistemas consistentes). Un sistema lineal se dice consistente si tiene al menos


una solución e inconsistente si no tiene solución.

Nota: Se puede probar que un sistema lineal puede tener una, infinitas o ninguna solución. En la
sección 1.4 se profundizarán estas ideas.

Ejemplo 1.11 (Sistemas lineales de dos ecuaciones con dos incógnitas). Los sistemas lineales:
  
x+y =2 x+y =2 x+y =2
y
−x + y = 0 2x + 2y = 4 x+y =4

son: consistente con única solución, consistente con infinitas soluciones e inconsistente, respectivamen-
te. En efecto, si se recurre a la Geometrı́a Analı́tica, gráficamente el conjunto solución de cada uno de
estos sistemas es el conjunto de puntos del plano que pertenecen a ambas rectas como se observa en
la Figura 1.1J

Figura 1.1: Resolución gráfica

Material de uso interno Mateu-Semitiel 8


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

Un sistema lineal homogéneo




 a11 x1 + a12 x2 + a13 x3 + ... + a1n xn = 0
 a21 x1 + a22 x2 + a23 x3 + ... + a2n xn = 0

..


 .
am1 x1 + am2 x2 + am3 x3 + ...amn xn = 0

siempre es consistente. En efecto: x1 = x2 = .... = xn = 0 siempre es una solución, es la llamada


solución trivial o solución cero. Cualquier otra solución es una solución no trivial.

Por ejemplo, x = 1, y = 1 es una solución no trivial del sistema homogéneo



x−y =0
.
−2x + 2y = 0

y x = 0, y = 0 es la solución trivial del mismo.

Resolviendo un sistema de ecuaciones lineales


Los sistemas lineales más simples de resolver son los sistemas escalonados (o triangulares). En
ellos la variable delantera de cada ecuación se presenta a la derecha de la variable delantera de la
ecuación anterior (inmediata superior).
En un sistema escalonado se llama variable delantera del sistema a una variable que es de-
lantera en alguna ecuación. Es decir, son variables delanteras aquellas que son las primeras cuyos
coeficientes son distintos de cero. Las restantes variables se llaman variables libres.

Por ejemplo, el sistema lineal



 x1 −2x2 +x3 −x4 = 2
4x2 −3x3 +4x4 = −4 (1.3)
1
4 x3 = 0

es escalonado, sus variables delanteras son x1 , x2 y x3 , la variable x4 es libre.


El sistema 
 −2y +z = 2
x −y +z = 1
y +3z = 8

no es escalonado.

Los sistemas escalonados se resuelven comenzando en la última ecuación y avanzando hacia arriba.
Se comienza despejando la variable delantera de la última ecuación en término de las libres (si las
hay) y las constantes. Luego se sustituye la expresión encontrada para dicha variable en la ecuación
anterior y se despeja la variable delantera de dicha ecuación. Ası́, continuando de este modo, hasta
despejar la variable delantera de la primera ecuación. Este método se le llama sustitución hacia
atrás.

Ejemplo 1.12. En el sistema escalonado (1.3) de la última ecuación se observa que necesariamente

x3 = 0.

Material de uso interno Mateu-Semitiel 9


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

Sustituyendo este valor en la ecuación anterior se obtiene 4x2 +4x4 = −4 por lo cual necesariamente
es x2 = −1 − x4 pudiendo tomar x4 cualquier valor real. Ası́
x4 = t, t ∈ R,
y
x2 = −1 − t.
Sustituyendo en la primera ecuación x2 = −1−t, x3 = 0 y x4 = t, se tiene que x1 −2(−1−t)−t = 2
es decir
x1 = −t.
Por consiguiente la solución general del sistema lineal (1.3) se expresa como:
x1 = −t, x2 = −1 − t, x3 = 0 y x4 = t para todo t ∈ R,
o en forma de 4-upla
(−t, −1 − t, 0, t) para todo t ∈ R,
por lo cual el sistema es consistente con infinitas soluciones.
El conjunto solución
{(−t, −1 − t, 0, t) : t ∈ R} ,
es uniparamétrico infinito. J

 2x1 − x2 + x3 = 0
Actividad 1.3. Resuelva el sistema lineal escalonado: 3x2 − x3 = 1 .
2x3 = 4

El sistema lineal del Ejemplo 1.9 no es escalonado. Si bien es posible resolverlo haciendo apropiadas
sustituciones, es más sencilla su resolución hallando un sistema escalonado que sea equivalente a él.

Definición (Sistemas equivalentes). Dos sistemas lineales son equivalentes si tienen el


mismo conjunto solución.

Un sistema lineal puede transformarse en un sistema equivalente mediante ciertas operaciones entre
ecuaciones:

Operaciones elementales en ecuaciones


Las operaciones elementales en ecuaciones de un sistema lineal son las siguientes:

Intercambiar ecuaciones: Ei ↔ Ej . (intercambio)

Multiplicar una ecuación por una constante c 6= 0: cEi → Ei (escalamiento)

Sumar a una ecuación un múltiplo escalar de otra ecuación: Ei +cEj → Ei . (eliminación)

Teorema 1.2 (Operaciones que conducen a sistemas equivalentes). La aplicación de cual-


quier operación elemental en ecuaciones de un sistema lineal da como resultado un sistema
equivalente.

Material de uso interno Mateu-Semitiel 10


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

Demostración. Claramente si se intercambian dos ecuaciones de un sistema no se alteran las soluciones


del mismo.
También, si se multiplica una ecuación por una constante distinta de cero, se obtiene una ecuación
equivalente y por lo tanto no se alteran las soluciones del sistema.
Se deja como ejercicio probar que una operación de eliminación no cambia las soluciones del sistema
(Ejercicio 8).

Una apropiada aplicación de estas operaciones permite encontrar un sistema escalonado equiva-
lente a uno dado. En la sección siguiente se justificará la existencia de un sistema lineal escalonado
equivalente a uno dado.

Ejemplo 1.13. Para resolver el sistema lineal (no escalonado) del Ejemplo 1.9 usamos la técnica de
eliminación. Esto es, se eliminan algunas de las incógnitas sumando un múltiplo de una ecuación a
otra ecuación.

 x1 −2x2 +x3 −x4 = 2 (E1 )
2x1 −x3 +2x4 = 0 (E2 )
−x2 +x3 −x4 = 1 (E3 )

Si se sustituye la ecuación E2 por E2 menos dos veces la ecuación E1 (E2 + (−2)E1 → E2 ) se


elimina x1 de la segunda ecuación, quedando el sistema equivalente:

 x1 −2x2 +x3 −x4 = 2 (E1 )
4x2 −3x3 +4x4 = −4 (E2 )
−x2 +x3 −x4 = 1 (E3 )

Para eliminar la variable x2 de la tercera ecuación, se sustituye la ecuación E3 por E3 más 41 la
ecuación E2 E3 + 14 E2 → E3 . Se obtiene el sistema escalonado equivalente que es el del Ejemplo
1.12: 
 x1 −2x2 +x3 −x4 = 2
4x2 −3x3 +4x4 = −4
1
4 x3 = 0

cuyo conjunto solución es:


{(−t, −1 − t, 0, t) : t ∈ R} . J

Trivialmente, un sistema con una ecuación sin solución es un sistema que no tiene solución (inconsis-
tente), pero ésta no es la forma en que se presenta, por lo general, un sistema inconsistente. En un
sistema lineal cualquiera, usualmente todas las ecuaciones tienen solución y no se descubre a simple
vista si el sistema es o no consistente. En cambio en un sistema lineal escalonado se hace evidente la
consistencia o inconsistencia del mismo como se mostrará en lo que sigue.

Ejemplo 1.14. El sistema lineal



 2x +3y +z = 2
8x +4y +3z = 4
12x +10y +5z = 12

Material de uso interno Mateu-Semitiel 11


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

es inconsistente. En efecto, llevándolo a uno escalonado equivalente:


 
 2x +3y +z = 2 (E1 ) −−−−−−−−−−−−−−→  2x + 3y + z = 2 (E1 )
8x +4y +3z = 4 (E2 ) EE23 − 4E1 → E2
− 6E1 → E3
− 8y − z = −4 (E2 ) →
12x +10y +5z = 12 (E3 ) − 8y − z = 0 (E3 )
 

 2x +3y +z = 2 (E1 )
−−−−−−−−−−−−−→
E3 − E2 → E3 −8y −z = −8 (E2 )
0z = 4 (E3 )

Observemos que todas las ecuaciones tanto del sistema original como las del que le sigue, son
consistentes pero el sistema no lo es, con algo de atención, en el segundo sistema se ve la inconsistencia
ya que las ecuaciones E2 y E3 no tienen una solución común. La inconsistencia es evidente en el último
sistema equivalente, que es escalonado, pues su última ecuación no tiene solución.J

Para los sistemas lineales escalonados vale el siguiente teorema:

Teorema 1.3. Un sistema escalonado es consistente si y sólo si todas sus ecuaciones son
consistentes, es decir si y sólo si no tiene una ecuación de la forma

0x1 + 0x2 + ... + 0xn = b, b 6= 0.

Demostración. Si el sistema tiene una ecuación de la forma 0x1 + 0x2 + ... + 0xn = b con b 6= 0
claramente el sistema es inconsistente puesto que esta ecuación no tiene solución.
Recı́procamente: si no hay ecuaciones de la forma 0x1 + 0x2 + ... + 0xn = b con b 6= 0, y dado que
en un sistema escalonado las ecuaciones que tienen todos sus coeficientes ceros (si las hay) ocupan las
últimas posiciones, entonces la última ecuación es de la forma 0x1 + 0x2 + ... + 0xn = 0 o bien tiene una
variable delantera. Las ecuaciones de la forma 0x1 + 0x2 + ... + 0xn = 0 pueden eliminarse ya que no
aportan nuevas soluciones (cualquier n−upla de números las satisfacen). Eliminando dichas ecuaciones,
el sistema escalonado resultante es equivalente y su última ecuación tiene un coeficiente distinto de cero
(tiene una variable delantera). El procedimiento de sustitución hacia atrás que comienza resolviendo
la última ecuación muestra que el sistema es consistente.

Una consecuencia de este teorema, es el siguiente corolario:

Corolario 1.1. Un sistema lineal es consistente si y sólo cualquier sistema equivalente en


forma escalonada no tiene una ecuación de la forma

0x1 + 0x2 + ... + 0xn = b, b 6= 0.

Ejercicios

1. Escriba el sistema lineal 



 −3x1 + x2 = −x3 + x4 + 3
2x1 − x4 + 9 = 0


 x2 + x3 = x4 − 3 − x2
2x1 − x2 + 5 = x3 + x4 − 1

Material de uso interno Mateu-Semitiel 12


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

en forma canónica (estándar) y verifique que la 4−upla (−3, 3, −6, 3) es una solución.

2. Obtenga los valores de a y b de manera que la terna (1, 1, 1) sea una solución del sistema lineal

ax − y + 2z = b
.
x + by + z = 3a

a11 x + a12 y = 0
3. Considere el sistema homogéneo
a21 x + a22 y = 0

a) Demuestre que si (x0 , y0 ) es una solución para tal sistema entonces también lo es (kx0 , ky0 )
para cualquier k constante.
b) Demuestre que si (x0 , y0 ) y (x1 , y1 ) son soluciones del sistema lineal homogéneo entonces
(x0 + x1 , y0 + y1 ) también es solución.

4. Resuelva el problema planteado al inicio de esta sección.

5. Resuelva los siguientes sistemas:


 
 −x + 2y + z = 1  x + 3y − z = 0
a) y − 3z = 0 c) 2y + 9z = 0
−2z = 16 3z = 0
 

 x1 − 3x2 + 5x3 + x4 − 1 = 0 
b) 2x2 = x3 + 9 x1 − x2 + x3 − x4 − 5 = 0
d)
−x4 = 0 x3 = 8 − x4

6. Demuestre que los sistemas lineales


 
 x1 +2x2 −x3 +x4 = 0  −x1 −2x2 +x3 −x4 = 0
2x1 −x2 +x3 −x4 = 1 y x2 1
+ 2 x3 + 12 x4 = 1
2x2 +x3 +x4 = 2 −5x2 +3x3 −3x4 = 1
 

son equivalentes.

7. Indique cuáles son las operaciones elementales en ecuaciones realizadas que permiten obtener los
sucesivos sistemas equivalentes. Resuelva el sistema original.
  
 2x −y +z = 4  x +y −2z = 0  x +y −2z = 0
x +y −2z = 0 → 2x −y +z = 4 → −3y +5z = 4 →
−x +y +z = 2 −x +y +z = 2 2y −z = 2
  

 
 x +y −2z = 0  x +y −2z = 0
→ −3y +5z = 4 → −3y +5z = 4 .
7 14
3z = 7z = 14
 
3

8. Demuestre que el sistema lineal que se obtiene al reemplazar una ecuación por ella misma más
un múltiplo escalar de otra tiene las mismas soluciones que el sistema original (Teorema 1.2).

Material de uso interno Mateu-Semitiel 13


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

1.3. Eliminación gaussiana y de Gauss-Jordan


En la sección anterior introducimos un método para la solución de sistemas lineales. Se estudiará este
procedimiento con mayor profundidad comenzando con la noción de matriz.

Definición (Matriz). Si m y n son enteros positivos, una matriz A de m × n es un arreglo


rectangular de mn números dispuestos en m renglones (o filas) y n columnas.
 
a11 a12 a13 . . . a1n
 a21 a22 a23 . . . a2n 
A= .
 
. .. .. .. .. 
 . . . . . 
am1 am2 am3 . . . amn

El número aij es el elemento o componente de A que está en el renglón i, columna j. Una


matriz de m renglones y n columnas es de tamaño u orden m × n.

Si m = n la matriz es cuadrada de orden n, los elementos a11 , a22 ,...,ann son los elementos de la
diagonal principal.
En este texto los elementos aij serán números reales salvo otra indicación.
Se usan letras mayúsculas imprentas como A, B, C, etc. para denotar una matriz. También pueden
denotarse mediante un elemento genérico escrito entre corchetes, por ejemplo: [aij ], [bij ], etc. Ası́, para
abreviar la escritura, la matriz A puede denotarse simplemente por

A = [aij ]

indicando además que es de tamaño m × n.

Por ejemplo:

2 73
     
1 −2 5 1  
A= , B= , C= −1 2 4 y D= .
3 1 6 3 3 8

A es una matriz 2 × 3, sus elementos son a11 = 1, a12 = −2, a13 = 5, a21 = 3, a22 = 1 y a23 = 6. B
es una matriz 2 × 1 y se dice que es una matriz columna o un vector columna. C es una matriz
de 1 × 3, es una matriz renglón. Se suelen utilizar letras minúsculas negritas para denotar matrices
columna o renglón. Por ejemplo:  
1
b= .
3
Un renglón cero de una matriz sólo incluye ceros. Un renglón no cero tiene al menos un
elemento distinto de cero. El primer elemento no cero de un renglón no cero se denomina elemento
delantero o principal. Si el elemento delantero es un 1 se lo llama 1-delantero. Por ejemplo, la
matriz de 4 × 5:  
1 2 4 0 1
 0 0 3 1 1 
 
 −8 0 0 2 5 
0 0 0 0 0

Material de uso interno Mateu-Semitiel 14


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

tiene el último renglón cero. Sus elementos delanteros son 1, 3 y −8.

Mediante el uso de matrices, se puede abreviar la escritura de un sistema lineal anotando sólo sus
coeficientes y/o términos constantes, siempre que están especificados los nombres y el orden de las
variables. Consideremos el sistema lineal


 a11 x1 + a12 x2 + a13 x3 + ... + a1n xn = b1
 a21 x1 + a22 x2 + a23 x3 + ... + a2n xn = b2

..


 .
am1 x1 + am2 x2 + am3 x3 + ...amn xn = bm

El arreglo rectangular de los coeficientes del sistema es la matriz de coeficientes:


 
a11 a12 a13 . . . a1n
 a21 a22 a23 . . . a2n 
A= . ..  .
 
.. .. ..
 .. . . . . 
am1 am2 am3 . . . amn

Si a esta matriz se le agrega como última columna el vector de las constantes


 
b1
 b2 
b= .
 
 ..


bn

se obtiene la llamada matriz aumentada o ampliada del sistema:


 
a11 a12 a13 . . . a1n b1
 a21 a22 a23 . . . a2n b2 
 
 .. .. .. .. .. .. 
 . . . . . . 
am1 am2 am3 . . . amn bm

que podemos denotar como [A : b]. Para hacer énfasis de que se trata de la matriz aumentada del
sistema, se la suele representar de la siguiente manera:
 
a11 a12 a13 . . . a1n : b1
 a21 a22 a23 . . . a2n : b2 
[A : b] =  . .
 
.. .. .. .. ..
 .. . . . . . 
am1 am2 am3 . . . amn : bm

Ejemplo 1.15. Para el sistema lineal del Ejemplo 1.9



 x1 −2x2 +x3 −x4 = 2
2x1 −x3 +2x4 = 0
−x2 +x3 −x4 = 1

la matriz de coeficientes es  
1 −2 1 −1
A= 2 0 −1 2 
0 −1 1 −1

Material de uso interno Mateu-Semitiel 15


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

y su matriz aumentada es  
1 −2 1 −1 : 2
[A : b] =  2 0 −1 2 : 0 . J
0 −1 1 −1 : 1
 
1 −2 1
 2 0 −1 
Actividad 1.4. Escriba el sistema lineal cuya matriz aumentada es 
 0 −1
.
1 
1 1 0

Como la matriz aumentada de un sistema lineal es una representación abreviada del mismo, se puede
ahorrar tiempo y trabajar en forma mas eficiente si se utiliza esta notación en el proceso de resolución
del mismo.
Las tres operaciones de ecuaciones que se pueden utilizar en un sistema lineal para generar un
sistema equivalente, se corresponden con ciertas operaciones entre renglones de la matriz aumentada
del sistema.

Definición (Operaciones elementales de renglón). Las operaciones elementales de


renglón de una matriz son las siguientes:

Intercambiar renglones: Ri ↔ Rj . (intercambio)

Multiplicar un renglón por una constante c 6= 0: cRi → Ri . (escalamiento)

Sumar a un renglón un múltiplo escalar de otro renglón: Ri + cRj → Ri . (eliminación)

Ejemplo 1.16. Retomando el sistema lineal del Ejemplo 1.13 se muestra a la derecha su resolución
trabajando en forma abreviada con la matriz aumentada del sistema, haciendo uso de las operaciones
elementales de renglón correspondientes a las operaciones en ecuaciones realizadas:
  
 x1 −2x2 +x3 −x4 = 2 1 −2 1 −1 : 2
2x1 −x3 +2x4 = 0  2 0 −1 2 : 0 
−x2 +x3 −x4 = 1 0 −1 1 −1 : 1

E2 − 2E1 → E2 R2 − 2R1 → R2
  
 x1 −2x2 +x3 −x4 = 2 1 −2 1 −1 : 2
4x2 −3x3 +4x4 = −4  0 4 −3 4 : −4 
−x2 +x3 −x4 = 1 0 −1 1 −1 : 1

E3 + 41 E2 → E3 R3 + 14 R2 → R3
  
 x1 −2x2 +x3 −x4 = 2 1 −2 1 −1 : 2
4x2 −3x3 +4x4 = −4  0 4 −3 4 : −4 
1 1
4 x3 = 0 0 0 0 : 0

4

Material de uso interno Mateu-Semitiel 16


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

y su conjunto solución (véase Ejemplo 1.13) es

{(−t, −1 − t, 0, t) : t ∈ R} . J

Una operación elemental de renglón aplicada a la matriz aumentada de un sistema lineal produce
la matriz aumentada de un sistema lineal equivalente. Esto, y dado que toda matriz es la matriz
aumentada de un sistema lineal, da origen a la siguiente definición:

Definición (Matrices equivalentes por renglones). Dos matrices A y B son equivalentes


por renglones y se denota
A∼B
si una de ellas puede obtenerse a partir de la otra mediante una sucesión finita de operaciones
elementales entre renglones.

Por simplicidad a lo largo de este texto, llamaremos simplemente matrices equivalentes a las ma-
trices equivalentes por renglones.

Ejemplo 1.17. Las matrices


   
1 −2 1 1 1 −2 1 1
A =  −1 3 1 −1  y B= 0 1 2 0 
4 2 −6 0 2 1 −3 0

son equivalentes. En efecto,


     
1 −2 1 1 1 −2 1 1 1 −2 1 1
−−−−−−−−−−→
A =  −1 3 1 −1  −−R−2−−+−R−−1−→
−−−−→ 
R2 0 1 2 0  21 R3 → R3  0 1 2 0  = B. J
4 2 −6 0 4 2 −6 0 2 1 −3 0

Las operaciones elementales de renglón son revertibles, en el sentido de que cada operación elemental
tiene una operación elemental inversa que revierte el resultado.

Actividad 1.5. Verifique que la matriz A del ejemplo anterior puede obtenerse a partir de la matriz
B revirtiendo la sucesión de operaciones elementales.

Actividad 1.6. ¿Cuál es la operación elemental inversa de cRi → Ri (c 6= 0)?. ¿Y cuál es la operación
elemental inversa de Ri + cRj → Ri ?

Se han resuelto sistemas lineales llevándolos a uno escalonado equivalente. Los sistemas escalonados
son aquellos cuya matriz aumentada es de forma escalonada. Precisamente:

Material de uso interno Mateu-Semitiel 17


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

Definición (Matrices en forma escalonada por renglones y en forma escalonada


reducida por renglones). Una matriz está en forma escalonada por renglones si verifica
las siguientes condiciones:

Todos sus renglones cero están en la parte inferior de la matriz.

El elemento delantero de cada renglón no cero después del primero está a la derecha
del elemento delantero del renglón anterior.

La matriz está en forma escalonada por renglones reducida si además verifica las dos siguientes
condiciones:

El elemento delantero de cada renglón no cero es 1 (1-delantero).

Toda columna que contiene un 1-delantero, tiene ceros en sus restantes posiciones.

Por simplicidad diremos que una matriz está en “forma escalonada” o en “forma escalonada reducida”
para indicar que está en forma escalonada por renglones o en forma escalonada por renglones reducida,
respectivamente.
Por ejemplo, sean las matrices:
   
  1 2 3 0 2 2 4  
1 2 5 1 3
A= , B =  0 1 0 9 , C= 0 1 0 , D= ,
 
0 1 1 0 0
0 2 1 1 0 0 −1
 
1 0 3 0    
 0 1 0 0 0 2 5
1 2 0   
E=
 0
, F =  0 1 0 , G= 1 2 5 y H= 0
 0 1 .
0 0 1 
0 0 1 0 0 0
0 0 0 0
A, C, D E, F G y H están en forma escalonada y se han recuadrado sus elementos delanteros. La
matriz B no está en forma escalonada. Las matrices D, E, F y G están en forma escalonada reducida.

Teorema 1.4. Toda matriz es equivalente a una matriz en forma escalonada.

Demostración. La prueba de este teorema es el algoritmo de Gauss o de eliminación gaussiana.

El algoritmo de Gauss o método de eliminación (o reducción) gaussiana es un procedimiento que permi-


te convertir cualquier matriz en una equivalente en forma escalonada. El método indica las operaciones
elementales de renglón que deben ir aplicándose sucesivamente. Los pasos son los siguientes:

Material de uso interno Mateu-Semitiel 18


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

Algoritmo de eliminación gaussiana

1. Vaya a la columna no cero extremo izquierda.

2. Si el primer renglón tiene un cero en la columna del paso 1, intercámbielo con uno que
tenga un elemento no cero en la misma columna. Se obtiene ası́ una matriz equivalente
con el primer renglón no cero cuyo elemento delantero está en la primera columna no
cero.

3. Obtenga ceros abajo del elemento delantero sumando múltiplos adecuados del primer
renglón a los renglones debajo de él.

4. Cubra (o ignore) el renglón superior y repita el mismo proceso comenzando con el paso
1 aplicado a la matriz restante.

Ejemplo 1.18. Para obtener una matriz en forma escalonada equivalente a la matriz
 
0 2 3 3 0
 1 1 2 −1 1 
A=  2 0 1

0 12 
3 1 3 −1 13

se procede siguiendo el algoritmo de eliminación gaussiana de la siguiente manera:

     
0 2 3 3 0 1 1 2 −1 1 1 1 2 −1 1
 1 1 2 −1 1  −−R−−−−−−−
→
 0 2 3 3 0  −−−−−−−−−−−−−−→ 
 R4 − 3R1 → R4  0 2 3 3 0 
→
1 ↔ R2

 2 R3 − 2R1 → R3 
0 1 0 12   2 0 1 0 12  0 −2 −3 2 10 
3 1 3 −1 13 3 1 3 −1 13 0 −2 −3 2 10

2 −1 1 2 −1 1
   
1 1 1 1
−−−−−−−−−−−−−→ 
R4 + R2 → R4  0 2 3 3 0  −−R−4−−−−R−−3−→

−−−−→  0 2 3 3 0 
.
R4
R3 + R2 → R3 
0 0 0 5 10   0 0 0 5 10 
0 0 0 5 10 0 0 0 0 0
La matriz obtenida  
1 1 2 −1 1
 0 2 3 3 0 
E=
 0
,
0 0 5 10 
0 0 0 0 0
está en forma escalonada.J

Teorema 1.5. Toda matriz es equivalente a una matriz en forma escalonada reducida.

Demostración. Su prueba es el algoritmo de Gauss-Jordan.

Material de uso interno Mateu-Semitiel 19


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

El algoritmo de Gauss-Jordan continúa el proceso de eliminación gaussiana hasta obtener una matriz
equivalente en forma escalonada reducida. Se procede de la siguiente manera:

Algoritmo de Gauss-Jordan

I. Si la matriz está en forma escalonada pase al paso II. Si la matriz no está en forma
escalonada aplique los pasos 1, 2, 3 y 4 del algoritmo de Gauss hasta obtener una forma
escalonada y luego continúe con el paso II.

II. Comenzando con el último renglón no cero, se avanza hacia arriba del siguiente modo:

i. Vaya al último renglón no cero y, si el elemento delantero no es un 1, multiplique


dicho renglón por un apropiado escalar para obtener un 1-delantero.
ii. Obtenga ceros arriba del 1−delantero sumando múltiplos adecuados de este último
renglón a los renglones arriba de él.
iii. Cubra el último renglón no cero y aplique el mismo procedimiento comenzando
con el paso i. a la matriz restante.

Ejemplo 1.19. Para obtener una matriz en forma escalonada reducida equivalente a la matriz A del
ejemplo anterior, se continúa con el algoritmo de Gauss-Jordan a partir de la matriz E:

2 −1 1 2 −1 1
     
1 1 1 1 1 1 2 0 3
 0 2 3 3 0 
 −−51−R−−3−→
−−−−→ 
 0 2 3 3 0 
 R2 − 3R3 → R2  0
−−−−−−−−−−−−−−→  2 3 0 −6 
→
 R3
 0 0 0 5 10   0 0 0 1 2  R 1 + R3 → R1  0 0 0 1 2 
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
   1 
1 1 2 0 3 1 0 2 0 6
3 3
−−−−−−−−−−→ 
1R → R
 0 1 2 0 −3  −−−−−−−−−−−−−→  0
  1 2 0 −3 
2 2 2 R1 − R 2 → R1 
 0 0 0 1 2   0 0 0 1 2 
0 0 0 0 0 0 0 0 0 0
La matriz obtenida  1 
1 0 2 0 6
3
 0 1 2 0 −3 
R=
 0

0 0 1 2 
0 0 0 0 0
está en forma escalonada reducida y es equivalente a la matriz A.J

Observación 1.1. Pueden obtenerse 1-delanteros en el paso 3 del algoritmo de Gauss aunque esta
práctica tenderı́a a introducir fracciones en una etapa temprana del cálculo si los elementos son enteros.

Observación 1.2. Debe tenerse en cuenta que una vez que se hayan hecho ceros abajo (o arriba) del
elemento delantero de un renglón debe comenzarse otra vez con el primer paso aplicado a la matriz

Material de uso interno Mateu-Semitiel 20


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

que se obtiene de haber eliminado dicho renglón. Esto es ası́ para no “arruinar” los ceros que ya se
habı́an hecho. Por ejemplo: el paso siguiente en la conversión de la matriz
 
2 −1 0
 0 1 −1 
0 1 0

es hacer cero el elemento en la posición (3, 2). El algoritmo de Gauss indica cubrir el renglón 1 (no se
tiene en cuenta el renglón 1) y hacer R3 − R2 → R3 para obtener:
 
2 −1 0
 0 1 −1  .
0 0 1

Nótese que se hubiese logrado un cero en la posición (3, 2) con la operación R3 + R1 → R3 , pero
esto hubiese conducido a la matriz  
2 −1 0
 0 1 −1 
2 0 1
“arruinando” el cero que ya se habı́a obtenido en la posición (3, 1).

Observación 1.3. En este texto se hará uso de expresiones tales como “llevar la matriz A a una
forma escalonada”, que significa obtener una matriz en forma escalonada equivalente a la matriz A.

Nota: Una matriz no cero es equivalente a infinitas matrices en forma escalonada pero sólo a una en
forma escalonada reducida. Se aceptará sin demostrar el siguiente teorema:

Teorema 1.6 (Unicidad de la forma escalonada reducida). Toda matriz es equivalente a una
y solo una matriz escalonada reducida.

Si A, E y R son tres matrices equivalentes tales que E está en forma escalonada y R en forma
escalonada reducida, se dice que E es una forma escalonada de A y que R es la forma escalonada
reducida de A.
En cualquier forma escalonda de una matriz A los elementos delanteros se encuentran en las mismas
posiciones, a dichos elementos delanteros se los llama pivotes. Se llaman posiciones pivote (o de
pivoteo) de una matriz A a las posiciones de los pivotes de una (cualquiera) forma escalonada de A.
Las columnas de A que contienen una posición pivote se llaman columnas pivote de A. Debe
notarse que para determinar cuáles son las columnas pivote de una matriz A que no está en forma
escalonada debe primero llevársela a una forma escalonada para conocer cuáles son las posiciones
pivote.

Ejemplo 1.20. Las matrices


       
2 2 3 2 2 3 2 2 3 1 0 0
1 
B= 0 4 2 , C =  0 2 1 , D= 0 1 2 y I =  0 1 0 ,
0 0 −5 0 0 −5 0 0 −1 0 0 1

Material de uso interno Mateu-Semitiel 21


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

son formas escalondas de la matriz  


2 2 3
A =  4 8 8 .
6 6 4
La matriz I (esta matriz es la matriz identidad de orden 3) es la forma escalonada reducida de
A (también es la forma escalonada reducida de B, C y D).
Las posiciones pivote de las matrices A, B, C, D y I son (1, 1), (2, 2) y (3, 3), y sus columnas
pivote son las columnas 1, 2 y 3. Los pivotes de B son 2, 4 y −5, los de C son 2, 2 y −5, los de D son
2, 1 y −1, y los pivotes de I son 1, 1 y 1.J

Actividad 1.7. Considere las matrices A, B, C, D y I del Ejemplo 1.20:

1. Verifique que las matrices B, C, D y I son formas escalonadas de la matriz A y I es su forma


escalonada reducida.

2. Exhiba los pivotes de cada una de las matrices B, C, D y I.

3. Exhiba las columnas pivote de las matrices B, I y A.

 
1 −1 2 3

 −2 2 −4 −6 

Actividad 1.8. Dada la matriz A = 
 2 −1 6 8 
.
 1 0 4 5 
0 0 0 1
1. Exhiba las columnas pivote de A.

2. Halle la forma escalonada reducida de A.

Actividad 1.9. ¿Cuántas matrices cuadradas de orden 3 escalonadas reducidas tienen exactamente
2 pivotes?, ¿cuántas tienen exactamente 3 pivotes?

Ejercicios

1. Escriba la matriz de coeficientes y la matriz aumentada asociada al sistema lineal




 x +y +z −w = −1
2x +y −z = 0



y +z −w = 1 .
x +y +z +w = 4




2x −z +w = 0

2. Teniendo en cuenta la Actividad 1.6 demuestre que si A, B y C son matrices m × n entonces se


verifican las siguientes propiedades:

Material de uso interno Mateu-Semitiel 22


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

a) A ∼ B ⇒ B ∼ A
b) Si A ∼ B y B ∼ C, entonces A ∼ C.

3. Indique cuáles de las siguientes matrices están en forma escalonada y cuáles de éstas en forma
escalonada reducida. Recuadre los pivotes de cada matriz en forma escalonada e indique sus
columnas pivote.
 
      1 0 0 9 0
1 −2 1 1 1 0 1 1 3  0 0 1 3 0 
A= 0 5 −2 1  , B =  0 5 0  , C =  1 2  , D =   0 0 0 0 1 ,

0 0 0 2 0 0 0 0 0
0 0 0 0 0

7    
 0    1 0 0 1 0 0 5 0 0
E=
 0 ,
 F = 1 6 0 0 1 , G =  0 1 0 , H =  0 1 3 0 0 0 .
0 0 1 0 0 0 0 0 1
0

4. Sean A y B dos matrices m×n, y A0 y B 0 sus respectivas formas escalonadas reducidas. Demuestre
que: A ∼ B si y sólo si A0 = B 0 .

Nota: Dos matrices son iguales si tienen el mismo tamaño y los elementos que ocupan las mismas
posiciones son iguales.

5. Determine en cada caso si las matrices A y B son equivalentes.

− 32 12
   
1 2 −1 2 1 0
a) A =  −1 2 2 1 , B =  0 4 1 3 
0 4 1 3 0 0 0 0
   
1 2 3 1 1 −1
b) A = ,B=
0 1 1 0 1 1
   
2 1 −1 3 1 0 0 0
 4 0 1 −1   0 1 0 0 
c) A =  0 2
, B =  
0 2   0 0 1 0 
1 1 −1 3 0 0 0 1

6. Demuestre que si a11 a22 − a12 a21 6= 0 entonces


   
a11 a12 1 0
∼ .
a21 a22 0 1

7. En cada caso, obtenga una forma escalonada y la forma escalonada reducida para cada matriz A. Recuadre
los pivotes en una forma escalonada e indique las columnas pivote de A.
     
1 −1 −1 3 2 −1 5 0 1 3 2 −2
a) A =  1 −1 0 1  b) A =  −3 0 2 1  c) A =  2 6 4 −4 
0 2 1 −1 1 −2 12 1 3 9 6 −6

Material de uso interno Mateu-Semitiel 23


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

1.4. Resolución de sistemas lineales


Dada la identificación entre un sistema lineal y su matriz aumentada, y habiéndose demostrado que
toda matriz es equivalente a alguna matriz en forma escalonada y a una (y sólo una) en forma
escalonada reducida, el mismo resultado se aplica a los sistemas de ecuaciones lineales. Esto es, todo
sistema de ecuaciones lineales es equivalente a alguno escalonado.
En esta sección se verá cómo emplear la eliminación gaussiana y la de Gauss-Jordan para resolver
un sistema lineal. Cualquiera de estos procedimientos se aplica a la matriz aumentada del sistema para
producir una matriz en forma escalonada equivalente. El sistema correspondiente a esta última matriz
es equivalente al original y como es escalonado es fácil de resolver, o es evidente su inconsistencia.

Eliminación gaussiana con sustitución hacia atrás


El procedimiento es el siguiente:

1. Escriba la matriz aumentada del sistema lineal.

2. Utilice el algoritmo de eliminación gaussiana para llevar la matriz a una forma esca-
lonada. Si durante cualquier
 estapa de este
 proceso se encuentra una matriz con un
renglón de la forma 0 0 ... 0 : b con b 6= 0, deténgase, en este caso el sistema
es inconsistente. De lo contrario continúe con 3).

3. Escriba el sistema de ecuaciones lineales escalonado correspondiente a la matriz obte-


nida en 2) sin tener en cuenta los renglones cero.

4. Distinga las variables delanteras de las libres y aplique el método de sustitución hacia
atrás para encontrar la solución del sistema.

Ejemplo 1.21. La matriz  


0 2 3 3 0
 1
 1 2 −1 1 
 2 0 1 0 12 
3 1 3 −1 13
del Ejemplo 1.18 es la matriz aumentada del sistema lineal


 2x2 +3x3 +3x4 = 0
x1 +x2 +2x3 −x4 = 1


 2x1 +x3 = 12
3x1 +x2 +3x3 −x4 = 13

Aplicando eliminación gaussiana se obtuvo la matriz en forma escalonada

2 −1 1
 
1 1
 0 2 3 3 0 
 
 0 0 0 5 10 
0 0 0 0 0

Material de uso interno Mateu-Semitiel 24


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

 
Observe que en esta matriz no hay un renglón de la forma 0 0 ... 0 : b con b 6= 0, entonces
el sistema lineal escalonado correspondiente

 x1 +x2 +2x3 −x4 = 1
2x2 +3x3 +3x4 = 0
5x4 = 10

no tiene una ecuación de la forma 0x1 + 0x2 + 0x3 + 0x4 = b con b 6= 0 y por lo tanto es consistente.
Las variables delanteras son x1 , x2 y x4 , que son las que corresponden a las posiciones de las columnas
pivote (1◦ , 2◦ y 4◦ ). La variable x3 (que corresponde a una columna no pivote) es libre, por lo que
toma cualquier valor. Sea
x3 = t, t ∈ R.

Se aplica ahora el método de sustitución hacia atrás. De la última ecuación

x4 = 2.

Sustituyendo x4 y x3 en la ecuación anterior se tiene 2x2 + 3t + 3(2) = 0 y despejando x2


3
x2 = − t − 3.
2
Reemplazando ahora x4 , x3 y x2 en la primera ecuación se tiene x1 + − 32 t − 1 + 2t − 2 = 1 y


depejando x1 se obtiene
1
x1 = − t + 6.
2
El sistema lineal tiene infinitas soluciones y su solución general es
1 3
x1 = − t + 6, x2 = − t − 3, x3 = t, x4 = 2 para todo t ∈ R. J
2 2

La eliminación de Gauss-Jordan para la resolución de sistemas, encuentra un sistema lineal equi-


valente al dado que es escalonado reducido, esto es, su matriz aumentada está en forma escalonada
reducida.

Eliminación de Gauss-Jordan
Los pasos a seguir son los siguientes:

1. Escriba la matriz aumentada del sistema lineal.

2. Emplee el método de eliminación de Gauss-Jordan para obtener la forma escalonada


reducida de la matriz. Si en alguna etapa (temprana) del  proceso se encuentra una
matriz con un renglón de la forma 0 0 ... 0 : b con b 6= 0, deténgase. El
sistema es inconsistente. De lo contrario continúe con el paso 3).

3. Escriba el sistema de ecuaciones lineales escalonado “reducido” correspondiente a la


matriz obtenida en 2) sin tener en cuenta los renglones cero.

4. Distinga las variables delanteras de las libres (si las hay) y despeje la variable delantera
de cada ecuación en función de las libres, de las constantes o de ambas.

Material de uso interno Mateu-Semitiel 25


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

Observación 1.4. En un sistema escalonado reducido la variable delantera de cada ecuación “no
aparece” en otra ecuación, en particular no aparece en las ecuaciones anteriores, y por lo tanto no se
requiere aplicar sustitución hacia atrás para resolverlo.

Ejemplo 1.22. Retomando el ejemplo anterior, se puede resolver el sistema




 2x2 +3x3 +3x4 = 0
x1 +x2 +2x3 −x4 = 1


 2x 1 +x3 = 12
3x1 +x2 +3x3 −x4 = 13

llevándolo al escalonado reducido.


Aplicando eliminación gaussiana se obtuvo la siguiente forma escalonada de su matriz aumentada:

1 2 −1 1
 
1
 0 2 3 3 0 
 .
 0 0 0 5 10 
0 0 0 0 0

Ahora, en lugar de usar sustitución hacia atrás para resolver el sistema escalonado correspondiente,
se continúa con la eliminación de Gauss-Jordan hasta obtener la forma escalonada reducida. El Ejemplo
1.19 muestra la matriz escalonada reducida que se obtuvo:

0 12
 
1 0 6
 0 1 3 0 −3 
 2 .
 0 0 0 1 2 
0 0 0 0 0

El sistema escalonado reducido correpondiente es

+ 12 x3

 x1 = 6
x2 + 23 x3 = −3
x4 = 2

La variable x3 es libre, puede tomar cualquier valor. Si x3 = t, despejando la variable delantera de


cada ecuación en función de t y las constantes se obtiene directamente la solución general del sistema,
a saber:
6 − 21 t

 x1 =
x2 = −3 − 32 t


para todo t ∈ R.

 x3 = t
x4 = 2

Observe que el trabajo que se agrega al completar el proceso para obtener la forma escalona-
da reducida de la matriz aumentada, se compensa con la resolución directa del sistema reducido
equivalente.J

Ejemplo 1.23 (Sistema consistente con única solución). Para resolver el sistema lineal

 x1 −x2 −x3 = 0
−x1 +x2 −x3 = −6
2x1 −x2 −x3 = 1

Material de uso interno Mateu-Semitiel 26


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

aplicando el algoritmo de eliminación de Gauss-Jordan, procedemos ası́:


     
1 −1 −1 : 0 −−−−−−−−−−−−−−→ 1 −1 −1 : 0 1 −1 −1 : 0
 −1 1 −1 : −6  RR32−+2R R1 → R2
1 → R3
 0 0 −2 : −6  −−R−−−−−−−
→
3 ↔ R2 0 1 1 : 1 →
2 −1 −1 : 1 0 1 1 : 1 0 0 −2 : −6
   
1 −1 −1 : 0 1 −1 0 : 3

−−−−−−−−−−−→ −−−− −−−− −−−−−→
−1 R
2 3
→ R 3
 0 1 1 : 1  R 1 + R 3 → R1 
R2 − R 3 → R2 0 1 0 : −2  →
0 0 1 : 3 0 0 1 : 3
 
1 0 0 : 1
−−−−−−−−−−−−−→ 
R1 + R2 → R1 0 1 0 : −2  .
0 0 1 : 3
El sistema escalonado reducido equivalente al dado es:

 x1 = 1
x2 = −2
x3 = 3

Todas las variables del sistema son delanteras (no posee variables libres). La solución es única y se
lee directamente: x1 = 1, x2 = −2 y x3 = 3. Su conjunto solución es {(1, −2, 3)}. J

Ejemplo 1.24 (Sistema consistente con infinitas soluciones). Considere el sistema lineal

 2x1 −x2 +x3 −x4 = 0
x1 +3x2 +x3 −x4 = 1
−3x1 +5x2 −x3 +x4 = 1

Para resolver el sistema aplicando eliminación gaussiana, procedemos como sigue:


   
2 −1 1 −1 : 0 1 3 1 −1 : 1
 1 3 1 −1 : 1  −−R−− −−−−−
→
1 ↔ R2 2 −1 1 −1 : 0  →
−3 5 −1 1 : 1 −3 5 −1 1 : 1
   
−−−−−−−−−−−−−−→
1 3 1 −1 : 1 1 3 1 −1 : 1
R2 − 2R1 → R2  −−−−−−−−−−−−−−→ 
R3 + 3R1 → R3 0 −7 −1 1 : −2  R3 + 2R2 → R3 0 −7 −1 1 : −2 
0 14 2 −2 : 4 0 0 0 0 : 0
(observe que en el primer paso se intercambiaron los renglones R1 con R2 para usar como pivote el 1,
ya que de esta forma se evita introducir fracciones en una etapa temprana del proceso).
Un sistema escalonado equivalente al dado es

x1 +3x2 +x3 −x4 = 1
−7x2 −x3 +x4 = −2

Las variables x1 y x2 son delanteras, x3 y x4 son libres pudiendo tomar cualquier valor real. As,́

x4 = t, t ∈ R,

y
x3 = s, s ∈ R.

Material de uso interno Mateu-Semitiel 27


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

Se aplica ahora el método de sustitución hacia atrás. Despejando x2 en función de s y t se obtiene


2 1 1
x2 = − s + t.
7 7 7
Sustituyendo ahora x2 en la primera ecuación y despejando x1 en función de s y t se tiene
1 4 4
x1 = − s + t.
7 7 7
El sistema es consistente con infinitas soluciones y su conjunto solución es
  
1 4 4 2 1 1
− s + t, − s + t, s, t : t, s ∈ R . J
7 7 7 7 7 7
Ejemplo 1.25 (Sistema inconsistente). Sea el sistema lineal

 x −2y +z = 1
2x +y = 3 .
x +3y −z = 0

Si se aplica eliminación gaussiana a su matriz aumentada


     
1 −2 1 : 1 −−−−−−−−−−−−−−→ 1 −2 1 : 1 1 −2 1 : 1
−−−−−−−−−−−−−→ 
 2 1 0 : 3  RR23 −−2R 1 → R2 
0 5 −2 : 1  R3 − R2 → R3  0 5 −2 : 1 

R1 → R3
1 3 −1 : 0 0 5 −2 : −1 0 0 0 : −2
 
se llega a una matriz escalonada equivalente cuyo último renglón, 0 0 0 : −2 corresponde a
la ecuación inconsistente 0z = −2 por lo que el sistema no tiene solución. J

Soluciones de un sistema lineal


Se han visto ejemplos de sistemas lineales que tienen una única solución, infinitas soluciones o son
inconsistentes. También se han establecido criterios para determinar la consistencia o inconsistencia
de los mismos.
Se obtendrán ahora resultados importantes que permiten determinar la “cantidad” de soluciones
de un sistema lineal.
El siguiente teorema es el Corolario 1.1 que ya ha sido demostrado. Se agrega también el enunciado
equivalente referido a su matriz aumentada:

Teorema 1.7. (Consistencia de un sistema lineal).

Un sistema lineal es consistente si y sólo si En término de matrices:


cualquier sistema escalonado equivalente no
Un sistema lineal es consistente si y sólo si
tiene una ecuación de la forma
cualquier forma escalonada de la matriz au-
mentada no tiene un renglón de la forma
0x1 + 0x2 + ... + 0xn = b
 
0 0 ... 0 : b

con b 6= 0, es decir, la última columna de la


con b 6= 0. matriz aumentada no es una columna pivote.

Material de uso interno Mateu-Semitiel 28


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

Con respecto a los sistemas consistentes se tiene el teorema que sigue.


Dado que las variables delanteras corresponden a columnas pivote de la matriz aumentada y las
variables libres corresponden a columnas no pivote, se agrega el enunciado equivalente referido a su
matriz aumentada:

Teorema 1.8. (Existencia de soluciones).

Un sistema lineal consistente tiene única so- En término de matrices:


lución si y sólo si no tiene variables libres, es
Un sistema lineal consistente tiene una úni-
decir, todas sus variables son delanteras.
ca solución si y sólo si cada columna de la
matriz aumentada, excepto la última, es una
Un sistema lineal consistente tiene infinitas
columna pivote (la última columna no debe
soluciones si y sólo tiene variables libres.
ser columna pivote ya que el sistema es con-
sistente).

Un sistema lineal consistente tiene infinitas


soluciones si y sólo si su matriz aumentada
tiene otras columnas no pivote además de la
última (la última columna no debe ser colum-
na pivote ya que el sistema es consistente).

Demostración. Para resolver un sistema lineal consistente las variables delanteras de un sistema esca-
lonado equivalente se despejan en función de las libres (si las tiene) y de las constantes. Si el sistema
tiene variables libres entonces no tiene una única solución, más aún tiene infinitas soluciones ya que
las variables libres asumen cualquier valor real. Si no tiene tiene variables libres entonces cada variable
asume un único valor y por lo tanto el sistema tendrá solución única.

Dado que un sistema de ecuaciones lineales tiene variables libres o no las tiene, los teoremas 1.7 y 1.8
implican el siguiente:

Teorema 1.9 (Cantidad de soluciones de un sistema lineal). Para cualquier sistema


lineal una y sólo una de las tres propiedades siguientes es válida:

El sistema no tiene soluciones (inconsistente).

El sistema tiene sólo una solución.

El sistema tiene infinitas soluciones.

Actividad 1.10. ¿Qué puede asegurar respecto a las soluciones de los sitemas lineales cuyas matrices
aumentadas son equivalentes a las siguientes formas escalonadas?
   
1 a b d g   1 a b d f
 0 2 c e h  1 a b c e
, B =  0 0 2 d f ; C =  0 2 c e g 
 
A=  0 0 5 f i   0 0 0 0 3 
0 0 0 3 0
0 0 0 3 j 0 0 0 0 0
donde a, b, c, d, e, f , g, h, i y j son constantes reales.

Material de uso interno Mateu-Semitiel 29


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

Para los sistemas lineales homogéneos se tienen los siguientes resultados:

Teorema 1.10. (Soluciones de un sistema lineal homogéneo).

1. Un sistema lineal homogéneo tiene sólo la solución trivial o bien un número infinito de
soluciones.

2. Si un sistema lineal homogéneo tiene más incógnitas que ecuaciones entonces tiene
infinitas soluciones.

Demostración. 1. Todo sistema lineal homogéneo es consistente, ya que tiene al menos la solución
trivial, luego, de acuerdo al Teorema 1.9 tiene una única solución o infinitas soluciones. Si tiene
sólo una solución, ésta será la solución trivial y si no, tendrá un número infinito de soluciones.

2. Si un sistema tiene más incógnitas (variables) que ecuaciones entonces tiene variables libres,
ya que el número de variables delanteras no puede exceder al número de ecuaciones. Como el
sistema es consistente (dado que es homogéneo) y tiene variables libres, entonces tiene infinitas
soluciones de acuerdo al Teorema 1.8.

Observación 1.5. Cuando se dice que un sistema lineal homogéneo tiene soluciones no triviales debe
entenderse que tiene infinitias soluciones, además de la trivial.

Actividad 1.11. Determine si los siguientes sistemas homogéneos tienen soluciones no triviales:

x1 +x2 +x3 = 0 

 x1 + x2 + x3 = 0 
 2x1 −x2 −x3 = 0 x1 +x2 +x3 +5x4 = 0

 

2x1 − x2 − x3 = 0
 
x1 +2x2 −x3 = 0 , , 2x1 −x2 −x3 +20x4 = 0 .
5x1 + x2 − x3 = 0
4x −x2 +x3 = 0 77x1 +6x2 +45x3 −x4 = 0
  
1
 
4x1 − x2 + x3 = 0

 
2x1 +3x2 = 0

Se terminará la sección considerando el siguiente ejemplo: sean los sistemas lineales con la misma
matriz de coeficientes:
 
x + 2y + 3z = 2 x + 2y + 3z = 2
y
2x + 4y + 6z = 4 2x + 4y + 6z = 5

El primer sistema es consistente mientras que el segundo no lo es. Las correspondientes matrices
aumentadas se reducen a las siguientes formas escalonadas:
   
1 2 3 : 2 1 2 3 : 2
y ,
0 0 0 : 0 0 0 0 : 1

respectivamente.
 
1 2 3
La matriz de coeficientes de ambos sistemas, A = , no tiene una posición pivote en
2 4 6
el segundo renglón, entonces cualquiera sea el vector de constantes
 b el último renglón de cualquier
forma escalonada de [A : b] será de la forma 0 0 0 : c . El sistema lineal será consistente o
inconsistente dependiendo de c: si c = 0 es consistente y si c 6= 0 es inconsistente.

Material de uso interno Mateu-Semitiel 30


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

Surge entonces la siguiente pregunta: dada una matriz A ¿podrá suceder que un sistema lineal con
dicha matriz de coeficientes sea siempre consistente?. Parece claro que para que esto ocurra las formas
escalonadas de A no deben tener renglones ceros, es decir A debe tener un pivote por renglón. Se tiene
ası́ el siguiente teorema:

Teorema 1.11. Sea A una matriz de m × n. El sistema lineal de matriz aumentada [A : b]


es consistente para todo b ∈ Rm si y sólo si A tiene m posiciones pivote (un pivote por cada
renglón).

Obsérvese que si una matriz A de m × n tiene m posiciones pivote necesariamente el número de


renglones, m, debe ser menor o igual al número de columnas, n. Es decir, el número de ecuaciones del
sistema no debe exceder al número de incógnitas.

Actividad 1.12. ¿Cuáles de las siguientes matrices son matrices de coeficientes de sistemas lineales
que siempre resultan consistentes?
 
    1 2 3 0  
1 2 1 2 3 1 1 1 0
 3 4  ,  −1 0
 3 4 −1 1 
1 ,   0 −1
,  1 1 0 1 .
2 2 
−1 3 2 1 −2 1 0 1 2
4 6 2 1

Ejercicios

1. Resuelva los siguientes sistemas de ecuaciones lineales:


 
 x1
 +x3 +x4 = −5 
 x1 +2x2 +3x3 +4x4 = 0
x1 −x3 +x4 = −1 2x1 +2x2 +3x3 +4x4 = 0
 

a)

x +x +x3 +x4 = −3 d) 3x1 +3x2 +3x3 +4x4 = 0
 1 2


2x1 +2x3 = −2 4x1 +4x2 +4x3 +4x4 = 0




x1 +x2 +x3 −2x4 = 0


y −z +t = 5 

 2x1 −x2 −2x4 = 3
 x −t = −2

 

 x1 −2x2 +x3 −x4 = 1


b) −y +z −t = −5
e) 2x1 −x2 −x3 +x4 = 0
y −z +t = 5


3x1 −3x2 = 1

 

−y −w = −1
 

x1 +x2 −x3 −x4 = 2

 
 2y −3z = 9  −x +y −3z +w = 9
c) −x +3y +4z = −2 f) 2x −5y +z +9w = 0
3x −5y −18z = 0 −4x +7y −7z −7w = 3
 

2. El problema de los celulares. Una fábrica de celulares elabora cuatro modelos de teléfonos
móviles: AA1, AA2, AA3 y B1. Una vez fabricados, se requiere de la inspección de los mismos
en algunos de los sectores S1, S2, S3 y S4. El modelo AA1 requiere de 5 horas de inspección en
el sector S1, 4 horas en S2, 1 hora en S3 y 3 horas en S4. El modelo AA2 requiere de 2 horas de
inspección en cada uno de los cuatro sectores. El modelo AA3 requiere de 3 horas en el sector
S2, 1 hora en S3 y 5 horas en S4. Por último, el modelo más nuevo B1 requiere de 1 hora en S1,

Material de uso interno Mateu-Semitiel 31


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

7 horas en S2 y 10 horas en S3. Si el sector S1 dispone de 230 horas semanales de trabajo, S2


de 369 horas, S3 de 299 horas y S4 de 231 horas, ¿cuántos celulares de cada modelo se pueden
inspeccionar por semana?

3. El problema de los salones. Una escuela pequeña de 100 alumnos ocupan tres salones de
clases: A, B y C. Después del primer perı́odo del dı́a escolar la mitad de los alumnos del salón A
van al B y la tercera parte de los alumnos del C pasan al A. Sin embargo, la cantidad total de
alumnos en cada salón es igual en cada perı́odo de clase. ¿Cuántos alumnos hay en cada salón?

4. Elaboración de una dieta. Por lo general, el empaque de un cereal indica el número de calorı́as
y las cantidades de proteı́nas, carbohidratos y grasa contenidas en una porción del producto.
Para dos marcas de cereales, se dan las cantidades en el Cuadro 1.1.

Nutriente Cereal X Cereal Y


Calorı́as 110 130
Proteı́nas (g) 4 3
Carbohidratos (g) 20 18
Grasa (g) 2 5

Cuadro 1.1: Cantidades de nutrientes de cada cereal

Suponga que se preparará una mezcla de esos cerales, de manera que contenga exactamente 295
calorı́as, 9g de proteı́nas, 48g de carbohidratos y 8g de grasa. Determine si es posible preparar
la mezcla deseada de los dos cereales.

5. Flujo de redes. Los sitemas de ecuaciones lineales son utilizados también para estudiar el flujo
de alguna cantidad a través de una red. Por ejemplo, los planificadores urbanos y los ingenieros
de tráfico monitorizan el patrón de flujo de tránsito en una rejilla de las calles de una ciudad.

Una red consiste en un conjunto de puntos llamados nodos, con lı́neas o arcos llamados ramas,
que conectan algunos o todos los nodos. Se indica la dirección y el sentido de flujo en cada rama,
y la cantidad de flujo (o tasa) se denota con una variable.

Figura 1.2: Nodo y ramas

La suposición básica en el flujo de red es que el flujo total en la red es igual al flujo total de
salida de la red, y que el flujo total en un nodo es igual al flujo total de salida en dicho nodo.
Por ejemplo, la Figura 1.2 muestra 30 unidades que fluyen por una rama hacia una unión; x1 y
x2 denotan los flujos de salida del nodo a través de otras ramas.

Material de uso interno Mateu-Semitiel 32


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

Como el flujo se “conserva” en cada unión, entonces x1 + x2 = 30. En forma similar, el flujo
en cada nodo se describe mediante una ecuación lineal. El problema de análisis de redes es
determinar el flujo en cada rama cuando se tiene información parcial (como el flujo de entrada
y salida de la red).

a) La red de la Figura 1.3 representa el flujo de tránsito (en vehı́culos por hora) en varias calles
de un solo sentido en el centro de Baltimore en un dáa común, poco después del mediodı́a.

Figura 1.3: Red de tránsito (Baltimore)

Para determinar el patrón de flujo general para la red, se escriben las ecuaciones que
describen el flujo. En cada intersección de las calles (nodos) se iguala el flujo de entrada al
de salida como se muestra en el Cuadro 1.2.
Intersección Flujo de entrada Flujo de salida
A 300 + 500 = x1 + x2
B x2 + x4 = 300 + x3
C 100 + 400 = x4 + x5
D x1 + x5 = 600

Cuadro 1.2: Flujos en intersecciones

También, el flujo total de entrada en la red (500 + 300 + 100 + 400) es igual al flujo total
de salida (300 + x3 + 600), que se simplifica a x3 = 400.
Escriba el sistema de ecuaciones lineales que modeliza el problema y encuentre su solución
para determinar el patrón de flujo general para la red. Determine el posible rango de las
variables del problema.
Nota: Un flujo negativo en una rama de la red corresponde a un flujo en el sentido puesto indicado
en el modelo. Como las calles en este problema son de un solo sentido, ninguna de las variables
puede ser negativa.
b) Encuentre el patrón de flujo general de la red que se ilustra en la Figura 1.4.
Suponiendo que todos los flujos son no negativos, ¿cuál es el valor más pequeño posible para x4 ?

6. ¿Para qué valores de a, b y c el sistema lineal



 −x +2y −z = a
3x +y +2z = b
5x +4y +3z = c

Material de uso interno Mateu-Semitiel 33


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

Figura 1.4: Red de tránsito

admite al menos una solución?

7. Determine para qué valores de λ y µ el sistema lineal



 2x −λy +µz = 4
x +z = 2
x +y +z = 2

es (a) inconsistente, (b) indeterminado, (c) tiene única solución.

8. Halle el o los valores de α para los cuales el sistema de ecuaciones lineales



 x +3y +z = α
−x +y +αz = −1
2x +αy −z = α+1

admite (a) única solución, (b) infinitas soluciones, (c) ninguna solución. Si existe un único valor
de α para el cual el sistema tiene única solución, resuelva el sistema. Idem en el caso de infinitas
soluciones.

9. Analice la consistencia del sistema lineal según los valores de a y b.



 2x1 + x2 + 2x3 = 1
x1 + x2 + x3 = a
2x1 + 3x2 + bx3 = −1

10. Resolución simultánea de sistemas lineales que tienen la misma matriz de coeficien-
tes. Es frecuente en la práctica tener que resolver sistemas lineales que tienen la misma matriz
de coeficientes pero distintos términos independientes. Por ejemplo, los sistemas:

x −2y +3z = −2
(1.4)
−x +4y +5z = 7
y 
u −2v +3w = 1
(1.5)
−u +4v +5w = −4
 
1 −2 3
tienen la misma matriz de coeficientes y vectores de términos independientes
−1 4 5
   
−2 1
y .
7 −4

Material de uso interno Mateu-Semitiel 34


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

En lugar de resolver cada sistema por separado, se los puede resolver simultáneamente aplicando
el algoritmo de eliminación gaussiana o el de Gauss-Jordan a la matriz ampliada que tiene en
el lado derecho las dos columnas que corresponden a los términos independientes. Si se aplica
Gauss-Jordan a esta matriz se obtiene su forma escalonada reducida y en consecuencia los dos
sistemas escalonados reducidos equivalentes a los originales.
   
1 −2 3 : −2 1 −−−−−−−−−−−−−→ 1 −2 3 : −2 1 −−1−−−−−−−−→
R2 + R1 → R2 R → R2
2 2
−1 4 5 : 7 −4 0 2 8 : 5 −3

   
1 −2 3 : −2 1 −−−−−−−−−−−−−−→ 1 0 11 : 3 −2
→ 5 3 R1 + 2R2 → R1 5 .
0 1 4 : 2 −2 0 1 4 : 2 − 32

Rápidamente se obtienen las soluciones:

Para el sistema (1.4) 


 x = 3 − 11s
y = 52 − 4s , s ∈ R,
z = s

y para el sistema (1.5) 


 u = −2 − 11t
v = − 32 − 4t , t ∈ R.
w = t

En el caso de k sistemas lineales de n ecuaciones con n incógnitas cuya matriz de coeficientes


tiene n pivotes, los k sistemas tienen solución única y la solución del i-ésimo sistema se lee
directamente en la (n + i)-ésima columna de la matriz ampliada reducida equivalente.

Resuelva simultáneamente los sistemas:


  
 x +2y +z = 1  x +2y +z = 1  x +2y +z = 0
a) x +y +3z = 2 , x +y +3z = 0 y x +y +3z = 1
2x +y +3z = 3 2x +y +3z = 1 2x +y +3z = −1
  
 
 x1 −2x2 +x3 = 1  x1 −2x2 +x3 = 1
b) x1 +x2 −x3 = 0 y x1 +x2 −x3 = 1
2x1 −x2 = 1 2x1 −x2 = 0
 

11. Demuestre el Teorema 1.11.

1.5. Introducción a Scilab


SCILAB es un software libre que puede ser descargado de su página oficial http://www.scilab.org/.
Para introducir matrices, los elementos de un renglón se separan por espacios y/o comas, y las columas
se separan con un punto y coma.
Por ejemplo,

A = [1 2 − 5; 3 2 0; −9 1 8; 0 0 − 3] y b = [1; 3; 0; 0]

Material de uso interno Mateu-Semitiel 35


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

produce la matriz  
1 2 −5
 3 2 0 
A=
 −9
,
1 8 
0 0 −3
y el vector columna  
1
 3 
 0 ,
b= 

1
respectivamente. Hay que tener en cuenta que SCILAB distingue mayúsculas de minúsculas.
La notación A(2, 3) produce
0
que es el elemento en la posición (2, 3) de la matriz A. La notación A(2, :) produce
3 2 0
que son los elementos del segundo renglón de la matriz A. Y la notación A(:, 3) produce
−5
0
8
−3
que son los elementos de la tercera columna de la matriz A.
La notación B = [A b] produce la matriz aumentada
 
1 2 −5 1
 3 2 0 3 
B=  −9 1
.
8 0 
0 0 −3 1
Las operaciones elementales entre renglones de una matriz A se indican de la siguiente manera:
Intercambio: para intercambiar los renglones i y j se utiliza la notación
A([i j], :) = A([j i], :).

Escalamiento: para multiplicar el renglón i por una constante no nula c se utiliza la notación
A(i, :) = c ∗ A(i, :).

Eliminación: para sumarle al renglón i el renglón j multiplicado por la constante c se indica


A(i, :) = A(i, :) + c ∗ A(j, :).

El comando “rref” produce la forma escalonada reducida de una matriz. Por ejemplo, si quisiéramos
determinar la forma escalonada reducida de la matriz A de nuestro ejemplo, lo indicamos con rref(A)
y produce  
1 0 0
 0 1 0 
 0 0 1 .
 

0 0 0

Material de uso interno Mateu-Semitiel 36


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

Ejercicios

1. Sean   
  
0 −3 −6 4 9 3
 −1 −2 −1 3   1   2 
A=
 −2 −3
, b= 
 −1  y c= 
0 3   5 
1 4 5 −9 −7 3

a) Ingrese la matriz A y los vectores columna b y c.


b) Mediante operaciones elementales entre renglones, obtenga formas escalonadas y formas
escalonadas reducidas de las matrices aumentadas [A : b] y [A : c]. Resuelva los sistemas
lineales de matriz de coeficientes A y términos constantes b y c.
c) Verifique los resultados obtenidos en (b) haciendo uso del comando “rref”.

2. Use el comando “rref” para verificar las soluciones de los sistemas lineales de los ejercicios 1 y
10 de la sección 1.4.

3. Ajuste polinomial de curvas. Suponga que n puntos del plano xy

(x1 , y1 ) , (x2 , y2 ) , (x3 , y3 ) , ..., (xn , yn ) ,

representan un conjunto de datos y se desea hallar una función polinómica de grado n − 1 de la


forma
p(x) = a0 + a1 x + a2 x2 + ... + an−1 xn−1
cuya gráfica contenga todos los puntos dados. El conjunto de datos permite calcular los coefi-
cientes de la función polinómica p.

Halle la curva que contiene a los puntos dados en la siguiente tabla:

x −1 −0, 5 0 0,5 1 1,5 2 2,5 3


y −5 −0,8 1 1,3 1 0,6 1 2,8 7

Material de uso interno Mateu-Semitiel 37


Capı́tulo 2

MATRICES

2.1. Vectores de Rn
En el capı́tulo anterior se describió una solución de un sistema lineal con n incógnitas como una
n−upla ordenada de números reales. Estas n−uplas son llamadas vectores.

Definición (Vector de n componentes). Un vector de n componentes es una n−upla


ordenada de n números.

Pueden representarse de dos maneras: vector renglón o vector columna.

Definición (Vector renglón). Un vector renglón de n componentes es una n−upla ordenada


de n números escrito de la siguiente manera

(c1 , c2 , ..., cn ) .

Definición (Vector columna). Un vector columna de n componentes es una n−upla orde-


nada de n números escrito de la siguiente manera
 
c1
 c2 
 ..  .
 
 . 
cn

En este texto las componentes de un vector serán números reales. En ambas definiciones c1 es la primer
componente, c2 la segunda,..., ck la k−ésima componente. Cualquier vector cuyas componentes sean
todas cero, se denomina vector cero.
 
0
Ejemplo 2.1. (1, 0, 3, −7) es un vector renglón de 4 componentes,  1  es un vector columna de
−1
3 componentes y (0, 0, 0, 0, 0, 0) es el vector renglón cero de 6 componentes. J

A lo largo del texto los vectores se representarán con letras minúsculas negritas como u, v, a, b, c, x,
etcétera. Un vector cero se denota por 0.

Material de uso interno Mateu-Semitiel 38


CAPÍTULO 2. MATRICES

Los vectores de n componentes que tienen un 1 en la i−ésima componente y 0 en el resto de las


componentes los simbolizamos ei , es decir
 
0
 0 
 
 .. 
 . 
 
ei =   1  ← i-ésima componente.

 .. 
 . 
 
 0 
0
Por ejemplo, los vectores de 3 componentes e1 , e2 y e3 son, respectivamente:
     
1 0 0
 0 ,  1  y  0 .
0 0 1

Definición (El sı́mbolo Rn ). Al conjunto de todos los vectores de n componentes reales se


lo representa con Rn .

Los vectores de R2 y R3 pueden interpretarse geométricamente como puntos en el plano y como puntos
en el espacio, respectivamente.

Figura 2.1: Representación geométrica de un vector de dos componentes


 
u1
Cualquier vector de dos componentes u = ó u = (u1 , u2 ) puede representarse gráficamente
u2
con el punto P del plano cuyas coordenadas son (u1 , u2 ). También al vector u se lo considera como

Material de uso interno Mateu-Semitiel 39


CAPÍTULO 2. MATRICES

la flecha que comienza en el punto origen (0, 0) y cuya punta es el punto P , como se observa en la
Figura 2.1. El vector cero de R2 geométricamente es el punto origen de coordenadas (0, 0).
Similarmente se interpretan geométricamente a los vectores de R3 .

Definición (Igualdad de vectores). Dos vectores u y v con el mismo número de com-


ponentes son iguales, y se expresa u = v, si sus componentes respectivas son iguales. Los
vectores que tienen distinto número de componentes nunca son iguales.

Ejemplo 2.2. La igualdad    


1 a
 a + b   −1 
 c = 8
   

3 c+d
es válida si y sólo si a = 1, b = −2, c = 8 y d = −5. J

Suma de vectores y multiplicación por escalar

Definición (Suma de vectores de Rn ). La suma de dos vectores u y v de Rn es el vector


de Rn , expresado por u + v, que se obtiene de sumar las correspondientes componentes.
     
u1 v1 u1 + v1
 u2   v2   u2 + v2 
Ası́, si u =  yv= , entonces u + v =  . Análogamente:
     
.. .. ..
 .   .   . 
un vn un + vn
Si u = (u1 , u2 , ..., un ) y v = (v1 , v2 , ..., vn ), entonces u + v = (u1 + v1 , u2 + v2 , ..., un + vn ) .
     
      1 0 1
1 −4 −3
Por ejemplo, + = y  2 + −2 = 0 .
   
−1 2 1
3 4 7
La suma u + v de dos vectores de R2 o R3 se representa en forma geométrica como la flecha
diagonal del paralelogramo determinado por los vectores u y v como se observa en la Figura 2.2.

Definición (Producto de un vector por un escalar). El producto de un vector u de Rn


por un escalar (número real) k es el vector de Rn , expresado por ku, cuyas componentes se
obtienen multiplicando por k las correspondientes componentes de u.

El vector ku se dice


 que es un múltiplo escalar del vector u.
u1
 u2 
Asi, si u =  .  la multiplicación por el escalar k es el vector
 
.
 . 
un
 
ku1
 ku2 
ku =  .
 
..
 . 
kun

Material de uso interno Mateu-Semitiel 40


CAPÍTULO 2. MATRICES

Figura 2.2: Suma de vectores

Análogamente si u = (u1 , u2 , ..., un ) la multiplicación por el escalar k es el vector


ku = (ku1 , ku2 , ..., kun ) .
   
    0 0
2 −6
Por ejemplo, (−3) = y 2  3  =  6 .
−1 3
−1 −2
 
v1
 v2 
El vector (−1)v se llama opuesto de v y se representa −v. Entonces si v =  , el vector
 
..
 . 
vn
opuesto de v es    
(−1)v1 −v1
 (−1)v2   −v2 
−v = (−1)v =  = .
   
.. ..
 .   . 
(−1)vn −vn
   
2 −2
Por ejemplo, si u =  −3  entonces −u =  3  .
0 0
n
Dados
 u  deR , se define la diferencia u − v como la operación u + (−v). Entonces
y v vectores
u1 v1
 u2   v2 
si u =  .  y v =  .. , la diferencia u − v es
   
 ..   . 
un vn
       
u1 −v1 u1 + (−v1 ) u1 − v1
 u2   −v2   u2 + (−v2 )   u2 − v2 
u − v = u + (−v) =  + = = .
       
.. .. .. ..
 .   .   .   . 
un −vn un + (−vn ) un − vn
     
2 3 −1
Por ejemplo −1 − −5 =
     4 .
0 −2 2

Material de uso interno Mateu-Semitiel 41


CAPÍTULO 2. MATRICES

Geométricamente la multiplicación ku de un vector de R2 o R3 por el escalar k es la flecha escalada


por el factor k. Si k > 0 entonces la flecha ku apunta en el mismo sentido que la flecha u, en cambio
si k < 0 la flecha apunta en sentido opuesto a la flecha u. Si k = 0 el vector ku es el vector cero. Si
|k| > 1 entonces la flecha ku es una expansión de la flecha u. Si 0 < |k| < 1 entonces la flecha ku es
una contracción de la flecha u. Observe la Figura 2.3.

Figura 2.3: Multiplicación de un vector por un escalar

La suma de vectores y la multiplicación por un escalar, satisfacen algunas propiedades fundamentales


que se resumen en el siguiente teorema:

Teorema 2.1. Sean u, v y w cualesquiera vectores de Rn y sean a y b dos escalares cuales-


quiera. Entonces se satisfacen las siguientes propiedades:

1. u + v = v + u [Conmutativa]

2. (u + v) + w = u + (v + w) [Asociativa]

3. u + 0 = 0 + u = u [Elemento neutro o identidad]

4. u + (−u) = (−u) + u = 0 [Existencia de elementos opuestos]

5. a (u + v) = au + av [Distributiva]

6. (a + b) u = au + bu [Distributiva]

7. a (bu) = (ab) u = b (au)

8. 1u = u

Demostración. Sólo comprobaremos la propiedad 6. Se dejan las demás demostraciones como ejercicio.
Sean el vector u = (u1 , u2 , ..., un ) y los escalares a y b. Entonces:

(a + b) u = ((a + b) u1 , (a + b) u2 , ..., (a + b) un ) = (au1 + bu1 , au2 + bu2 , ..., aun + bun ) =


= (au1 , au2 , ..., aun ) + (bu1 , bu2 , ..., bun ) = au + bu.

Material de uso interno Mateu-Semitiel 42


CAPÍTULO 2. MATRICES

Actividad 2.1. Usando las propiedades dadas en el Teorema 2.1, demuestre que:

1. 0u = 0 para todo vector u de Rn .

2. − (au) = (−a) u para todo vector u de Rn y escalar a.

El teorema anterior pueda aplicarse para resolver ciertas ecuaciones que involucran vectores. Por
ejemplo, sean v y u dos vectores de Rn y se desea determinar el vector x que satisface la ecuación
2x − 4v = 3u. Entonces:

2x + 4v = 3u,
(2x + 4v) + (− (4v)) = 3u + (− (4v)) ,
2x + (4v + (− (4v)) = 3u + (− (4v)) ,
2x + 0 = 3u + (−4) v,
2x = 3u + (−4) v,
1 1
(2x) = (3u − 4v) ,
2  2
1 1
2 x = (3u − 4v) ,
2 2
1
1x = (3u − 4v) ,
2
1
x = (3u − 4v) .
2
Actividad 2.2. Indique qué propiedades se aplicaron sucesivamente en el ejemplo anterior.

Matrices como sucesión de vectores columna


Es algunas situaciones es de gran utilidad representar a una matriz como una sucesión de vectores.
Por ejemplo, la matriz A puede escribirse
 
−3 0 2 −5  
A =  0 −1 0 0  = a1 a2 a3 a4 ,
1 2 0 0
       
−3 0 2 −5
donde a1 =  0 , a2 =  −1 , a3 =  0  y a4 =  0 .
1 2 0 0
En general, cualquier matriz A de tamaño m × n:
 
a11 a12 . . . a1n
 a21 a22 . . . a2n 
A= . ,
 
.. .. ..
 .. . . . 
am1 am2 . . . amn

Material de uso interno Mateu-Semitiel 43


CAPÍTULO 2. MATRICES

puede expresarse como la sucesión de los n vectores columna de m componentes a1 , a2 ,...an :


 
A = a1 a2 ... an ,
 
a1j
 a2j 
donde aj =   para todo j = 1, 2, ..., n.
 
..
 . 
amj

En Álgebra y Geometrı́a Analı́tica se estudió que cualquier vector del plano puede escribirse como
combinación lineal de dos vectores no nulos ni paralelos. También, se probó que todo vector del espacio
se puede escribir como combinación lineal de tres vectores no nulos ni coplanares. Definiremos la noción
de combinación lineal para cualquier conjunto de vectores de Rn .

Definición (Combinación lineal). Una combinación lineal de los vectores u1 , u2 ,..., uk de


Rn es un vector de Rn de la forma

c1 u1 + c2 u2 + ... + ck uk ,

donde c1 , c2 ,..., ck son escalares cualesquiera que son llamados coeficientes de la combinación
lineal.

Ası́, un vector u de Rn es una combinación lineal de ciertos vectores u1 , u2 ,..., uk de Rn si y sólo si


existen escalares c1 , c2 ,..., ck tal que

u = c1 u1 + c2 u2 + ... + ck uk .

     
−2 1 0
Ejemplo 2.3. El vector u = es combinación lineal de los vectores e1 = y e2 = .
3 0 1
En efecto,      
−2 1 0
= −2 +3 .
3 0 1
   
2 −3
Trivialmente u no es combinación lineal de los vectores v1 = y v2 = dado que no
0 0
existen escalares c1 y c2 tales que
     
2 −3 −2
c1 + c2 = .J
0 0 3
   
1 1
Ejemplo 2.4. Para determinar si u =  2  es combinación lineal de los vectores v1 =  1 ,
0 −1
     
−2 1 −4
v2 =  1 , v3 =  −3  y v4 =  1  basta con estudiar la existencia de escalares c1 , c2 , c3 y
5 −5 4
c4 tales que satisfagan la siguiente ecuación en las incógnitas x1 , x2 , x3 y x4 :

Material de uso interno Mateu-Semitiel 44


CAPÍTULO 2. MATRICES

         
1 −2 1 −4 1
x1  1 + x2
  1 + x3 −3 + x4
    1 = 2 .
 
−1 5 −5 4 0
Operando en el primer miembro se obtiene la ecuación equivalente
   
x1 − 2x2 + x3 − 4x4 1
 x1 + x2 − 3x3 + x4  =  2  ,
−x1 + 5x2 − 5x3 + 4x4 0

y, por igualdad de vectores, la primera ecuación es equivalente al sistema lineal



 x1 −x2 +x3 −4x4 = 1
x1 +x2 −3x3 +x4 = 2
−x1 +5x2 −5x3 +4x4 = 0

con lo cual el problema se reduce a estudiar la consistencia de dicho sistema lineal. Aplicando elimi-
nación gaussiana a la matriz
 aumentada se obtiene una forma escalonada que no tiene renglones de la
forma 0 0 ... 0 : b con b 6= 0:
   
1 −2 1 −4 : 1 −−−−−−−−−−−−−→ 1 −2 1 −4 : 1
 1 1 −3 1 : 2  RR23 − R1 → R2 
+ R1 → R3
0 3 −4 5 : 1 →
−1 5 −5 4 : 0 0 3 −4 0 : 1
 
1 −2 1 −4 : 1
−−−−−−−−−−−−−→ 
R 3 − R2 → R3 0 3 −4 5 : 1 .
0 0 0 −5 : 0
El sistema lineal es consistente por lo que el vector u resulta ser combinación lineal de los vectores
v1 , v2 , v3 y v4 .
El sistema tiene infinitas soluciones y su solución general es
5 5

 x1 = 31 + 34 t

x2 = 3 + 3 t

, t ∈ R.
x =t
 3


x4 = 0

Hay una infinidad de maneras de expresar al vector u como combinación lineal de los vectores v1 ,
v2 , v3 y v4 .
Por ejemplo si t = 0 se obtiene c1 = 53 , c2 = 13 , c3 = 0 y c4 = 0:
         
1 −2 1 −4 1
5 1
1  +  1  + 0  −3  + 0  1  =  2  .
3 3
−1 5 −5 4 0
10
y si t = 1 se obtiene c1 = 3 , c2 = 53 , c3 = 1 y c4 = 0:
         
1 −2 1 −4 1
10  5
1 +
 1 + 1 −3 + 0
    1 = 2 .
 
3 3
−1 5 −5 4 0

Material de uso interno Mateu-Semitiel 45


CAPÍTULO 2. MATRICES

En general, las infinitas maneras de escribir al vector u como combinación lineal de los vectores
v1 , v2 , v3 y v4 está dada por
         
  1   −2 1 −4 1
5 5  1 4
+ t 1 + + t  1  + t  −3  + 0  1  =  2  , t ∈ R. J
3 3 3 3
−1 5 −5 4 0

Ejercicios

1. Indique para qué valores de x, y y z los vectores


   
−x − y + z 1
u =  2x + y  y v =  −2 
−y − 3z 3

son iguales.

2. Efectúe las siguientes operaciones, en el caso en que sea posible:


   
2 −3 d ) − 21 (−2, 3, 1, 5) + 2 (0, 0, 3, 4) − (−1, 2, 4, 0)
a)  −1  +  5     
3 0 2 0
b) (−1, 0, 3, 4) − (3, −4, 5, 0) e) −4  −1  + 5  −2 
  −3 4
1
 1  f ) (−1, 3, 4) + 2 (0, 3)
c) −3   −1 

0 g) −3 (0, 0, 1, −1, 5) + 0 (2, 3, 1, 8, −9)

3. Demuestre las restantes propiedades del Teorema 2.1.


     
1 2 −1
 −1   1   −1 
4. Sean a = 
 3 , b =  −1  y c =  0 . Obtenga, si es posible, el vector x tal que:
    

0 2 0
a) x = −2a + 12 b − c. c) 4x − 2b − c = 0
b) x + 2b − c = 2a d ) 2a − 3 (−b + c) + x = 2x − c

5. Determine si el vector b es combinación lineal de los restantes vectores. En caso afirmativo, halle
coeficientes de la combinación lineal.
       
2 1 0 5
a) b =  −1 ; a1 =  −2 , a2 =  1  y a3 =  −6 .
6 0 2 −8
       
4 1 2 3
b) b = 0 ; a1 = −1 , a2 = 1 y a3 = 2 .
      
5 0 3 5

Material de uso interno Mateu-Semitiel 46


CAPÍTULO 2. MATRICES

c) b = (4, 0, 4); a1 = (1, −1, 0), a2 = (2, 1, 3), a3 = (3, 2, 5) y a4 = (1, 1, 2).
       
−10 1 0 4
 −5   −1   0   1 
d) b =   17 ; a1 =  3 , a2 =  1  y a3 =  −2 .
      

−14 0 −1 −3
 
a
6. Calcule el o los valores de a de manera que el vector u =  2  sea una combinación lineal
−2a
   
0 1
de los vectores v =  2  y w =  0 .
1 a

7. Sean v1 , v2 ,...,vk vectores de R3 y suponga que para cada j = 1, 2, ..., k un objeto con masa mj
está posicionado en el extremo del vector vj . En Fı́sica llaman masas puntuales a esos objetos.
La masa total del sistema de masas puntuales es

m = m1 + m2 + ... + mk .

El centro de gravedad o (centro de masa) del sistema es


1
v= (m1 v1 + m2 v2 + ... + mk vk ) .
m
a) Calcule el centro de gravedad del sistema de cuatro masas puntuales cuyas posiciones y
masas son: v1 = (2, −2, 4) y m1 = 4g; v2 = (−4, 2, 3) y m2 = 2g; v3 = (4, 0, −2) y m3 = 3g;
v4 = (1, −6, 0) y m4 = 5g.
b) Una delgada placa triangular de densidad y grosor uniformes, tiene vértices en v1 = (0, 1),
v2 = (8, 1) y v3 = (2, 4). Si la masa total de la placa es de 6g, determine cómo distribuirla
en los tres vértices de manera que el punto de equilibrio sea v = (2, 2).

2.2. Operaciones matriciales


Recordemos que una matriz A de orden o tamaño m × n es un arreglo rectangular de mn números
dispuestos en m filas o renglones y n columnas.
 
a11 a12 . . . a1n
 a21 a22 . . . a2n 
A= . ..  = [aij ] .
 
.. ..
 .. . . . 
am1 am2 . . . amn

La matriz de m × n que tiene todos sus elementos ceros se denomina matriz cero y se simboliza
Om×n . Por ejemplo la matriz cero de 2 × 3 es
 
0 0 0
O2×3 = ,
0 0 0

Material de uso interno Mateu-Semitiel 47


CAPÍTULO 2. MATRICES

y la matriz cero cuadrada de orden 4 se denota O4 y es


 
0 0 0 0
 0 0 0 0 
O4 =  0 0
.
0 0 
0 0 0 0
Cuando se sobreentiende el tamaño de la matriz, las matrices cero pueden denotarse simplemente
por O.
La matriz cuadrada de orden n que tiene sólo unos en su diagonal principal y los restantes elementos
son ceros se llama matriz identidad y se simboliza In . Por ejemplo la matriz identidad de orden 3
es  
1 0 0
I3 =  0 1 0  .
0 0 1
Cuando se sobreentiende el tamaño de la matriz, una matriz identidad puede denotarse simplemente
por I.
Observe que la primera, segunda y tercera columnas de I3 son respectivamente los vectores
 e1 , e2
y e3 de R3 . En general In expresada en términos de sus columnas es In = e1 e2 ... en , donde


la j-ésima columna de In es el vector ej de Rn con j = 1, 2, ..., n.

Definición (Igualdad de matrices). Dos matrices A y B son iguales si tienen igual tamaño
y sus elementos correspondientes son iguales.

   
1 −2 1 −2
Ejemplo 2.5. A = yB= son iguales si y sólo si a = 1 y b = 5.J
1 0 a b−5

Suma de matrices y multiplicación de una matriz por un escalar

Definición (Suma de matrices). Sean A = [aij ] y B = [bij ] dos matrices de m × n. La suma


de A y B es la matriz de m × n, denotada por A + B, dada por

A + B = [aij + bij ] .

Es decir, A + B es la matriz de m × n que se obtiene de sumar los elementos correspondientes


de A y B.

     
−2 3 0 1 0 1 −1 3 1
Ejemplo 2.6. + = .J
1 4 −1 −3 1 1 −2 5 0

Definición (Producto de una matriz por un escalar). Sean A = [aij ] una matriz de m × n
y k un escalar. El producto de la matriz A por el escalar k es la matriz de m × n, denotada
por kA, dada por
kA = [kaij ] .
Es decir, kA es la matriz de m × n que se obtiene de multiplicar todos los elementos de A
por k.

Material de uso interno Mateu-Semitiel 48


CAPÍTULO 2. MATRICES

La matriz kA se dice que es un múltiplo escalar de la matriz A.


   
−1 3 −3 9
Ejemplo 2.7. 3  −2 5  =  −6 15 .J
0 1 0 3

La matriz (−1)A se llama opuesta de A y se representa por −A. Si A = [aij ] entonces

−A = (−1)A = [(−1)aij ] = [−aij ] .


   
−1 2 3 1 −2 −3
Por ejemplo, si A =  0 −4 1  entonces −A =  0 4 −1 .
2 −1 0 −2 1 0

Se define la diferencia A − B como la operación A + (−B). Si A = [aij ] y B = [bij ] son matrices


de m × n entonces
A − B = A + (−B) = [aij + (−bij )] = [aij − bij ] ,
es la matriz de m × n que se obtiene de restar a cada elemento de A el correspondiente elemento de
B. Por ejemplo:      
−1 2 3 0 1 1 −1 1 2
 0 −4 1  −  3 5 −1  =  −3 −9 2  .
2 −1 0 −4 0 2 6 −1 −2
A continuación se presentan propiedades de la suma de matrices y de la multiplicación de un
escalar por una matriz:

Teorema 2.2. Sean A, B y C matrices m × n y b y c escalares. Entonces se verifican las


siguientes propiedades:

1. A + B = B + A [Conmutativa]

2. A + (B + C) = (A + B) + C [Asociativa]

3. A + O = O + A = A [Elemento neutro o identidad]

4. A + (−A) = (−A) + A = O [Existencia de elementos opuestos]

5. c(A + B) = cA + cB [Distributiva]

6. (b + c)A = bA + cA [Distributiva]

7. b (cA) = (bc) A = c (bA)

8. 1A = A

Demostración. Se probarán aquı́ las propiedades 3) y 5). Se dejan las demás demostraciones como
ejercicio.
Sean las matrices A = [aij ] y B = [bij ] de m × n. Entonces:

Material de uso interno Mateu-Semitiel 49


CAPÍTULO 2. MATRICES

3. Por definición de suma de matrices y la conmutatividad de la suma en R:

A + B = [aij ] + [bij ] = [aij + bij ] = [bij + aij ] = [bij ] + [aij ] = B + A.

5. Por definición de suma de matrices, de producto de una matriz por un escalar y por la propiedad
distributiva del producto respecto a la suma en R:

c (A + B) = c [aij + bij ] = [c (aij + bij )] = [caij + cbij ] = [caij ]+[cbij ] = c [aij ]+c [bij ] = cA+cB.

Actividad 2.3. Sean A una matriz de m × n y k un escalar. Demuestre:

1. kA = O ⇔ k = 0 ó A = O.

2. − (kA) = (−k) A.

El teorema pueda aplicarse para resolver ciertas ecuaciones que involucran matrices. Por ejemplo, sean
A y B dos matrices de m × n y se desea determinar la matriz que satisface la ecuación 2X + 4B = 3A.

2X + 4B = 3A,
(2X + 4B) + (− (4B)) = 3A + (− (4B)) ,
2X + (4B + (− (4B)) = 3A − 4B,
2X + O = 3A − 4B,
2X = 3A − 4B,
1 1
(2X) = (3A − 4B) ,
2 2

 
1 1
2 X = (3A − 4B) ,
2 2
1
1X = (3A − 4B) ,
2
1
X = (3A − 4B) .
2
Actividad 2.4. Indique qué propiedades se aplicaron sucesivamente en el ejemplo anterior.

Producto punto y multiplicación de matrices

Definición (Producto punto). El producto punto o producto escalar de dos vectores de n


componentes u y v es el número real, denotado por u·v, que se obtiene sumando los productos
de las componentes correspondientes de dichos vectores.

Material de uso interno Mateu-Semitiel 50


CAPÍTULO 2. MATRICES

   
u1 v1
 u2   v2 
Ası́, si u =  yv=  o bien si u = (u1 , u2 , ..., un ) y v = (v1 , v2 , ..., vn ), entonces
   
.. ..
 .   . 
un vn
n
X
u · v = u1 v1 + u2 v2 + ... + un vn = ui vi .
i=1

Similarmente si uno de ellos es un vector columna y el otro un vector renglón:


n
X
u·v= ui vi .
i=1
   
1 2
 −2   3 
Ejemplo 2.8. Si u = 
 3  y v =  −1
  , el producto punto de u y v es:

5 0
u · v = 1(2) + (−2)(3) + 3(−1) + 5(0) = −7. J

Nota: El producto punto es una operación importante que se retomará en secciones posteriores y ha
sido introducido en este momento para definir la siguiente operación entre matrices:

Definición (Producto de matrices). Si A = [aik ] es una matriz de m × p y B = [bkj ] es una


matriz de p × n, el producto AB es la matriz AB = [cij ] de m × n donde
p
X
cij = ai1 b1j + ai2 b2j + ... + aip bpj = aik bkj . (2.1)
k=1

La ecuación (2.1) establece que el (i, j)-ésimo elemento de la matriz producto AB, es el producto punto
del vector cuyas componentes son las del renglón i−ésimo de A por el vector cuyas componentes son
las de la columna j−ésima de B.
  colj (B) ↓
a11 a12 ... a1p  
 .. .. ..  b11 b12 ... b1j ... b1n
 . . ... .  b21 b22 ... b2j ... b2n 
 
reni (A) →  ai1 ai2 ... aip 
 . . . . . =
 . .. ... .. .. .. 
..   .

 .. .. 
 . . ... .  b
p1 bp2 ... bpj ... bpn
am1 am2 ... amp
 
c11 c12 ... c1j ... c1n
 .. .. .. .. .. 
 . . ... . . . 
 
=  ci1 ci2 ... cij ... cin  .

 . . . . .
 .. .. .. .. .. 

...
cm1 cm2 ... cmj ... cmn
p
X
es decir el elemento cij = reni (A) · colj (B) = ai1 b1j + ai2 b2j + ... + aip bpj = aik bkj .
k=1

Material de uso interno Mateu-Semitiel 51


CAPÍTULO 2. MATRICES

Observe que el producto AB está definido sólo si el número de columnas de la matriz A es igual
al número de renglones de la matriz B:

Am× p B p ×n
= ABm×n

 
  −2 5
1 2 −1
Ejemplo 2.9. Dadas A = y B =  3 −4 . Como A es una matriz de 2 × 3 y B es
3 1 5
1 2
de 3 × 2 es posible efectuar AB y resultará una matriz de 2 × 2:
 
  −2 5
1 2 −1 
AB = 3 −4  =
3 1 5
1 2
 
1(−2) + 2(3) + (−1)(1) 1(5) + 2(−4) + (−1)(2)
= =
3(−3) + 1(3) + 5(1) 3(5) + 1(−4) + 5(2)
 
3 −5
= .J
−1 21
   
1 −2 3 2 3
Ejemplo 2.10. Sean las matrices A =  3 0 2  y B =  −1 0 .
2 −1 3 3 2
Para calcular el elemento (3, 2) de la matriz AB se debe efectuar el producto punto del vector
renglón 3 de la matriz A por el el vector columna 2 de la matriz B. Luego el elemento (3, 2) de AB es
2(3) + (−1)(0) + 3(2) = 12.J

Una disposición práctica para efectuar el producto AB se visualiza en este ejemplo:


 
  −2 5
1 2 −1
Ejemplo 2.11. Sean las matrices A = y B =  3 −4 .
3 1 5
1 2
En el lado inferior izquierdo se ubican los elementos de la matriz A y en el lado superior derecho
los elementos de la matriz B. Haciendo el producto punto de cada vector renglón de A por la columna
j−ésima de B se obtiene la columna j−ésima de AB. La matriz AB es la obtenida en el lado inferior
derecho.
−2 5
AB 3 −4
1 2

1 2 −1 3 −5
3 1 5 −1 21

 
3 −5
Luego, AB = .J
−1 21

Material de uso interno Mateu-Semitiel 52


CAPÍTULO 2. MATRICES

Nota: La suma de matrices se define de manera natural, sumando elemento a elemento. Esto hace
que la suma de matrices verifique las mismas propiedades que la suma de números reales.
La multiplicación de matrices requiere más cuidado que la suma, no está definido de la manera
natural que se hubiese esperado. Esto hace que ciertas propiedades del producto de números reales no
se verifiquen en el producto matricial.
Por definición, el producto AB se puede realizar sólo si el número de columnas de A es igual al
número de renglones de B. Si A es una matriz de m × p y B es una matriz de p × n, AB es una matriz
de m × n. Con respecto a BA pueden darse distintas situaciones:

Puede ocurrir que BA no esté definido, esto ocurre si y sólo si n 6= m. Por ejemplo, si A es de
2 × 3 y B es de 3 × 4, el producto AB es una matriz de 2 × 4 mientras que el producto BA no
está definido.

Si m = n entonces el producto BA está definido y es una matriz cuadrada de orden p mientras


que AB es cuadrada de orden n. Se dan dos casos:

• Si p 6= n entonces AB y BA son de distinto tamaño y por lo tanto son matrices distintas.


Por ejemplo, si A es de 2 × 3 y B es de 3 × 2 entonces AB es una matriz cuadrada de orden
2 y BA es una matriz cuadrada de orden 3. Trivialmente AB 6= BA.
• Si p = n entonces A y B son ambas matrices cuadradas de orden n y por lo tanto AB y
BA son también cuadradas de orden n. Sin embargo, en general, no resultan iguales.
   
1 0 0 2
Por ejemplo si A = yB= entonces
1 1 3 1
   
0 2 2 1
AB = y BA = ,
3 3 4 1

por lo que se puede concluir que el producto de matrices no es conmutativo.

Otras peculiaridades del producto de matrices son las siguientes: supongamos que A, B y C son
matrices de tamaños tales que los productos matriciales dados están definidos:

Claramente si A = O ó B = O entonces AB = O. Sin embargo:


  AB = O no implica A = O
1 2 −2 −4 2
ó B = O. Por ejemplo, para las matrices no cero A = y B = es
2 4 1 2 −1
 
0 0 0
AB = .
0 0 0
   
1 2 1 0 2
CA = CB no implica A = B. Por ejemplo, para las matrices C = ,A=
2 4 1 1 −3
   
3 2 −4 3 2 −4
yB= , resulta CA = CB = siendo las matrices A y B distintas.
0 0 0 6 4 −8
AC = BC no implica A = B.

Actividad 2.5. Proponga un ejemplo de tres matrices A, B y C tales que AC = BC pero A 6= B.

Material de uso interno Mateu-Semitiel 53


CAPÍTULO 2. MATRICES

La multiplicación de una matriz por vector


   
a11 a12 ... a1n c1
 a21 a22 ... a2n   c2 
Sea A =   una matriz de m × n y sea c =   un vector columna de n
   
.. .. .. ..
 . ... . .   . 
am1 am2 ... amn cn
componentes.
Como A es una matriz de m × n y c es una matriz de n × 1, por definición de multiplicación de
matrices, el producto Ac es la siguiente matriz de m × 1:

      
a11 a12 ... a1n c1 ren1 (A) · c a11 c1 + a12 c2 + ... + a1n cn
 a21 a22 ... a2n  c2   ren2 (A) · c   a21 c1 + a22 c2 + ... + a2n cn 
Ac =  = = .
      
.. .. ..  .. .. ..
 . .
... .  .   .   . 
am1 am2 ... amn cn renm (A) · c am1 c1 + am2 c2 + ... + amn cn

La última expresión encontrada de Ac puede escribirse como


     
a11 a12 a1n
 a21   a22   a2n 
c1  .  + c2  .  + ... + cn  . .
     
.
 .  .
 .   .. 
am1 am2 amn

Es decir
 
a1j
 a2j 
Ac = c1 a1 + c2 a2 + ... + cn an , donde aj =   es la j-ésima columna de la matriz A.
 
..
 . 
amj

Entonces el producto de una matriz A de m × n por un vector columna de n componentes (matriz


de n × 1), c, puede escribirse como una combinación lineal de las columnas de A, cuyos coeficientes
son las componentes (elementos) de c.

 
−1 3  
3
Ejemplo 2.12. Si A = −2 5 y c =
  , el producto Ac dado como una combinación lineal
−1
0 1
de las columnas de A es
         
−1 3 −3 −3 −6
Ac = 3  −2  + (−1)  5  =  −6  +  −5  =  −11  . J
0 1 0 −1 −1

Ejemplo 2.13. Sea A una matriz de m × n y el vector columna ek de Rn entonces

Aek = ak ,

donde ak es la k-ésima columna de A. J

Material de uso interno Mateu-Semitiel 54


CAPÍTULO 2. MATRICES

Actividad 2.6. Pruebe el resultado del Ejemplo 2.13.

Ejemplo 2.14. Si I la matriz identidad de orden n y c es un vector columna de n componentes,


entonces
Ic = c. J

Actividad 2.7. Pruebe el resultado del Ejemplo 2.14.

El producto AB como sucesión de productos de una matriz por un vector


Si A es una matriz de m × p y B es una matriz de p × n cuyas columnas son b1 , b2 ,..., bn , por
definición, el producto de A por B es
 
ren1 (A) · b1 ren1 (A) · b2 ... ren1 (A) · bn
 ren2 (A) · b1 ren2 (A) · b2 ... ren2 (A) · bn

 
AB =  .. .. ..
.
 
 . . ... . 
 renm (A) · b1 renm (A) · b2 ... renm (A) · bn 

Se observa que la primer columna de la matriz AB es el producto Ab1 , la segunda columna es


Ab2 , etc. Por lo tanto la matriz AB puede describirse en término de sus columnas como
 
AB = Ab1 Ab2 ... Abn .

Forma matricial de un sistema lineal


El sistema lineal de m ecuaciones con n incógnitas


 a11 x1 + a12 x2 + ... + a1n xn = b1
 a21 x1 + a22 x2 + ... + a2n xn = b2

..


 .
am1 x1 + am2 x2 + ... + amn xn = bm

puede escribirse en forma matricial como

Ax = b,
   
a11 a12 ... a1n x1
 a21 a22 ... a2n   x2 
donde A =   , es la matriz de coeficientes del sistema, x =   es el vector
   
.. .. .. .. ..
 . . . .   . 
am1 am2 . . . amn xn
 
b1
 b2 
de incógnitas y b =  .  el vector de términos constantes.
 
 .. 
bm

Material de uso interno Mateu-Semitiel 55


CAPÍTULO 2. MATRICES

En efecto: el producto Ax es el vector columna de m componentes:


    
a11 a12 . . . a1n x1 a11 x1 + a12 x2 + ... + a1n xn
 a21 a22 . . . a2n   x2   a21 x1 + a22 x2 + ... + a2n xn 
Ax =  . ..   ..  =  .
    
.. .. ..
 .. . . .   .   . 
am1 am2 . . . amn xn am1 x1 + am2 x2 + ... + amn xn
Luego, por definición de igualdad de vectores:


 a11 x1 + a12 x2 + ... + a1n xn = b1
 a21 x1 + a22 x2 + ... + a2n xn = b2

Ax = b ⇔ ..


 .
am1 x1 + am2 x2 + ...amn xn = bm

Esto muestra que resolver la ecuación matricial Ax = b equivale a resolver el sistema de matriz
aumentada [A : b].
 
c1
 c2 
Una solución de la ecuación Ax = b es un vector c =  .  si y sólo si la n−upla (c1 , c2 , ..., cn )
 
 .. 
cn
es una solución del sistema lineal de matriz aumentada [A : b].


2x +y −3z = 5
Ejemplo 2.15. El sistema lineal puede escribirse en forma matricial como
4x −5z = 8
 
  x  
2 1 −3   5
y = .J
4 0 −5 8
| {z } z | {z }
A | {z } b
x

Sistemas lineales y combinaciones lineales


De lo anterior, un sistema lineal de m ecuaciones con n incógnitas de matriz aumentada [A : b] puede
escribirse en forma matricial como Ax = b donde A, x y b son la matriz de coeficientes, el vector
incógnita y el vector de términos constantes del sistema, respectivamente.
Por otra parte, el producto Ax puede escribirse como la siguiente combinación lineal de las colum-
nas de A:
Ax = x1 a1 + x2 a2 + ... + xn an ,
donde a1 , a2 ,..., an son las sucesivas columnas de A.
Luego,

Ax = b ⇔ x1 a1 + x2 a2 + ... + xn an = b.
Ası́, un sistema lineal de matriz aumentada [A : b] también puede escribirse como la ecuación

x1 a1 + x2 a2 + ... + xn an = b.

Material de uso interno Mateu-Semitiel 56


CAPÍTULO 2. MATRICES

De este modo tenemos las expresiones equivalentes:

Sistema lineal de matriz aumentada [A : b] ⇔ Ax = b ⇔ x1 a1 + x2 a2 + ... + xn an = b

Ejemplo 2.16. El sistema lineal del Ejemplo 2.15 se puede expresar como la ecuación:
       
2 1 −3 5
x +y +z = .J
4 0 −5 8

Como consecuencia de las equivalencias anteriores resulta el siguiente teorema:

Teorema 2.3. Sean A una matriz de m × n y b un vector columna de n componentes.


Entonces las siguientes afirmaciones son equivalentes:

1. El sistema lineal de matriz aumentada [A : b] es consistente.

2. Hay un vector c de n componentes tal que Ac = b.

3. Existen escalares c1 , c2 ,..., cn tales que b = c1 a1 + c2 a2 + ... + cn an , donde aj es la


j-ésima columna de A, j = 1, 2, ..., n.

4. b es una combinación lineal de las columnas de A.

Ejemplo 2.17. De acuerdo al teorema anterior, para determinar si el vector


 
5
b=
8
     
2 1 −3
es una combinación lineal de los vectores v1 = , v2 = y v3 = , se requiere estudiar
4 0 −5
la consistencia del sistema lineal de matriz aumentada
 
v1 v2 v 3 : b .
Aplicando eliminación gaussiana
  " #
2 1 −3 : 5 2 1 −3 : 5
∼ .
4 0 −5 : 8 0 −2 1 : −2
Como se observa, el sistema lineal es consistente (con infinitas soluciones) por lo tanto b es una
combinación lineal de las columnas de A.
Dado que el sistema tiene infinitas soluciones hay infinitas maneras de escribir al vector b como
combinación lineal de los vectores v1 , v2 y v3 .
La solución general del sistema lineal viene dada por 2 + 54 t, 1 + 12 t, t entonces

         
5 5 2 1 1 −3
= 2+ t + 1+ t +t , t ∈ R.
8 4 4 2 0 −5

Por ejemplo, si t = 1:
       
5 13 2 3 1 −3
= + +1 .J
8 4 4 2 0 −5

Material de uso interno Mateu-Semitiel 57


CAPÍTULO 2. MATRICES

Propiedades de la multiplicación de matrices


La multiplicación de matrices satisfacen algunas propiedades fundamentales que se resumen en el
siguiente teorema:

Teorema 2.4. En cada ı́tem sea A una matriz de m × n y B, C y la matriz cero, O, de


tamaños tales que estén bien definidas las operaciones que se indican. Entonces se verifican
las siguientes propiedades:

1. A (BC) = (AB) C [Asociativa]

2. A (B + C) = AB + AC [Distributiva a izquierda]

3. (B + C) A = BA + CA [Distributiva a derecha]

4. a (BC) = (aB) C = B (aC), para todo a ∈ R

5. Im A = AIn = A

6. OA = O y AO = O

Demostración. Se probará aquı́ sólo la propiedad (5).


Considere la matriz A y la matriz identidad In expresadas en término de sus columnas:
   
A = a1 a2 ... an y In = e1 e2 ... en .

Escribiendo los productos AIn y Im A en términos de sus columnas y teniendo en cuenta los
Ejemplos 2.13 y 2.14, se obtienen
   
AIn = Ae1 Ae2 ... Aen = a1 a2 ... an = A,

y    
Im A = Im a1 Im a2 ... Im an = a1 a2 ... an = A.

Nota: La propiedad asociativa permite eliminar paréntesis para la multiplicación de tres o más ma-
trices. Por ejemplo:
(AB) (CD) = A ((BC) D) = A (B (CD)) = ABCD.

Actividad 2.8. Verifique la propiedad (1) del teorema anterior para las matrices:
 
    0 −3 0 1
5 −3 1 0 −2
A= , B= y C= 1 2 5 −1  .
1 2 1 2 −3
2 0 −1 3

Observación 2.1. El producto de una matriz de m × n por un vector columna de n componentes es


un caso particular de la multiplicación de matrices. Por lo tanto:
Si A es una matriz de m × n, x y y vectores columna de n componentes y k un escalar, entonces

A (x + y) = Ax + Ay,

Material de uso interno Mateu-Semitiel 58


CAPÍTULO 2. MATRICES

A (kx) = k (Ax) .
En general si A es una matriz de m × n y x1 , x2 ,..., xk son k vectores columna de n componentes
entonces
A (c1 x1 + c2 x2 + ... + ck xk ) = c1 (Ax1 ) + c2 (Ax2 ) + ... + ck (Axk ) ,
para cualesquiera escalares c1 , c2 ,..., ck .

Definición (Matriz traspuesta). Sea A una matriz de m × n. La matriz traspuesta de A,


que se denota At , es la matriz de n × m cuyas columnas son los renglones de A en el mismo
orden.
   
  1 3 1 1
5 −3 2
Ejemplo 2.18. Dadas las matrices A = , B =  1 0 0  y C =  2 , entonces
8 0 −1
−1 2 1 0
   
5 8 1 1 −2
t t
2  y Ct = 1 2 0 . J
 
A = −3
 0 , B = 3
  0
2 −1 1 0 1

Para la trasposición de matrices se tienen las siguientes propiedades que se enuncian sin demostración:

Teorema 2.5. En cada ı́tem, sea A una matriz de m × n, B una matriz de tamaño tal que
estén bien definidas las operaciones que se indican y c un escalar. Entonces se satisfacen las
siguientes propiedades:
t
1. At =A 3. (cA)t = cAt

2. (A + B)t = At + B t 4. (AB)t = B t At

Observación 2.2. La propiedad (4) del teorema anterior se puede extender a un número finito de ma-
trices. Si A1 , A2 ,..., Ak son matrices de tamaños tales que esté bien definido el producto A1 A2 ...Ak−1 Ak
entonces
(A1 A2 ...Ak−1 Ak )t = Atk Atk−1 ...At2 At1 .

Actividad 2.9. Verifique la propiedad (4) del teorema anterior para las matrices
 
  0 −3 0 1
1 0 −2
A= y B= 1 2 5 −1  .
1 2 −3
2 0 −1 3

Definición (Matriz simétrica). Una matriz A es simétrica si At = A.

De la definición anterior se deduce que necesariamente una matriz simétrica es cuadrada ya que si A
es de m × n entonces At es de n × m y por lo tanto si At = A debe ser n = m.

Material de uso interno Mateu-Semitiel 59


CAPÍTULO 2. MATRICES

 
9 0 −1  
5 8
Ejemplo 2.19. La matriz  0 2 5 es simétrica mientras que
 no lo es.J
−3 5
−1 5 3

Actividad 2.10. Pruebe que para toda matriz A las matrices AAt y At A están bien definidas y son
matrices simétricas.

Definición (Potenciación de matrices). Sea A una matriz cuadrada de orden n y k ∈ N. La


potencia k−ésima de A, que se denota por Ak , es la matriz cuadrada de orden n dada por
k-veces
z }| {
k
A = AAA...A .

Por conveniencia si A 6= O se define A0 = I.

 
−1 2 0
Ejemplo 2.20. Sea la matriz A =  3 0 −1 . Para efectuar el cálculo de A3 primero se puede
0 −1 4
obtener A2
    
−1 2 0 −1 2 0 7 −2 −2
A2 = AA =  3 0 −1   3 0 −1  =  −3 7 −4  ,
0 −1 4 0 −1 4 −3 −4 17

para luego efectuar el producto A2 A:


    
7 −2 −2 −1 2 0 −13 16 −6
A3 = AAA = (AA) A = A2 A =  −3 7 −4   3 0 −1  =  24 −2 −23  . J
−3 −4 17 0 −1 4 −9 −23 72

Para la potenciación de matrices se tienen las siguientes propiedades:

Teorema 2.6. Si A es una matriz cuadrada y p y q son cualesquiera enteros no negativos


entonces

1. Ap Aq = Ap+q .

2. (Ap )q = Apq .

3. (cA)p = cp Ap , para todo escalar c.

Actividad 2.11. Demuestre el resultado del teorema anterior para p = 2 y q = 3. ¿Y si uno de ellos
p o q es cero?.

Material de uso interno Mateu-Semitiel 60


CAPÍTULO 2. MATRICES

Ejercicios

1. Obtenga los valores x, y y z tal que las matrices A y B son iguales:


   
1 0 1 x 0 y−z
A= , B= .
0 −2 −5 x + y + 2z −2 −5

2. Calcule, si es posible, las siguientes operaciones. Si no es posible efectuar el cálculo, explique por
qué.
     
1 2 −4 3 1 2  
a) + 1 2 9
−3 −2 1 0 c)  3 0  +
3 2 0
1 4
   
  1 2 0 3 −2 −1
1 2 9 d ) 2  −3 −2 1  − 4  1 0 1 
b) −3
3 2 −5 1 −1 4 0 −1 2

3. Demuestre las restantes propiedades del Teorema 2.2.

4. Dadas las matrices


     
3 2 0 1 −1 1 0 −2 −1
A= , B= y C= ,
0 3 1 2 3 4 2 0 1

determine la matriz X que satisfaga las siguientes ecuaciones:

a) 2X − A + B + 3C = O c) 2 (A − 2B) + 2X = 0C
1
b) −X + 2A − 3C = 4X + B d ) X − 12 B = C + 4X
   
3 −1
5. Considere los vectores u = (−1, 2, −2, 1), v = (4, −2, 5, 3), a =  1  y b =  0 . Calcule
2 5
los siguientes productos punto:

a) u · v c) a · b
b) u · (2u − v) d ) −b · 2a
  
a −2
 0 
 y v =  1 . Halle el valor de a de manera que u · v = 3.
 
6. Sean u = 
 −2   3 
3 −1
7. Calcule, si están definidos, los siguientes productos de matrices:
   
−2    −2
 b) 1 2
a)  1  4 0 2 1
3

Material de uso interno Mateu-Semitiel 61


CAPÍTULO 2. MATRICES

     
1 −2 4 0 2 0 4 1 2
c) e)
−3 0 1 −1 5 −3 3 −1 1
  
   1 2 −1 0 1 2
4 0 2 1 −2 f)  1 2 0   2 −2 0 
d)
1 −1 5 −3 0 −1 0 −2 1 4 0
  
2 −1 1 3
8. Obtenga el elemento (2, 2) de .
2 0 4 −5
9. Encuentre la 3er columna de AB siendo
 
  0 1 −1
1 2 −1 0  −1 1 0 
A= 1 2 0 2  y B= .
 2 0 −2 
−1 0 −2 −5
4 −2 3

10. Efectúe el producto Ac siendo


   
0 1 −1 2
a) A =  −1 1 0  y c =  2 .
2 0 −2 −3
 
−1 1 1 2  
 1 −1 −2
 1 3   3 
b) A =   3 1 −2 0   y c =  −1
 .

 1 −1 0 2 
1
0 0 −3 4
11. Escriba los siguientes sistemas en la forma Ax = b:
 
 2x −4y = 1  x1 −4x2 −x3 = 0
a) x +y = 0 b) 2x1 +x2 3x3 = 1
−x −3y = 4 −x1 +x2 +2x3 = 2
 

       
−2 0 2 4
12. Sean los vectores a1 =  3 , a2 =  1 , a3 =  1  y b =  1 . Exprese la ecuación
−1 1 −1 2

xa1 + ya2 + za3 = b,

como un sistema de ecuaciones lineales y resuélvalo.

13. Determine si el vector b es combinación lineal de las columnas de la matriz A siendo:


   
1 2 3 4 0
a) A = 1 −1 0
 0  y b =  −1 .
2 1 3 4 −1
   
1 3 2
b) A = yb= .
−2 −1 1
   
1 −1 1 3
c) A = 1
 0 5  y b =  3 .
3 −2 7 0

Material de uso interno Mateu-Semitiel 62


CAPÍTULO 2. MATRICES

14. Demuestre que si x1 y x2 son soluciones del sistema Ax = b, entonces x1 − x2 es una solución
del sistema homogéneo asociado Ax = 0.
t
15. Obtenga la matriz X que satisfaga la ecuación (2X)t − 2AB t = BAt siendo
   
1 1 1 0 −1 1
A= 1 0 3  y B= 0 0 1 .
2 −1 2 −1 1 2

16. Indique cuáles de las siguientes matrices son simétricas, justifique:


 
  1 −1 1 4  
1 −1 1  −1 2 0 0
0 5 0 
A =  −1 0 5 , B =   , O4 , y C= 0 3 0 
 2 3 7 −2 
1 5 7 0 0 7
4 0 0 0

17. Una matriz A es antisimétrica si At = −A. Demuestre que si A es una matriz tanto simétrica
como antisimétrica, entonces A = O.
   
1 1 0 0 −1 1
18. Dadas las matrices A =  2 1 0 yB= 2 3 0 . Halle las matrices:
0 1 −1 1 0 1

a) (2A)3 c) (−AB)3
b) (A + B)2 − I 4 d ) (0A)3 + O15 + 2I

19. Halle, si existe, una matriz A cuadrada de orden 2 tal que:

a) A2 = O con A 6= O.
b) A2 = I con A 6= I.
   
1 2 2 −1
20. Dadas las matrices A = yB = . ¿Es cierto que (A + B)2 = A2 +2AB+B 2 ?.
3 4 −3 −2
Justifique su respuesta.

21. Sean A y B matrices cuadradas de orden n. Determine si las siguientes proposiciones son ver-
daderas o falsas. Justifique.

a) A2 − B 2 = (A − B) (A + B).
b) (AB)2 = A2 B 2 .
c) (A + B)2 = A2 + 2AB + B 2 ⇔ AB = BA
d ) Si A y B conmutan, es decir AB = BA, entonces (AB)2 = A2 B 2 .
e) Si A es simétrica entonces la matriz 2A2 BB t es simétrica.

Material de uso interno Mateu-Semitiel 63


CAPÍTULO 2. MATRICES

2.3. Matriz inversa

Definición (Matriz invertible). Una matriz cuadrada A de n×n es es invertible, o no singular,


si existe una matriz B de n × n, llamada inversa de A, tal que

AB = I y BA = I.

Si no existe tal matriz B, la matriz A es una matriz singular o no invertible.

   
1 2 3 −1
Ejemplo 2.21. Sean A = yB= 1 . Puede verificarse que AB = BA = I, por lo
2 6 −1 2
tanto A es invertible y B es una inversa de A.J

¿Existirá otra matriz C, distinta de B, tal que AC = CA = I?. El teorema que sigue muestra que
esto no puede suceder.

Teorema 2.7. Una matriz invertible tiene una única inversa.

Demostración. Sean A una matriz invertible y B y C dos matrices inversas de A, es decir

AB = BA = I y AC = CA = I.

Entonces:
B = BI = B (AC) = (BA) C = IC = C.
Como resulta B = C queda probado que una matriz invertible no puede admitir más que una
matriz inversa.

Nota: A la matriz inversa de una matriz A invertible se la denota A−1 . Ası́ para una matriz A
invertible:
AA−1 = A−1 A = I.

Observación 2.3. Por la unicidad de la matriz inversa, si A y B son dos matrices de n × n tales que
AB = BA = I se puede concluir que A es invertible y que B es su inversa, es decir A−1 = B.

Ejemplo 2.22. Retomando el Ejemplo 2.21 puede concluirse que B es la matriz inversa de A, esto
es: A−1 = B.J

Ejemplo 2.23. Como II = I (= II), la matriz identidad I es invertible y I −1 = I.J

Los siguienes son dos ejemplos de matrices no invertibles (singulares):

Ejemplo 2.24. La matriz cero, O, es singular. ¿Por qué?.J

Material de uso interno Mateu-Semitiel 64


CAPÍTULO 2. MATRICES

 
1 2
Ejemplo 2.25. La matriz A = es singular.
3 6
En efecto, si A fuera invertible, deberı́a existir una matriz B tal que AB
 = I (y BA = I). Por lo
x11 x12
tanto la ecuación AX = I deberı́a tener solución. Siendo X = :
x21 x22
    
1 2 x11 x12 x11 + 2x21 x12 + 2x22
AX = = ,
3 6 x21 x22 3x11 + 6x21 3x12 + 6x22
luego    
x11 + 2x21 x12 + 2x22 1 0
AX = I ⇔ = .
3x11 + 6x21 3x12 + 6x22 0 1
Por igualdad de matrices, se obtienen los siguientes sistemas lineales
 
x11 +2x21 = 1 x12 +2x22 = 0
y .
3x11 +6x21 = 0 3x12 +6x22 = 1

Es fácilmente comprobable que estos sistemas son inconsistentes por lo cual AX = I no tiene
solución. Luego A es no invertible.J

Algunas propiedades de la matriz inversa son las siguientes:

Teorema 2.8. Sean A y B matrices invertibles de n × n y c un escalar distinto de cero.


Entonces A−1 , cA, AB y At son matrices invertibles. Además:
−1
1. A−1 = A. 3. (AB)−1 = B −1 A−1 .
−1 t
2. (cA)−1 = 1c A−1 . 4. At = A−1 .

Demostración. Probaremos aquı́ las propiedades (3) y (4). Las matrices A y B son invertibles, entonces
AA−1 = A−1 A = I y BB −1 = B −1 B = I.

3. Las matrices AB y B −1 A−1 son ambas cuadradas de orden n. Dado que:

(AB) B −1 A−1 = A B B −1 A−1 = A BB −1 A−1 = A IA−1 = AA−1 = I,


    

y
B −1 A−1 (AB) = B −1 A−1 (AB) = B −1 A−1 A B = B −1 (IB) = B −1 B = I.
   

se deduce, de la Observación 2.3, que AB es invertible y su inversa es B −1 A−1 es decir

(AB)−1 = B −1 A−1 .
t
4. Las matrices At y A−1 son ambas cuadradas de orden n,
t t t t
At A−1 = A−1 A = It = I y A−1 At = AA−1 = I t = I.

t −1 t
De la Observación 2.3, At es invertible y su inversa es A−1 es decir At = A−1 .

Material de uso interno Mateu-Semitiel 65


CAPÍTULO 2. MATRICES

Actividad 2.12. Pruebe las propiedades (1) y (2) del Teorema 2.8.

Observación 2.4. La suma de matrices invertibles no es, en general, una matriz invertible, y en caso
afirmativo (A + B)−1 6= A−1 + B −1 (Véase Ejercicio 9.a).

Observación 2.5. La propiedad 3 del teorema anterior puede generalizarse para k matrices in-
vertibles. Si A1 , A2 ,..., Ak son matrices invertibles de igual tamaño, también lo es el producto
A1 A2 ...Ak−1 Ak . Su inversa es
(A1 A2 ...Ak−1 Ak )−1 = A−1 −1 −1 −1
k Ak−1 ...A2 A1 .

−1 3
Actividad 2.13. Pruebe que si A es invertible, A3 es invertible y A3 = A−1 .

El resultado de la actividad anterior puede generalizarse: Si k ∈ N y A es una matriz invertible entonces


Ak es invertible y
 −1 k
Ak = A−1 .
Es más, este resultado permite definir un nuevo concepto: potenciación de matrices de exponente
negativo:

Definición (Potencia de matrices de exponente negativo). Sea A una matriz invertible y


k
k ∈ N. La potencia −k de A, que se denota A−k , se define por A−k = A−1 .

Se puede generalizar el Teorema 2.2 para la potenciación de matrices con cualquier exponente entero
y se tiene el siguiente resultado:

Teorema 2.9. Si A es una matriz invertible, p y q enteros cualesquiera y c un escalar,


entonces
p
1. (Ap )−1 = A−1 . 3. (Ap )q = Apq .

2. Ap Aq = Ap+q . 4. (cA)p = cp Ap (si p ≤ 0 debe ser c 6= 0).

Actividad 2.14. Verifique las propiedades anteriores para p = −2, q = 3 y un apropiado c.

Recuerde que, en general, si AC = BC no es válida la cancelación de la matriz C en ambos miembros.


Sin embargo, esto es posible si la matriz C es invertible:

Teorema 2.10. Si C es una matriz invertible y en cada caso A y B son matrices de tamaños
apropiados entonces

1. CA = CB ⇒ A = B.

2. AC = BC ⇒ A = B.

Demostración. Se probará la proposición 1. La 2. se demuestra en forma análoga.


1. Dada la existencia de C −1 se tiene
CA = CB ⇒ C −1 (CA) = C −1 (CB) ⇒ C −1 C A = C −1 C B ⇒ IA = IB ⇒ A = B.
 

Material de uso interno Mateu-Semitiel 66


CAPÍTULO 2. MATRICES

Ecuaciones con productos de matrices


Las propiedades de las operaciones matriciales nos permiten resolver algunas ecuaciones que involucran
matrices (ecuaciones matriciales).
Es importante tener en cuenta que el producto de matrices no es conmutativo. Por lo tanto cuando
se multiplica a ambos miembros de una ecuación por una matriz se debe usar la multiplicación por la
izquierda, o por la derecha, en ambos miembros. Ası́, para matrices C y D de tamaños apropiados,

A = B ⇒ CA = CB,
y
A = B ⇒ AD = BD,
mientras que A = B no implica que CA = BC.
Por ejemplo, considere la ecuación matricial CXA − B = O donde A y C son invertibles y todas
las matrices son de tamaños compatibles.
Se puede despejar X (matriz incógnita) de la siguiente manera:

CXA − B = O,
CXA = B,
(CXA) A−1 = BA−1 ,
CX AA−1 = BA−1 ,


CXI = BA−1 ,
CX = BA−1 ,
C −1 (CX) = C −1 BA−1 ,


C −1 C X = C −1 BA−1 ,


IX = C −1 BA−1 ,
X = C −1 BA−1 .

De acuerdo a la Observación 2.3, una matriz B es la inversa de una matriz A si AB = I y BA = I.


En general para dos matrices A y B de n × n, AB no es igual a BA pero en el caso en que AB = I el
siguiente teorema, cuya demostración se omitirá en este texto, muestra que también BA = I.

Teorema 2.11. Si A y B son matrices de n × n y AB = I, entonces BA = I.

Una consecuencia inmediata de este teorema es el siguiente importante resultado:

Corolario 2.1. Sea A una matriz de n × n. Entonces:

AB = I para alguna matriz B si y sólo si A es invertible y B = A−1 .

Demostración. En un sentido es trivial ya que si A es invertible y B = A−1 se verifica AB = I.


Recı́procamente, si existe una matriz B tal que AB = I, por el Teorema 2.11 también BA = I por
lo cual A es una matriz invertible y B = A−1 .

Material de uso interno Mateu-Semitiel 67


CAPÍTULO 2. MATRICES

En relación a las matrices invertibles y los sistemas lineales cuadrados, se tiene:

Lema 2.1. Una matriz A de n × n es invertible si y sólo si el sistema lineal de matriz


aumentada [A : ej ] es consistente para todo j = 1, 2, ..., n.

Demostración. Sea A una matriz de n × n. Por el Corolario 2.1, A es invertible si y sólo si existe una
matriz B de n × n tal que AB = I (dicha matriz B es la inversa de A). Por lo tanto A es invertible si
y sólo si la ecuación matricial AX = I tiene solución. Si las sucesivas columnas de la matriz incógnita
X son x1 , x2 ,..., xn :  
AX = Ax1 Ax2 ... Axn .
 
Dado que I = e1 e2 ... en , por definición de igualdad de matrices:
AX = I ⇔ Ax1 = e1 , Ax2 = e2 , ..., Axn = en .
Resolver la ecuación AX = I equivale a resolver los n sistemas lineales Axj = ej , j = 1, 2, ..., n.
Luego, AX = I tiene solución si y sólo si cada uno de estos sistemas lineales son consistentes.
Ası́ se probó que A es invertible si y sólo si el sistema lineal de matriz aumentada [A : ej ] es
consistente para todo j = 1, 2, ..., n.

Cálculo de A−1
El ejemplo siguiente ilustra el lema anterior permitiendo calcular la inversa de una matriz o probar
que no es invertible.
 
1 4
Ejemplo 2.26. Para determinar si la matriz A = es invertible, debe analizarse si la
−1 −3
ecuación AX = I tiene solución.
 
  x11 x12
Siendo X = x1 x2 = la matriz incógnita, AX = I es
x21 x22
    
1 4 x11 x12 1 0
= ,
−1 −3 x21 x22 0 1
   
x11 + 4x21 x12 + 4x22 1 0
= .
−x11 − 3x21 −x12 − 3x22 0 1
Por igualdad de matrices, se obtienen los dos sistemas lineales de matrices aumentadas [A : e1 ] y
[A : e2 ]:
 
x11 +4x21 = 1 x12 +4x22 = 0
y .
−x11 −3x21 = 0 −x12 −3x22 = 1
Puede verificarse que ambos sistemas tienen solución única. La solución del primer sistema es
x11 = −3 y x21 = 1 que son los elementos de la primer columna de la matriz X. De manera similar,
resolviendo el segundo sistema, se obtienen los elementos de la segunda columna de la matriz incógnita,
x12 = −4 y x22 = 1.
Se obtiene ası́ una matriz  
−3 −4
B=
1 1
tal que AB = I y por lo tanto (Corolario 2.1) A es invertible y B = A−1 .J

Material de uso interno Mateu-Semitiel 68


CAPÍTULO 2. MATRICES

Actividad 2.15. Verifique, en el ejemplo anterior, que también BA = I.

En el siguiente teorema se muestran condiciones necesarias y suficientes para que una matriz sea
invertible:

Teorema 2.12. Sea A una matriz de n × n. Entonces las siguientes proposiciones son equi-
valentes:

1. A es invertible.

2. Ax = b es consistente con única solución para todo b ∈ Rn .

3. Ax = 0 tiene única solución la trivial.

4. A tiene n posiciones pivote.

5. A es equivalente (por renglones) a la matriz identidad I.


Es decir, la forma escalonada reducida de A es la matriz identidad, I.

Demostración. Se seguirá el siguiente orden en las implicancias (1) ⇒ (2) ⇒ (3) ⇒ (4) ⇒ (5).
Probando luego que (5) ⇒ (1) se tendrán demostradas todas las equivalencias.

(1) ⇒ (2) Sea b un vector columna de Rn . El vector A−1 b es solución de Ax = b ya que

A A−1 b = A−1 A b = Ib = b.
 

Por lo tanto Ax = b es consistente para todo b ∈ Rn . Además A−1 b es la única solución de


Ax = b puesto que si y es una solución de Ax = b resulta:

Ay = b ⇒ A−1 (Ay) = A−1 b ⇒ A−1 A y = A−1 b ⇒ Iy = A−1 b ⇒ y = A−1 b.




(2) ⇒ (3) Si Ax = b tiene única solución para todo b ∈ Rn , esto vale, en particular, si b es el vector
cero. Por lo tanto Ax = 0 tiene única solución, la trivial.

(3) ⇒ (4) Si Ax = 0 tiene única solución, entonces cada columna de la matriz A es una columna
pivote y por lo tanto A tiene n posiciones pivote.

(4) ⇒ (5) Sea Q la forma escalonada reducida de A. Como A tiene n posiciones pivote, Q tiene
un pivote en cada renglón, las posiciones pivote de Q serán (1, j1 ), (2, j2 ),...., (n, jn ) donde
1 ≤ j1 < j2 < ... < jn ≤ n. Luego, necesariamente j1 = 1, j2 = 2,..., jn = n es decir las
posiciones pivote de Q son (1, 1), (2, 2),...., (n, n). Dado que Q es escalonada reducida los pivotes
son unos y en cada columna donde hay un pivote el resto de los elementos son ceros. Ası́, las
columnas de Q son los vectores e1 , e2 ,..., en y por lo tanto Q = I.

(5) ⇒ (1) Si la forma escalonada reducida de A es I entonces ninguna forma escalonada de A tiene un
renglón cero y por lo tanto todo sistema que tiene a A como matriz de coeficientes es consistente.
En particular, los sistemas de matriz aumentada [A : ej ], j = 1, 2, ..., n, son consistentes y por
lo tanto (Lema 2.1) A es invertible.

Material de uso interno Mateu-Semitiel 69


CAPÍTULO 2. MATRICES

Observación 2.6. La equivalencia (1) ⇔ (2) es el siguiente resultado importante en relación a los
sistemas lineales cuadrados:

El sistema lineal cuadrado Ax = b tiene única solución si y sólo si A es invertible. Dicha


solución es x = A−1 b.

Ejemplo 2.27. Considere el sistema lineal cuadrado



x + 4y = 2
−x − 3y = 1

cuya forma matricial es     


1 4 x 2
= .
−1 −3 y 1
   
1 4 −1 −3 −4
Su matriz de coeficientes A = es invertible y su inversa es A = (éase
−1 −3 1 3
Ejemplo 2.26). Luego el vector solución es
   −1       
x 1 4 2 −3 −4 2 −10
= = = ,
y −1 −3 1 1 3 1 3

por consiguientela única solución del sistema es x = −10, y = 3.J

Método de Gauss-Jordan para hallar la inversa de una matriz


Se puede generalizar el procedimiento empleado en el Ejemplo 2.26 para encontrar la inversa de una
matriz o probar que no es invertible.
Sabemos que una matriz cuadrada, A, de orden n es invertible si y sólo si la ecuación matricial
AX = I tiene solución y que resolver esta ecuación es equivalente a resolver los n sistemas lineales
Axj = ej , j = 1, 2, ..., n.
Dado que estos n sistemas tienen la misma matriz, A, de coeficientes, éstos pueden resolverse en
forma simultánea (véase Ejercicio 10, Sección 1.4) formando la matriz aumentada
 
A : e1 e2 ... en = [A : I] ,

y aplicando el método de eliminación de Gauss-Jordan.


Si en algún momento del proceso se llega a una matriz escalonada [H : J] (H es una forma escalo-
nada de A) donde H no tiene renglones cero, entonces todos los sistemas lineales de matriz aumentada
[A : ej ] tienen solución. Continuando con el proceso de Gauss-Jordan, y dado que A tiene n posiciones
pivote, se llega a la forma escalonada reducida [I : B] (I es la forma escalonada reducida de A) donde
la j-ésima columna de B es la solución del sistema Axj = ej . Ası́, la matriz B es solución de AX = I
y por lo tanto A es invertible y B = A−1 .
Si, en cambio, en algún momento del proceso se llega a una matriz [C : D] donde C tiene un renglón
cero entonces toda forma escalonada de A tiene un renglón cero y por lo tanto A no es invertible ya
que no tiene n posiciones pivote.

Material de uso interno Mateu-Semitiel 70


CAPÍTULO 2. MATRICES

Todo lo anterior se puede resumir en el siguiente algoritmo:

Algoritmo para invertir una matriz A

1. Escriba la matriz de n × 2n, [A : I].

2. Aplique eliminación de Gauss-Jordan a la matriz del paso 1 para encontrar su forma


escalonada reducida. Si en algún momento del proceso se encuentra una matriz [C : D]
donde C tiene un renglón cero, deténgase: la matriz A no tiene n posiciones pivote y por
lo tanto no es invertible.
 De lo contrario A es invertible y la forma escalonada reducida
de [A : I] es I : A−1 .

 
−1 1 0
Ejemplo 2.28. Para determinar la inversa de A =  1 0 −2 , si existe, utilizamos el algoritmo
2 −1 0
anterior. Se aplica el proceso de eliminación de Gauss-Jordan a la matriz [A : I] para obtener su forma
escalonada reducida:
   
−1 1 0 : 1 0 0 −−−−−−−−−−−−−−→ −1 1 0 : 1 0 0
[A : I] =  1 0 −2 : 0 1 0  RR32 ++2R R1 → R2  0 1 −2 : 1 1 0  −−R−3−−−−R−−2−→ −−−−→
R3
1 → R3
2 −1 0 : 0 0 1 0 1 0 : 2 0 1
   
−1 1 0 : 1 0 0 −1 1 0 : 1 0 0
−−−−−−−−−−→
→  0 1 −2 : 1 1 0  21 R3 → R3  0 1 −2 : 1 1 0  −−R−2−−+−2R
−−−−−−−−→
3 → R2
1 1 1
0 0 2 : 1 −1 1 0 0 1 : 2 −2 2
   
−1 1 0 : 1 0 0 −1 0 0 : −1 0 −1
→ 0 1 0 : 2 0 1  −−R−1−−−−R−−2−→
−−−−→ 
R1 0 1 0 : 2 0 1  −−−R−−−−−−−−→
1 → R1
1 1 1 1 1 1
0 0 1 : 2 − 2 2 0 0 1 : 2 − 2 2
 
1 0 0 : 1 0 1
→ 0 1 0 : 2
 0 1  = [I : B] .
0 0 1 : 2 − 12 21 1

Se completó el proceso de eliminación de Gauss-Jordan.


 La forma
 escalonada reducida de [A : I]
1 0 1
es [I : B] por lo tanto A es invertible y A−1 = B =  2 0 1 .J
1 1 1
2 −2 2

 
1 0 1 2
 2 1 1 −1 
Ejemplo 2.29. Sea la matriz A =   3 1 2
. Como en el ejemplo anterior, para determinar
1 
−1 5 0 0
A−1 , si ésta existe, se aplica el proceso de eliminación de Gauss-Jordan a la matriz [A : I]:
   
1 0 1 2 : 1 0 0 0 1 0 1 2 : 1 0 0 0
 2 1 1 −1 : 0 1 0 0  −−R−2−−−−2R −−−−−−−−→ 
0 1 −1 −5 : −2 1 0 0 
[A : I] =   R3 − 3R11 → R2
→ R3  →
 3 1 2 1 : 0 0 1 0  R 4 + R1 → R4  0 1 −1 −5 : −3 0 1 0 
−1 5 0 0 : 0 0 0 1 0 5 1 2 : 1 0 0 1

Material de uso interno Mateu-Semitiel 71


CAPÍTULO 2. MATRICES

 
1 0 1 2 : 1 0 0 0
−−−−−−−−−−−−−−→  0
R3 − R 2 → R3  1 −1 −5 : −2 1 0 0 
.
R4 − 5R2 → R4 
0 0 0 0 : −1 −1 1 0 
0 0 5 27 : 11 −5 0 1
En este momento se detiene el procedimiento ya que se ha llegado a una matriz equivalente [C : D]
donde C tiene un renglón cero. Luego, A no tiene 4 posiciones pivote y por lo tanto no es invertible.J

Ejercicios

1. Halle la inversa de A o bien determine que es singular.


   
−2 3 1 −2 4 5
a) A =
4 1  1 2 3 0 
f) A = 
 1

1 3 0
 
3 −1

b) A = −1 0 1 2
−6 2
 
1 2 −1
 
1 −2 3
c) A =  1 2 0  g) A =  4 5 1 
0 2 −3 0 0 0
 
2 −2 4
 
1 −2 0 1
d) A =  3 2 3   1 0 3 0 
h) A =  
7 −2 11  0 1 3 0 
0 0 1 2
 
2 −2 4
e) A =  3 2 3 
3 2 −3
 
a b
2. Dada A = tal que a2 + b2 = 1. Obtenga, si existe, A−1 .
−b a
 
2 2
3. Halle la inversa de 10A si A−1 = .
−3 3
 
−2 0 1
4. Halle las matrices A2 , A3 y, si es posible, A−2 y A−3 siendo A =  1 3 0 .
0 1 0
5. Calcule todos los valores de a de modo que la matriz
 
1 1 −1
 0 1 1 ,
−1 2 a

sea no singular.

6. En caso de ser posible resuelva los sistemas lineales calculando primero la inversa de la matriz
de coeficientes.

Material de uso interno Mateu-Semitiel 72


CAPÍTULO 2. MATRICES

 
 x − y − z = 1  −x + y + z = b
a) x − z = 4 b) −x + z = b2
x − 2y − z = 0 y − z = b3
 

7. Demuestre la propiedad (2) del Teorema 2.10.


8. En caso de ser posible, obtenga la matriz X de las siguientes ecuaciones matriciales:
   
t 2 −2 3 −1
a) XA + B = X siendo A = yB= .
1 1 1 0
 
1 0  
1 −1
b) 2X − At = BX siendo A =  1 −1  y B = .
0 1
2 3
   
1 0 −1 3 3 −2
c) (X + 2F ) G = X siendo F =  0 2 −2  y G =  0 0 −3 .
0 1 3 0 0 2
   
2 3 1 2 1 0
d ) XB −1 = C t siendo B −1 =  0 1 0 yC= 0 1 1 .
3 −2 1 −1 2 −1
 
1 2
e) N t − N X = 2X siendo N = .
−1 4
   
1 0 −1 3 3 −2
f ) (X + 2M ) L = X siendo M =  0 2 −2  y L =  0 0 −3 .
0 1 3 0 0 2
9. Sean A y B matrices cuadradas de orden n. Determine si las siguientes proposiciones son ver-
daderas o falsas. Justifique su respuesta:
a) Si A y B son invertibles, entonces (A + B)−1 = A−1 + B −1 .
b) Si A es invertible y AB = O, entonces B = O.
c) Si A2 = O entonces I − A es invertible y su inversa es A + I.
d) Si A y B son invertibles entonces (2AB)−1 = 21 A−1 B −1 .
e) Si A2 + 2A − I = O entonces A es invertible y A−1 = A + 2I.
10. Scilab. Las operaciones suma, multiplicación y potencia se indican con “+”, “∗” y “∧”, respecti-
vamente. La transpuesta de A se obtiene mediante el comando “A’ ”. Para calcular la inversa de
una matriz A es posible utilizar el comando “inv(A)” o bien simplemente ingresando “A∧ − 1”.
En el caso en que A no es invertible, devuelve “!–error 19 Problem is singular”. También es po-
sible determinar si una matriz A es invertible usando eliminación de Gauss-jordan aplicando el
comando “rref” a la matriz ampliada [A : I] que devuelve su forma escalonada reducida [C : D]:
si C = I entonces D = A−1 mientras que si C 6= I entonces A no es invertible.
Sean las matrices
4 −1 2
 
0,1 2 3 2

 1 −0,2 2 −1 5 4 −1 

 0 0 −1,2 4 2 0 −1 
A=
 0,1 3 2 −0,1 4 2 1,3 
,

 1 0,1 2 0,1 0 0 2 

 1 0,4 3 0,1 5 6 7 
−0,1 1 0,2 4 1 6 0

Material de uso interno Mateu-Semitiel 73


CAPÍTULO 2. MATRICES

0,2 −1
 
0,3 1 0 1 1

 −0,1 0,2 0 1 −2 0,2 1 


 1 1 1,2 −0,3 2 0 1 

B=
 0,1 3 2 −0,1 0,4 2 1 ,


 2 0,3 0,22 0,1 0 0 2 

 1 0,4 3 0,1 1,5 −0,2 −2,1 
1 1 0,2 4 1 6 0
 
0,1

 0,2 


 1 

y el vector b = 
 1,1 . Calcule si es posible:


 2 

 0 
−1

a) 2At − AB
b) A−1
c) (10A)−1 B
d ) Ab
e) A−3
3
f ) 2A−1 B 2 − B
g) La solución del sistema lineal Ax = b, hallando previamente la inversa de A.
h) ¿Admite soluciones no triviales el sistema lineal Bx = 0?

11. Análisis de insumos-producción. El ganador del Premio Nobel, W. Leontief (1906-1999), es


famoso por su modelo de una economı́a basada en insumos y producción. Una de las suposiciones
del modelo es que todo cuanto se produce se consumirá. La demanda de los productos de una
industria puede provenir de dos fuentes: (1) demanda de industrias diferentes y (2) demanda
de otras fuentes que no sean las industrias. Por ejemplo, las compañı́as de electricidad generan
energı́a que (a) se necesita para operar sus propias plantas, (b) se requiere para satisfacer las
necesidades eléctricas de otras empresas, y (c) se necesita para satisfacer las exigencias de los
consumidores en general.
Los dos primeros (a) y (b) son ejemplos de la demanda interindustrial y el tercero (c) de la de-
manda no industrial. El objeto del análisis de insumos-producción consiste en determinar cuánto
producirá una industria, para que ambos tipos de la demanda queden exactamente satisfechos.
Es decir determinar cuánto se deberá producir a fin de alcanzar un equilibrio entre oferta y
demanda.

La demanda interindustrial suele sintetizarse en una matriz tecnológica o de insumos-producción.


Por ejemplo, suponga que la producción de una industria se mide en dólares y la matriz
 
0,3 0,3 0,2
A =  0,1 0,2 0,3 
0,2 0,1 0,4

es la matriz de insumos-producción. El elemento general aij representará la cantidad de produc-


ción requerida de la industria i para generar un dólar en la producción de la industria j. Esta

Material de uso interno Mateu-Semitiel 74


CAPÍTULO 2. MATRICES

matriz representa una situación de tres industrias. Por ejemplo, el elemento a12 = 0,3 indica que
por cada dólar de producción en la industria 2, el 30 % es aportado por la industria 1.
Sea xj la producción de la industria j (en dólares) y sea dj la demanda no industrial (en dólares)
de la producción de la indsutria j. En nuestro ejemplo,j = 1, 2, 3. Puede formularse un conjun-
to de ecuaciones simultáneas que, al resueltas, determinen los niveles de producción de xj en
los cuales la oferta y la demanda totales estarán en equilibrio. Las ecuaciones de este sistema
presentarán la forma general:

Producción de la industria = demanda interindustrial + demanda no industrial.

En este ejemplo de tres industrias, el sistema es:

demanda interindustrial demanda no industrial


z }| { z}|{
x1 = 0,3x1 + 0,3x2 + 0,2x3 + d1
x2 = 0,1x1 + 0,2x2 + 0,3x3 + d2
x3 = 0,2x1 + 0,1x2 + 0,4x3 + d3

Llamando x al vector columna:  


x1
x =  x2 
x3
cuyos elementos son los niveles de equilibrio de producción, y d al vector columna:
 
d1
d =  d2 
d3

cuyos elementos son los niveles de las demandas no industriales, el sistema anterior puede ex-
presarse matricialmente de la forma
x = Ax + d.
Si la matriz de insumos-producción es cuadrada, como en nuestro ejemplo, y la matriz I − A es
invertible, es posible despejar y obtener el vector de niveles de equilibrio de producción:

x = (I − A)−1 d

conociendo el vector demanda no industrial d. En nuestro ejemplo de las tres industrias, verifique
usando Scilab que:  
1,837 0,816 1,020
(I − A)−1 =  0,490 1,551 0,939  .
0,694 0,531 2,163
Supongamos además que los niveles de las demandas no industriales son:

d1 = $50000000,

d2 = $30000000,
y
d3 = $60000000,

Material de uso interno Mateu-Semitiel 75


CAPÍTULO 2. MATRICES

entonces verifique usando Scilab que en nuestro ejemplo, los niveles de equilibrio son:
 
177530000
x =  127370000  ,
180410000

es decir la industria 1 deberı́a generar una producción con un valor de 177530000 dólares, la
industria 2 una producción con un valor de 127370000 dólares y la industria 3 una producción
con un valor de 180410000 dólares.

a) La matriz tecnológica para un modelo de insumos-producción de tres industrias es


 
0,5 0 0,2
 0,2 0,8 0,12  .
1 0,4 0

Si la demanda no industrial de la producción de las industrias mencionadas es d1 = 5


millones de dólares, d2 = 3 millones de dólares y d3 = 4 millones de dólares, determine los
niveles de producción de las tres industrias.
b) La siguiente matriz de insumos-producción para una economı́a de seis industrias es:
 
0,180 0,005 0 0,003 0 0,010

 0,005 0,290 0,020 0,002 0,004 0,015 


 0,030 0,170 0,450 0,008 0,010 0,006 
.

 0,035 0,040 0,020 0,040 0,010 0,050 

 0,010 0,001 0,040 0,250 0,360 0,250 
0,120 0,080 0,100 0,120 0,180 0,230

Si el vector de las demandas no industriales está dada por:


 
20000
 10000 
 
 30000 
d=  ,
 5000 

 12000 
30000

i) determine los niveles de la producción para las seis industrias.


ii) las demandas interindustriales en las seis industrias.

Material de uso interno Mateu-Semitiel 76


Capı́tulo 3

DETERMINANTES

En este capı́tulo se estudiará uno de los conceptos más importantes del Álgebra Lineal. A cada matriz
cuadrada se le puede asignar cierto número real llamado determinante de la misma, el cual tiene
diversas aplicaciones en esta asignatura, como por ejemplo el cálculo del polinomio caracterı́stico para
encontrar los valores y vectores propios de una matriz, la regla de Cramer para resolver ciertos sistemas
lineales, el cálculo de una matriz inversa, el cálculo de volúmenes, etc.

3.1. Introducción
Se utilizará un método de recurrencia para definir y calcular determinantes de matrices cuadradas de
orden n a partir de determinantes de matrices de orden menor.
Se debe tener en cuenta, como en el caso de la inversa de una matriz, que el concepto de determi-
nante es aplicable sólo a matrices cuadradas.

Definición (Determinante). Dada una matriz A = [aij ] cuadrada de orden n, el determinante


de A, que simbolizamos det(A) o |A|, es el número que se obtiene recursivamente de la
siguiente manera:

i. Si n = 1, es decir A = [a11 ], det(A) = a11 .

ii. Si n ≥ 2,

det(A) = (−1)1+1 a11 det(A1,1 ) + (−1)1+2 a12 det(A1,2 ) + ... + (−1)1+n a1n det(A1,n )
Xn
= (−1)1+j a1j det(A1,j ),
j=1

donde A1,j es la matriz cuadrada de orden n − 1 que se obtiene al eliminar la fila 1 y


la columna j de la matriz A.

Ejemplo 3.1. Si A = [−3] entonces de la definición anterior es det(A) = −3. J

Material de uso interno Mateu-Semitiel 77


CAPÍTULO 3. DETERMINANTES

Determinante de una matriz 2 × 2


Para cualquier matriz cuadrada de orden 2
 
a11 a12
A= ,
a21 a22
de acuerdo a (ii) de la definición anterior:
det(A) = (−1)1+1 a11 det(A1,1 ) + (−1)1+2 a12 det(A1,2 ) =
= (−1)2 a11 det ([a22 ]) + (−1)3 a12 det ([a21 ]) =
= a11 a22 − a12 a21 .
Luego:

 
a11 a12
Si A = entonces det(A) = |A| = a11 a22 − a12 a21 .
a21 a22

Nota: En este texto det(A) y |A| se usan indistintamente para representar el determinante de una
matriz cuadrada A. Es práctica común eliminar los corchetes de una matriz y escribir por ejemplo
 
a11 a12 a11 a12
en lugar de .
a21 a22 a21 a22

   
−2 4 3 −2
Ejemplo 3.2. Sean la matrices A = yB= , entonces:
−3 12 −6 4
 
−2 4 1
|A| = = (−2) − 4(−3) = 11,
−3 21 2
y

3 −2
|B| = = 3 (4) − (−2)(−6) = 0. J
−6 4

Determinante de una matriz 3 × 3


Para cualquier matriz cuadrada de orden 3
 
a11 a12 a13
A =  a21 a22 a23  ,
a31 a32 a33

det(A) = (−1)1+1 a11 det(A1,1 ) + (−1)1+2 a12 det(A1,2 ) + (−1)1+3 a13 det(A1,3 ) =
a22 a23 a21 a23 a21 a22
= (−1)2 a11 + (−1)3 a12 + (−1)4 a13 =
a32 a33 a31 a33 a31 a32
= a11 (a22 a33 − a23 a32 ) − a12 (a21 a33 − a23 a31 ) + a13 (a21 a32 − a31 a22 ) =
= a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a31 a22
= a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a31 a22 a13 − a32 a23 a11 − a33 a21 a12 .

Material de uso interno Mateu-Semitiel 78


CAPÍTULO 3. DETERMINANTES

También hay un artificio para memorizar esta fórmula, llamado regla de Sarrus que se ilustra a
continuación:

Definición (Menores y Cofactores). Sea A = [aij ] una matriz cuadrada de orden n, n ≥ 2.

i. El menor del elemento aij de A, o simplemente el menor (i, j), es el determinante de


la matriz cuadrada de orden n − 1 que resulta de eliminar el renglón i y la columna j
de la matriz A. Este número se denota Mij .

ii. El cofactor del elemento aij de A, o simplemente el cofactor (i, j), es el número denotado
Cij y dado por Cij = (−1)i+j Mij .

 
−1 0 1
Ejemplo 3.3. Si A =  2 3 2  el menor (2, 3) es el determinante de la matriz que se obtiene
1 −1 1
−1 0
de eliminar al renglón 2 y la columna 3 de A. Ası́, M23 = = 1. El cofactor (2, 3) es
1 −1
C23 = (−1)2+3 M23 = (−1)5 (1) = −1. J

Si se tiene en cuenta que


M1j = det(A1,j ),
y
C1j = (−1)1+j M1j ,
entonces, en términos de menores y cofactores, la definición de determinante de una matriz A cuadrada
de orden n (n ≥ 2) se reescribe de la siguiente manera:

n
X
det(A) = |A| = (−1)1+j a1j M1j .
j=1

O bien:
n
X
det(A) = |A| = a1j C1j .
j=1

Material de uso interno Mateu-Semitiel 79


CAPÍTULO 3. DETERMINANTES

Desarrollo de un determinante por cofactores


Dada una matriz A = [aij ] cuadrada de orden n (n ≥ 2), para cada renglón i puede calcularse el
número
Xn
∆reni = aij Cij = ai1 Ci1 + ai2 Ci2 + ... + ain Cin ,
j=1

y para cada columna j el número


n
X
∆colj = aij Cij = a1j C1j + a2j C2j + ... + anj Cnj .
i=1

n
X
Nótese que el número ∆ren1 = a1j C1j es el determinante de la matriz A.
j=1
 
2 0 −1
Por ejemplo, si A =  −1 1 0  entonces:
3 2 1

3
X
∆ren1 = det(A) = a1j C1j = a11 C11 + a12 C12 + a13 C13 = 2(−1)1+1 M11 + 0(−1)1+2 M12 +
j=1

1 0 −1 1
+(−1)(−1)1+3 M13 = 2 +0− = 2(1) − (−5) = 7.
2 1 3 2
3
X
∆ren2 = a2j C2j = a21 C21 + a22 C22 + a23 C23 = (−1)(−1)2+1 M21 + 1(−1)2+2 M22 +
j=1

0 −1 2 −1
+0(−1)2+3 M23 = 1 +1 + 0 = 1(2) + 1(5) = 7.
2 1 3 1
3
X
∆ren3 = a3j C3j = a31 C31 + a32 C32 + a33 C33 = 3(−1)3+1 M31 + 2(−1)3+2 M32 +
j=1

0 −1 2 −1 2 0
+1(−1)3+3 M33 = 3 + (−2) +1 = 3(1) +
1 0 −1 0 −1 1
+(−2)(−1) + 1(2) = 7.
X3
∆col1 = ai1 Ci1 = a11 C11 + a21 C21 + a31 C31 = 2(−1)1+1 M11 + (−1)(−1)2+1 M21 +
i=1
1 0 0 −1 0 −1
+3(−1)3+1 M31 = 2 + (−1)(−1) +3 = 2(1) +
2 1 2 1 1 0
+1(2) + 3(1) = 7.
X3
∆col2 = ai2 Ci2 = a12 C12 + a22 C22 + a32 C32 = 0(−1)1+2 M12 + 1(−1)2+2 M22 +
i=1
2 −1 2 −1
+2(−1)3+2 M32 = 0 + 1 + 2(−1) = 1(5) + (−2)(−1) = 7.
3 1 −1 0

Material de uso interno Mateu-Semitiel 80


CAPÍTULO 3. DETERMINANTES

3
X
∆col3 = ai3 Ci3 = a13 C13 + a23 C23 + a33 C33 = (−1)(−1)1+3 M13 + 0(−1)2+3 M23 +
i=1
−1 1 2 0
+1(−1)3+3 M33 = (−1) +0+1 = (−1)(−5) + 1(2) = 7.
3 2 −1 1

Obsérvese que todos estos números son iguales e iguales al determinante de A. Esto no es casualidad
sino el resultado de un teorema más general que se enuncia a continuación y que no se demostrará en
este texto:

Teorema 3.1. Sea A una matriz cuadrada de orden de n (n ≥ 2). Entonces:

1. ∆reni = ∆renk para todo i = 1, 2, ..., n y k = 1, 2, ..., n.

2. ∆colj = ∆colh para todo j = 1, 2, ..., n y h = 1, 2, ..., n.

3. ∆reni = ∆colj para todo i = 1, 2, ..., n y j = 1, 2, ..., n.

Dado que det(A) = ∆ren1 y, por el teorema anterior, ∆ren1 = ∆reni = ∆colj para todo i = 1, 2, ..., n
y j = 1, 2, ..., n, se tiene el siguiente resultado:

Corolario 3.1. Sea A = [aij ] una matriz cuadrada de orden de n (n ≥ 2). Entonces:
n
X
1. det(A) = aij Cij = ai1 Ci1 + ai2 Ci2 + ... + ain Cin , para cualquier i = 1, 2, ..., n.
j=1

n
X
2. det(A) = aij Cij = a1j C1j + a2j C2j + ... + anj Cnj , para cualquier j = 1, 2, ..., n.
i=1

En el caso 1. se dice que el determinante se ha desarrollado por cofactores respecto al renglón


i y en el caso 2. que se ha desarrollado por cofactores respecto a la columna j.

Es evidente que el cálculo de un determinante puede ser muy tedioso. Por ejemplo, para calcular un
determinante de orden 4 deben calcularse 4 determinantes de orden 3 y para calcular un determinante
de orden 5, debe calcularse 5 determinantes de orden 4.
Es claro que para simplificar el cálculo de un determinante es conveniente elegir para su desarrollo
una fila o columna que tenga el máximo número de ceros. Ası́ se evita el cálculo de algunos de los
menores.
 
−1 3 0 1
 4 2 2 5 
Ejemplo 3.4. Si A = 
 0
 para calcular el determinante de A conviene desarrollarlo
6 3 4 
2 1 0 1

Material de uso interno Mateu-Semitiel 81


CAPÍTULO 3. DETERMINANTES

por la tercera columna. Luego:


4
X 0 0
|A| =
z}|{ z}|{
ai3 Ci3 = a13 C13 + a23 C23 + a33 C33 + a43 C43 =
i=1
−1 3 1 −1 3 1
5 6
= 2(−1) M23 + 3(−1) M33 = −2 0 6 4 +3 4 2 5 ,
2 1 1 2 1 1

y calculando los determinantes de orden 3 (verifı́quelo) se obtiene |A| = 43. J

Calcular el determinante de una matriz puede convertirse en un trabajo largo y tedioso a menos que la
matriz sea pequeña o que tenga muchos ceros. Por esta razón, se necesitan procedimientos que ayuden
a minimizar los cálculos. En el punto siguiente se estudiarán algunos de tales métodos. Pero además
existen algunas matrices cuyos determinantes se pueden evaluar fácilmente aunque sean grandes y no
tengan muchos ceros. Se dará la siguiente definición:

Definición (Matrices triangulares). Una matriz cuadrada es triangular superior si todos


sus elementos debajo de la diagonal principal son ceros. Es triangular inferior si todos sus
elementos por encima de la diagonal principal son ceros. Una matriz cuadrada es diagonal si
todos sus elementos fuera de la diagonal principal son ceros.
Es decir, la matriz cuadrada A = [aij ] es triangular superior si aij = 0 para todo i > j, es
triangular inferior si aij = 0 para todo i < j y es diagonal si aij = 0 para todo i 6= j.

 
−1 3 00  
 0 1 2 1
1 2
5 
Ejemplo 3.5. Las matrices A = 
 0 y B =  0 0 5  son triangulares superiores,
0 3
4 
0 0 3
0 0 10
   
1 0 0   1 0 0
2 0
C= 2 1 0 yD= son triangulares inferiores y E =  0 −4 0  es diagonal.J
2 1
−1 0 8 0 0 3

Ejemplo 3.6 (Determinante de una matriz triangular). La matriz


 
a11 a12 a13 a14
 0 a22 a23 a24 
A=  0

0 a33 a34 
0 0 0 a44
es triangular superior. Desarrollando det(A) por cofactores con respecto a la primer columna:
det(A) = a11 C11 + 0C21 + 0C31 + 0C41 = a11 C11 = a11 (−1)2 M11 =
a22 a23 a24
a33 a34
= a11 0 a33 a34 = a11 a22 = a11 a22 a33 a44 .
0 a44
0 0 a44

Si la matriz A hubiese sido triangular inferior, se habrı́a obtenido el mismo resultado (en este caso
hubiésemos elegido el primer renglón para desarrollar el determinante): det(A) = a11 a22 a33 a44 J

Material de uso interno Mateu-Semitiel 82


CAPÍTULO 3. DETERMINANTES

El ejemplo dado puede generalizarse a fin de demostrar el siguiente teorema:

Teorema 3.2. Si A = [aij ] es una matriz triangular de orden n entonces

det(A) = a11 a22 ...ann .

Es decir, el determinante de una matriz triangular es el producto de los elementos de la


diagonal principal.
Dado que una matriz diagonal es una matriz triangular (superior e inferior), entonces su
determinante es el producto de los elementos de su diagonal principal.

Ejemplo 3.7. Para las matrices A, B, C, D y E del Ejemplo 3.5 se tiene:

det(A) = (−1)(1)(3)(1) = −3,


det(B) = (1)(0)(3) = 0,
det(C) = (1)(1)(8) = 8,
det(D) = (2)(1) = 2,
det(E) = (1)(−4)(3) = −12. J

Nota: El determinante de una matriz triangular es cero si y sólo si en la diagonal principal hay al
menos un cero.

Ejercicios

1. Calcule los determinantes siguientes:

4 −3 4 −2 5
a)
2 5 g) 1 4 4
√ √ −2 1 −2
2 − 2
b)
1 −3 1 2 0 −1
2 1 2 2
3 −5 h)
c) 0 1 0 1
−6 10
2 −2 1 −3
0 2 −1
d) 1 1 3 √2 0 0 0
3 −3 0 0
4 −2 3 i)
2 1 5 0
2 3 1 3 2 1 −1
e) −1 2 4
2 3 −1 8 2
0 0 −2
0 3 1 −1 4
0 −2 1 j) 0 0 5 0 −9
f) 1 4 2 0 0 0 −1 12
0 3 −2 0 0 0 0 1

Material de uso interno Mateu-Semitiel 83


CAPÍTULO 3. DETERMINANTES

4 0 0 0 0 −3 0 0 0 0
0 −3 0 0 0 0 −3 0 0 0
k) 0 0 2 0 0 l) 0 0 −3 0 0
0 0 0 −1 0 0 0 0 −3 0
0 0 0 0 5 0 0 0 0 −3
 
1 −2 3
2. Dada la matriz A =  0 4 2 .
−2 1 −1

a) Calcule todos los menores y todos los cofactores de A.


b) Obtenga det(A) desarrollando por cofactores respecto a cada una de las columnas y cada
uno de los renglones de A.

3. Obtenga el o los valores de x, si existen, que satisfacen las siguientes ecuaciones:


2x −3
a) =0
4 −3
2−x 0 0
b) 1 −3 + x 0 =0
2 1 4 − 6x
x 0 2 x−1 1 0
c) 2 0 −6 + x = 3 0 x−2
0 x−3 −1 −2 x − 7 0

3.2. Propiedades de los determinantes


Los determinantes tienen muchas propiedades que facilitan su cálculo. Estas propiedades se pueden
emplear con el fin de reducir el trabajo en la evaluación de un determinante.
En todo lo que sigue las matrices que se consideran son matrices cuadradas.

Teorema 3.3. Si cualquier renglón o columna de una matriz A es el vector cero entonces
|A| = 0.

Demostración. Basta con desarrollar el determinante por cofactores con respecto al renglón o columna
que contiene sólo ceros.
1 0 2
Ejemplo 3.8. −3 0 5 = 0, dado que la segunda columna contiene sólo ceros.J.
8 0 3

Material de uso interno Mateu-Semitiel 84


CAPÍTULO 3. DETERMINANTES

Teorema 3.4. Si el i−ésimo renglón o la j−ésima columna de una matriz A = [aij ] se


multiplica por la constante c entonces el determinante de la nueva matriz B es el producto
de c por el determinante de A. Esto es:
a11 a12 ... a1n a11 a12 ... a1n
a21 a22 ... a2n a21 a22 ... a2n
.. .. .. .. .. ..
. .... . . . ... .
1. |B| = =c = c |A|.
cai1 cai2 ... cain ai1 ai2 ... ain
.. .. .. .. .. ..
. . ... . . .
... .
an1 an2 ... ann an1 an2 ... ann

a11 a12 ... ca1j ... a1n a11 a12 ... a1j ... a1n
a21 a22 ... ca2j ... a2n a21 a22 ... a2j ... a2n
2. |B| = .. .. .. =c .. .. .. = c |A|.
. . ... ... . . . ... ... .
an1 an2 ... canj ... ann an1 an2 ... anj ... ann

Demostración. Para probar 1. se desarrolla el determinante de B por cofactores respecto al i-ésimo


renglón. Dado que las matrices A y B difieren sólo en el i-ésimo renglón, entonces los cofactores
correspondientes a los elementos de este renglón, Ci1 , Ci2 ,..., Cin , son iguales para ambas matrices.
Ası́:
|B| = cai1 Ci1 + cai2 Ci2 + ... + cain Cin = c (ai1 Ci1 + ai2 Ci2 + ... + ain Cin ) = c |A| .
La demostración de 2. es análoga. Se desarrolla el determinante de B por cofactores respecto a la
j-ésima columna.

Observación 3.1. Esta propiedad establece que en un determinante se permite “extraer” un factor
común de un renglón o columna del mismo.
 
10 0 −1
Ejemplo 3.9. Supongamos que se quiere calcular el determinante de la matriz B =  −5 1 0 .
15 2 1
 
2 0 −1
Sea A =  −1 1 0  la matriz que se obtiene de dividir entre 5 (multiplicar por 51 ) la primer
3 2 1
columna de B. Por el teorema anterior la relación entre |B| y |A| es:
1
|A| = |B| por lo cual |B| = 5 |A| .
5
De esta manera se puede simplificar el cálculo de |B| calculando un determinante más fácil de
resolver. Dado que |A| = 7 entonces
|B| = 5 |A| = 5(7) = 35.
En la práctica se procede “sacando factor común” 5 en la primer columna:

10 0 −1 2 0 −1
−5 1 0 = 5 −1 1 0 = 5(7) = 35. J
15 2 1 3 2 1

Material de uso interno Mateu-Semitiel 85


CAPÍTULO 3. DETERMINANTES

El siguiente es un ejemplo de un resultado general muy interesante:


Ejemplo 3.10. Sea la matriz A del ejemplo anterior y la matriz múltiplo escalar de A, 5A.
Entonces:
10 0 −5 5(2) 5(0) 5(−1) 2 5(0) 5(−1)
|5A| = −5 5 0 = 5(−1) 5(1) 5(0) = 5 −1 5(1) 5(0) =
15 10 5 5(3) 5(2) 5(1) 3 5(2) 5(1)
2 0 5(−1) 2 0 −1
2
= 5(5) −1 1 5(0) = 5 (5) −1 1 0 =
3 2 5(1) 3 2 1

= 53 |A| = 53 (7) = 875. J

La aplicación reiterada del Teorema 3.4 permite demostrar el siguiente resultado:

Corolario 3.2. Si A es una matriz cuadrada de orden n y c un escalar entonces

|cA| = cn |A| .

Actividad 3.1. Demuestre el Corolario 3.2.

Teorema 3.5. Al intercambiar dos renglones o dos columnas cualesquiera de una matriz A,
el determinante de la nueva matriz, B, obtenida es el opuesto del determinante de A. Esto
es: |B| = − |A|.

Demostración. La prueba se hará para el intercambio de dos renglones (análogamente se demuestra


para el intercambio de dos columnas).
Es fácil verificar este resultado para matrices cuadradas de orden 2 ó 3.
   
a11 a12 a21 a22
Si A = yB= entonces
a21 a22 a11 a12
|B| = a21 a12 − a11 a22 = − (a11 a22 − a21 a12 ) = − |A| .

Supongamos ahora que A es de orden 3 y se intercambian dos renglones obteniéndose la matriz B.


Las matrices A y B coinciden en el renglón l que no fue intercambiado. Los cofactores correspondientes
a los elementos del renglón l de ambas matrices son opuestos (¿por qué?). Los términos del desarrollo
del determinante de B por cofactores correspondiente al renglón l resultan entonces opuestos a los
términos del desarrollo del determinante de A por dicho renglón. De este modo, |B| = − |A|.
El mismo razonamiento permite generalizar este resultado para una matriz A de orden mayor.

   
1 3 5 2 5 3 1 2
 0 −1 3 4   3 −1 0 4 
Actividad 3.2. Dadas las matrices A = 
 2
yB = . Verifique que
1 9 6   9 1 2 6 
3 2 4 8 4 2 3 8
|B| = − |A| = −160.

Material de uso interno Mateu-Semitiel 86


CAPÍTULO 3. DETERMINANTES

Teorema 3.6. Si A tiene dos renglones o columnas iguales entonces |A| = 0.

Demostración. Se probará para el caso de dos renglones iguales (análogamente se demuestra para dos
columnas iguales).
Supongamos que los renglones h y k de la matriz A son iguales. La matriz B que se obtiene de
intercambiar los renglones h y k es la misma matriz A, por lo tanto

|B| = |A| . (3.1)

Por otro lado, dado que B se obtiene de A por un intercambio de renglones entonces del teorema
anterior
|B| = − |A| . (3.2)
De (3.1) y (3.2) resulta |A| = − |A| y ası́ |A| = 0.

2 2 2 9
−1 1 −1 8
Ejemplo 3.11. = 0 dado que la primer y tercer columnas son iguales.J
3 3 3 6
4 2 4 8

Teorema 3.7. Si a un renglón, o columna, de una matriz A se le suma un múltiplo de


otro renglón ,o columna, de A, entonces el determinante de la nueva matriz B es igual al
determinante de A.

Demostración. Sean Rh y Rk dos renglones arbitrarios de la matriz A = [aij ].


Sea B la matriz que es igual a A exceptuando el renglón k−ésimo el cual es la suma del Rk más c
veces Rh es decir,
   
a11 a12 ... a1n a11 a12 ... a1n
 .. .. ..   .. .. .. 
 . . ... .   . . ... . 
   
 ah1 ah2 ... ahn   ah1 ah2 ... ahn 
   
A =  ... .. ..  y B= .
.. .. ..
.
  
 . ... .   . ... . 
 ak1 ak2 ... akn   ak1 + cah1 ak2 + cah2 ... akn + cahn 
   
 .. .. ..   .. .. .. 
 . . ... .   . . ... . 
an1 an2 ... ann an1 an2 ... ann
Dado que A y B difieren sólo en el k-ésimo renglón entonces los cofactores de los elementos de
dicho renglón de A, Ck1 , Ck2 ,..., Ckn son iguales a los cofactores del k-ésimo renglón de B.
Desarollando el determinante de B por el k-ésimo renglón:

|B| = (ak1 + cah1 ) Ck1 + (ak2 + cah2 ) Ck2 + ... + (akn + cahn ) Ckn =
= (ak1 Ck1 + ak2 Ck2 + ... + akn Ckn ) + c (ah1 Ck1 + ah2 Ck2 + ... + ahn Ckn ) .

El primer término de la suma es el determinante de A desarrollado por el k-ésimo renglón. El


segundo término es 0 puesto que ah1 Ck1 + ah2 Ck2 + ... + ahn Ckn es el determinante, desarrollado por
el k-ésimo renglón, de la matriz

Material de uso interno Mateu-Semitiel 87


CAPÍTULO 3. DETERMINANTES

 
a11 a12 ... a1n
 .. .. .. 
 . . ... . 
 
 ah1 ah2 ... ahn 
 
A =  ...
0 .. .. 

 . ... . 
 ah1 ah2 ... ahn 
  ← k-ésimo renglón.
 .. .. .. 
 . . ... . 
an1 an2 ... ann
que se obtiene de la matriz A al reemplazar el renglón k por el renglón h. Dado que A0 tiene dos
renglones iguales entonces |A0 | = 0. Ası́,

|B| = |A| + 0 = |A| .

Análogamente se demuestra si a una columna de A se le suma un múltiplo de otra columna.

 
3 2 0
Actividad 3.3. Por simple inspección, la matriz A =  2 −1 0  tiene determinante −7. Verifique
1 0 1
 
3 2 6
que si a la 3◦ columna se le suma dos veces la primera se obtiene la matriz B =  2 −1 4  cuyo
1 0 3
determinante es también −7.

Operaciones elementales de renglón y determinantes


Por el Teorema 3.4 si se aplica una operación de escalamiento a un renglón de una matriz (cRi → Ri )
para obtener una nueva matriz, el determinante de la matriz original es 1c por el determinante de la
matriz nueva. De los teoremas 3.5 y 3.7 se sabe que en una operación de intercambio (Ri ↔ Rj ) se
cambia el signo del determinante y en una operación de eliminación (Ri + cRj → Ri ) el determinante
no cambia.
El siguiente ejemplo muestra cómo aplicar operaciones elementales de renglón para facilitar el
cálculo de un determinante, llevándolo a una forma triangular:

2 3 4 4 1 −2 3 4 1 −2 3 4
−1 5 0 −1 −1 5 0 −1 0 3 3 3
= − = − =
1 −2 3 4 R1 ↔R3 2 3 4 4 R2 + R1 → R2 0 7 −2 −4
R3 − 2R1 → R3
1 −1 1 0 1 −1 1 0 R4 − R1 → R4 0 1 −2 −4

1 −2 3 4 1 −2 3 4
0 1 1 1 0 1 1 1
= −3 = −3 =
1
R →R2
3 2
0 7 −2 −4 R3 − 7R2 → R3 0 0 −9 −11
R4 − R2 → R4
0 1 −2 −4 0 0 −3 −5

Material de uso interno Mateu-Semitiel 88


CAPÍTULO 3. DETERMINANTES

1 −2 3 4 1 −2 3 4
0 1 1 1 0 1 1 1
= −3(−9) = 27 =
− 91 R3 →R3 0 0 1 11
9 R4 +3R3 →R4 0 0 1 11
9
0 0 −3 −5 0 0 0 − 43

 
4
= 27 − = −36.
3

Siempre es posible reducir cualquier matriz a una forma escalonada usando sólo operaciones de
eliminación y de intercambio, por lo tanto si B es una forma escalonada de A obtenida sin opera-
ciones de escalamiento, det(B) = det(A) o det(B) = − det(A). Dado que B es una matriz cuadrada
escalonada por renglones entonces B es triangular superior y su determinante es el producto de los
elementos de la diagonal principal. Se tiene entonces el siguiente resultado:

Teorema 3.8. Sea A una matriz cuadrada de orden n y B = [bij ] una matriz triangular
superior obtenida de A a partir de operaciones elementales de renglón sin escalamiento.
Entonces
|A| = (−1)k |B| = (−1)k b11 b22 ...bnn ,
donde k es el número de operaciones de intercambio entre renglones.

Actividad 3.4. Aplique el Teorema 3.8 para calcular el determinante de la matriz del ejemplo anterior.

Otras propiedades de los determinantes

Teorema 3.9 (Determinante de la transpuesta). Sea A una matriz cuadrada de orden n.


Entonces |A| = At .

Demostración. Es fácil verificar este resultado para el caso n = 2:

a11 a12
|A| = = a11 a22 − a12 a21 ,
a21 a22
y
a11 a21
At = = a11 a22 − a21 a12 = a11 a22 − a12 a21 = |A| .
a12 a22
Para el caso n = 3, dado que el primer renglón de A es igual a la primera columna de At ,
desarrollando el determinante de At por la primera columna:

0 0 0
At = a11 M11 − a12 M21 + a13 M31 ,
donde Mi10 es el menor (i, 1) de la matriz At , i = 1, 2, 3. Desarrollando el determinante de A por el

primer renglón:

|A| = a11 M11 − a12 M12 + a13 M13 ,

Material de uso interno Mateu-Semitiel 89


CAPÍTULO 3. DETERMINANTES

donde M1i es el menor (1, i) de la matriz A, i = 1, 2, 3.


0 para todo i = 1, 2, 3.
Para probar que |A| = At basta verificar que M1i = Mi1
El menor M1i es el determinante de la matriz A1,i que resulta de suprimir el renglón 1 y la columna i
de A, mientras que el menor Mi1 0 es el determinante de la matriz A0 que resulta de suprimir el renglón
i,1
i y la columna 1 de At . Es fácil ver que A0i,1 = (A1,i )t y dado que son matrices cuadradas de orden 2,
Mi10 = M para todo i = 1, 2, 3.
1i

Este mismo razonamiento se puede generalizar para una matriz de orden n > 3.

 
1 −1 2
1 4 . Verifique que det(A) = det At = 16.

Actividad 3.5. Sea A =  3
0 −2 5

A continuación enunciaremos, sin probar, el siguiente importante resultado:

Teorema 3.10 (Determinante del producto). Sean A y B matrices cuadrada de orden n.


Entonces
|AB| = |A| |B| .

En general, si A1 , A2 ,..., Ak son k matrices cuadradas de orden n, entonces

|A1 A2 ...Ak | = |A1 | |A2 | ... |Ak | .

   
1 −1 2 0 2 0
Actividad 3.6. Sean A =  3 1 4  y B =  −5 0 0 . Compruebe que |AB| = |A| |B|.
0 −2 5 0 0 1

Nota: No debe inferirse un resultado similar al del teorema anterior para la suma de matrices. No es
cierto que determinante de una suma es la suma de los determinantes.
   
1 2 1 1
En efecto, sean las matrices A = yB= .
2 3 1 2
2 3
|A + B| = = 1,
3 5
mientras que
1 2 1 1
|A| + |B| = + = −1 + 1 = 0.
2 3 1 2
En general,
|A + B| =
6 |A| + |B| .

El Teorema 3.10 tiene una consecuencia importante referido al determinante de una matriz A y su
inversa, si ésta existe.

1
6 0 y A−1 =
Teorema 3.11. Si A es una matriz invertible entonces |A| = .
|A|

Material de uso interno Mateu-Semitiel 90


CAPÍTULO 3. DETERMINANTES

Demostración. Como la matriz A es invertible entonces AA−1 = I. Luego,

AA−1 = |I| = 1,

y por el Teorema 3.10,


AA−1 = |A| A−1 ,
de donde
|A| A−1 = 1.
1
6 0 y A−1 =
De la última igualdad se deduce que |A| = .
|A|

0 − 15 0
   
0 2 0
Ejemplo 3.12. La matriz A =  −5 0 0  es invertible. Su inversa es A−1 =  21 0 0 
0 0 1 0 0 1
 
1 1
(verifı́quelo). Puede comprobarse que |A| = 10 (6= 0) y que A−1 = = J.
10 |A|

Ejercicios

1. Sin efectuar cálculos, explique por qué los siguientes determinantes son cero:

−1 3 0 1 −1 3 1 4 1 2 1 −4
2 9 0 5 2 9 1 −1 3 −1 1 2
a) b) c)
1 2 0 4 −1 3 1 4 1 0 1 0
2 3 0 −1 0 2 5 −1 0 2 1 −4

2. Calcule los siguientes determinantes aplicando operaciones elementales de renglón:

1 3 1 1 2 1 0 1 1 −1 0 0
2 2 1 0 0 −2 1 1 2 3 4 0
a) b) c)
−1 1 1 1 1 1 3 −1 1 1 1 1
0 2 2 −1 1 3 0 −2 −2 2 1 −1

3. Sea A una matriz cuadrada de orden n y k un número entero positivo. Teniendo en cuenta el
Teorema 3.10, pruebe que
Ak = |A|k .

Además, demuestre que si A es invertible entonces


k
A−k = A−1 .

4. Sea A una matriz cuadrada de orden 4 tal que det(A) = −3, y sean las matrices:

B, obtenida de intercambiar el 1◦ y 3◦ renglón de A.

Material de uso interno Mateu-Semitiel 91


CAPÍTULO 3. DETERMINANTES

C, obtenida de sumarle a la 3◦ columna de A, la 2◦ columna de A multiplicada por 5.


D, obtenida multiplicando por −2 el 4◦ renglón de A.
E = 2A.

Calcule los determinantes de las matrices: B, C, D, E, F = (−A)5 , G = 2A−3 y H = 3At B −1 .

a b c
5. Sea d e f = −2. Calcule los siguientes determinantes:
g h i

a d g g h i
a) b e h d) d e f
c f i −a −b −c
a b c g 2a d
b) d e f e) h 2b e
−2g −2h −2i i 2c f
3a 3b 3c a b c − 2a
c) 3d 3e 3f f) d e f − 2d
3g 3h 3i g h i − 2g

6. Analice si las siguientes matrices son invertibles.


 
2 3
a) A =
−4 5
 
2 3 −1
b) B =  1 4 0 
0 2 1
 
2 0 0 0
 1 −2 0 0 
c) C =   0

3 4 0 
1 2 5 10
7. Determine si existe algún valor de a de manera que la matriz A resulte invertible.
   
a −1 3 a −1 a
a) A =  2 1 a  b) A =  1 −3 4 
−2a 1 2 2 −a 0

8. Sean A y B matrices cuadradas de orden n. Demuestre que:

a) det (AB) = det (BA).


b) AAt = |A|2 .
c) Si B es invertible entonces det B −1 AB = det (A).


d ) ||A| A| = |A|n+1 .

Material de uso interno Mateu-Semitiel 92


CAPÍTULO 3. DETERMINANTES

9. Sean A, B, C y D matrices cuadradas de orden 4 tal que det(A) = −2, det(C) = 3, det(D) = 0
y  
2 −1 3 5
 1 3 1 0 
AB t C −1 =  .
 2 1 −1 4 
1 0 −2 1

a) Determine si la matriz B es invertible.


b) Calcule, si es posible, los determinantes de las matrices: 2B t , ABC, DA + DB, −A4 y
(−3A)2 .

3.3. La inversa a través de la adjunta. La regla de Cramer


En esta sección se verá cómo calcular la inversa de una matriz empleando determinantes. También
se desarrollará un método de resolución de sistemas lineales cuadrados con matrices de coeficientes
invertibles.

Definición (Matriz de cofactores y matriz adjunta). Dada una matriz A = [aij ] cuadrada de
orden n ≥ 2. La matriz de cofactores de A, que se simboliza Cof(A), es la matriz cuadrada
de orden n cuyo elemento (i, j)-ésimo es el cofactor Cij de la matriz A.
La matriz transpuesta de la matriz de cofactores de A es la matriz adjunta de A y se simboliza
Adj(A). Es decir:  
C11 C21 ... Cn1
 C12 C22 ... Cn2 
Adj(A) = (Cof(A))t =  ..  .
 
.. ..
 . . ... . 
C1n C2n ... Cnn

 
2 −3 1
Ejemplo 3.13. Sea la matriz A =  4 0 −2 . Los cofactores de A son: C11 = −2, C12 = 6,
3 −1 −3
C13 = −4, C21 = −10, C22 = −9, C23 = −7, C31 = 6, C32 = 8 y C33 = 12, por lo cual la matriz de
cofactores de A es  
−2 6 −4
Cof(A) =  −10 −9 −7  .
6 8 12
Al tomar la transpuesta se obtiene la adjunta de A
 
−2 −10 6
Adj(A) =  6 −9 8  . J
−4 −7 12

A continuación se establece un resultado que nos permitirá deducir un teorema aún más importante
para obtener la inversa de una matriz:

Material de uso interno Mateu-Semitiel 93


CAPÍTULO 3. DETERMINANTES

Lema 3.1. Sea A = [aij ] una matriz cuadrada de orden n.


n
X
1. Si h 6= k entonces ahj Ckj = 0.
j=1

n
X
2. Si l 6= t entonces ail Cit = 0.
i=1

Esto es, la suma de los productos de los elementos de un renglón (o columna) de A por los
cofactores correspondientes a los elementos de otro renglón (o columna) de A es igual a cero.

Demostración. Se probará 1. (similar demostración para 2.).


Considere la matriz, B, que se obtiene de la matriz A al reemplazar el renglón k por el renglón h:
 
a11 a12 ... a1n
 .. .. .. 
 . . ... . 
 
 ah1 ah2 ... ahn 
 
B =  ... .. .. 

 . ... . 
 ah1 ah2 ... ahn 
  ← renglón k
 .. .. .. 
 . . ... . 
an1 an2 ... ann
Dado que las matrices A y B difieren sólo en el k-ésimo renglón, los cofactores correspondientes
a dicho renglón en la matriz A, Ck1 , Ck2 ,..., Ckn , son iguales a los cofactores del k-ésimo renglón en
Xn
la matriz B. Luego la suma ahj Ckj es el determinante de B (desarrollado por el k-ésimo renglón).
j=1
Como B tiene dos renglones iguales entonces su determinante es cero. Por lo tanto
n
X
ahj Ckj = 0.
j=1

Este lema es utilizado en la demostración del teorema que sigue. Primero, veamos el siguiente ejemplo:

Ejemplo 3.14. Sea la matriz A del ejemplo anterior. Observemos la matriz que se obtiene de hacer
el producto de la matriz A por su adjunta:
      
2 −3 1 −2 −10 6 −26 0 0 1 0 0
A Adj(A) =  4 0 −2   6 −9 8  =  0 −26 0  = (−26)  0 1 0  =
3 −1 −3 −4 −7 12 0 0 −26 0 0 1
= (−26)I.

Puede verificarse fácilmente que −26 es el determinante de la matriz A. Por lo tanto

A Adj(A) = |A| I. J

Material de uso interno Mateu-Semitiel 94


CAPÍTULO 3. DETERMINANTES

Lo obtenido en el ejemplo anterior no es casual ya que se verifica para cualquier matriz cuadrada:

Teorema 3.12. Sea A = [aij ] una matriz cuadrada de orden n. Entonces

A Adj(A) = |A| I.

Demostración. Sea D = [dij ] la matriz producto de A por su adjunta Adj(A):


  
a11 a21 ... an1 C11 C21 ... Cn1
 a12 a22 ... an2   C12 C22 ... Cn2 
D = A Adj(A) =  .
  
.. .. ..   .. .. ..
 . . ... .  . . ... . 
a1n a2n ... ann C1n C2n ... Cnn

Por definición de producto de matrices:

dij = ai1 Cj1 + ai2 Cj2 + ... + ain Cjn . (3.3)

Si i = j la suma en (3.3) es |A| (desarrollado por el i-ésimo renglón) y si i 6= j, por Lema 3.1, la
suma en (3.3) es igual a 0, es decir

|A| si i = j
dij = ,
0 si i 6= j

luego  
|A| 0 ... 0
 0 |A| ... 0 
D = A Adj(A) =   = |A| I.
 
.. .. ..
 . . ... . 
0 0 ... |A|

El teorema anterior nos permite probar el siguiente importante resultado:

1
6 0 entonces A es invertible y A−1 =
Teorema 3.13. Si |A| = Adj(A).
|A|

Demostración. Del teorema anterior sabemos que AAdj(A) = |A| I. Dado que |A| =
6 0:
1 1
(AAdj(A)) = (|A| I) ,
|A| |A|

o bien    
1 1
A Adj(A) = |A| I,
|A| |A|
entonces  
1
A Adj(A) = I,
|A|
1
por lo que se concluye (Corolario 2.1), que A es una matriz invertible y su inversa es |A| Adj(A).

Material de uso interno Mateu-Semitiel 95


CAPÍTULO 3. DETERMINANTES

El Teorema 3.13 es el recı́proco del Teorema 3.11 (Si A es una matriz invertible entonces |A| =
6 0).
Ambos permiten concluir:

Teorema 3.14. Sea A una matriz cuadrada de orden n. Entonces:

A es invertible si y sólo si |A| =


6 0.

 
2 −3 1
Ejemplo 3.15. Considere la matriz A =  4 0 −2  del Ejemplo 3.13. Su adjunta es
3 −1 −3
 
−2 −10 6
Adj(A) =  6 −9 8  .
−4 −7 12

Dado que |A| = −26 6= 0, A es invertible. Su inversa es:


   
−2 −10 6 1/13 5/13 −3/13
1 1
A−1 = Adj(A) =  6 −9 8  =  −3/13 9/26 −4/13  . J
|A| −26
−4 −7 12 2/13 7/26 −6/13

Nota: Para obtener la matriz Adj(A) se requiere calcular n2 cofactores, es decir n2 determinantes de
(n − 1) × (n − 1). Por ejemplo, si n = 10 hay que hallar 100 determinantes de orden 9 × 9 y esto
lleva al cálculo de 8100 determinantes de 8 × 8... Debido a esta cantidad de cómputos casi no se usa
el Teorema 3.13 para el cálculo de A−1 , la reducción de la matriz aumentada [A : I] sigue siendo el
método a elegir. Sin embargo, el teorema es muy útil para demostrar propiedades de las inversas.
También para comprobar una fórmula para la solución de un sistema lineal cuadrado.

El siguiente teorema, denominado Regla de Cramer, es uno de los resultados más conocidos en la
historia de la Matemática. Durante muchos años fue fundamental en la enseñanza del Álgebra y de
la teorı́a de ecuaciones. Aunque se usa muy poco en la actualidad, debido al gran número de cálculos
requeridos, sigue siendo un resultado muy importante a los fines teóricos.

Teorema 3.15 (La regla de Cramer). Sea A una matriz cuadrada de orden n con deter-
minante distinto de cero. Entonces la única solución del sistema lineal Ax = b está dada
por
|A1 | |A2 | |An |
x1 = , x2 = , ... , xn =
|A| |A| |A|
donde Ai es la matriz que se obtiene al sustituir
 la i-ésima columna
 de A por el vector b. Es
decir, si en términos de sus columnas es A = a1 a2 ... an entonces
     
A1 = b a2 ... an , A2 = a1 b ... an , ... , An = a1 a2 ... b .

Material de uso interno Mateu-Semitiel 96


CAPÍTULO 3. DETERMINANTES

Demostración. Como |A| 6= 0 la matriz A es invertible. Por consiguiente Ax = b tiene la solución


1
única: x = A−1 b. Por Teorema 3.13, A−1 = Adj(A). Ası́:
|A|
 n
X

 Cj1 bj 
    j=1 
C11 C21 ... Cn1 b1 ..
 
 
 .. .. ..   ..   . 
   . . ... .  .   n 
−1 1 1    bi  = 1 
   X 
x=A b= Adj(A) b =  C1i C2i ... Cni Cji bj .

|A| |A|    ..  |A| 
  
 .. .. ..  j=1

 . . ... .  .   ..


C1n C2n ... Cnn bn  n .
 

 X 
 Cjn bj 
j=1

Dado que las matrices A y Ai difieren sólo en la i-ésima columna, los cofactores correspondientes
a esta columna en la matriz A, C1i , C2i ,..., Cni , son iguales a los cofactores de la i-ésima columna en
la matriz Ai . Por lo tanto, desarrollado por la i-ésima columna, es:
n
X n
X
|Ai | = bj Cji = Cji bj .
j=1 j=1

Ası́, el vector solución es:  


|A1 |
 .. 
 . 
1  
 |Ai |  ,
x=
|A|  . 

 .. 

|An |
|A1 | |A2 | |An |
y en consecuencia la única solución del sistema está dada por x1 = , x2 = ,..., xn = .
|A| |A| |A|

 2x − 3y + z = 1
Ejemplo 3.16. Sea el sistema lineal 4x − 2z = 2 .
3x − y − 3z = 0

 
2 −3 1
La matriz de coeficientes del sistema es A =  4 0 −2  y como |A| = −26 6= 0, el sistema
3 −1 −3
puede resolverse mediante la regla de Cramer. Se pueden verificar los siguientes resultados:

1 −3 1 2 1 1 2 −3 1
|A1 | = 2 0 −2 = −22, |A2 | = 4 2 −2 = −12 y |A3 | = 4 0 2 = −6.
0 −1 −3 3 0 −3 3 −1 0

Entonces la única solución del sistema es


|A1 | −22 11 |A2 | −12 6 |A3 | −6 3
x= = = , y= = = , z= = = .J
|A| −26 13 |A| −26 13 |A| −26 13

Material de uso interno Mateu-Semitiel 97


CAPÍTULO 3. DETERMINANTES

El Teorema 3.14 agrega un resultado a los del Teorema 2.12 visto en el capı́tulo 2:

Teorema 3.16. Sea A una matriz A de n × n. Entonces las siguientes proposiciones son
equivalentes:

1. |A| =
6 0.

2. A es invertible.

3. Ax = b es consistente con única solución para todo b ∈ Rn .

4. Ax = 0 tiene única solución la trivial.

5. A tiene n posiciones pivote.

6. A es equivalente (por renglones) a la matriz identidad I.

Demostración. Del Teorema 2.12 se sabe que (2), (3), (4), (5) y (6) son equivalentes. El Teorema 3.14
agrega la equivalencia entre (1) y (2).
Por lo tanto, (1), (2), (3), (4), (5) y (6) son equivalentes.

De la equivalencia (1) ⇔ (4) se deduce el siguiente resultado importante en relación a los sistemas
lineales cuadrados homogéneos:

El sistema lineal homogéneo cuadrado Ax = 0 tiene soluciones no triviales si y sólo si |A| = 0.

Ejemplo 3.17. Sean los sistemas homogéneos


 
 2x − 3y + z = 0  2x1 + 3x2 + x3 = 0
4x − 2z = 0 y x1 − x2 + 2x3 = 0
3x − y − 3z = 0 x1 + 4x2 − x3 = 0
 

2 −3 1
Dado que 4 0 −2 = −26 6= 0 entonces el primer sistema tiene única solución x = y = z = 0
3 −1 −3
(solución trivial).
2 3 1
En cambio 1 −1 2 = 0 por lo cual el segundo sistema tiene soluciones no triviales.J
1 4 −1

Ejercicios

1. Utilice la matriz adjunta para calcular la inversa, si existe, de cada una de las siguientes matrices:

Material de uso interno Mateu-Semitiel 98


CAPÍTULO 3. DETERMINANTES

   
2 3 1 −2
a) A = b) B =
1 −9 −2 4
   
1 1 1 2 1 −1
c) C =  −2 −1 1  d) D =  0 1 −1 
1 4 0 1 −1 2

2. Cuando sea posible, aplique la regla de Cramer para resolver los siguientes sistemas de ecuaciones
lineales:

2x − 9y = 6
a)
x + 3y = 7

 2x1 −x2 = 0
b) x1 +x2 −x3 = 1
3x1 −4x2 +3x3 = 2


 2x −y +3z = 1
c) x −y +2z = 0
3x −2y +5z = −3


 x1 +x2 +x3 = −5
d) x1 −x2 +x3 = −1
2x1 −x2 +3x3 = −3

3. Aplique la regla de Cramer para hallar la solución del sistema lineal:



cos θ x − sen θ y = a
sen θ x + cos θ y = b

4. Detemine el o los valores de a de manera que el sistema lineal



 ax1 +x2 −x3 = 1
2x2 +2x3 = −1
ax1 +3x2 −x3 = 0

se pueda resolver mediante la regla de Cramer.


5. Sea A una matriz cuadrada de orden n ≥ 2. Pruebe los siguientes resutados:
a) |Adj(A)| = |A|n−1 .
b) A es invertible si y sólo si Adj(A) es invertible.
6. Scilab. Sea A una matriz cuadrada. Para calcular el determinante de A se usa el comando
“det(A)” una vez ingresada la matriz A.

Sean las matrices


   
0,1 −1 2,3 3 0 −1 2 3
 1 9 −1 0,2   1 9 −1 0,2 
A=
 1,1
 , B= 
8 1,3 3,2   1,1 8 0,5 3,2 
0 5 −1 9 0 5 −1 9
 1 1   
3 2 −4 0 1 1 −1 0
 1 −1 1 
1 
3  , D = 3 2 0,2 0,1 
C=
 1 3

2 0 −4 0   5 0,1 2 2 
1
1 −2 2 −1 1 −0,1 2 −0,5

Material de uso interno Mateu-Semitiel 99


CAPÍTULO 3. DETERMINANTES

a) Calcule los determinantes de cada una de las matrices dadas. ¿Cuáles de esas matrices son
invertibles?.
b) Calcule: A2 , −3AB t , |AB| − |CD|, |ABC| y D−2 .
 
0
 −1 
c) Aplique la regla de Cramer para resolver el sistema lineal Ax = b siendo b = 
 0,2 .

0,1

Material de uso interno Mateu-Semitiel 100


Capı́tulo 4

ESPACIOS VECTORIALES

4.1. Espacios vectoriales


En la sección 2.1, se definió el conjunto Rn , las operaciones suma y multiplicación por escalares y en
el Teorema 2.1 se establecieron las propiedades fundamentales de dichas operaciones. Estas mismas
propiedades se cumplen en muchos otros contextos. Por ejemplo la suma y la multiplicación por
escalares en el conjunto de las matrices de m × n (véase Teorema 2.2).
Se generalizará esta situación para definir un nuevo concepto. Cualquier conjunto de objetos jun-
tamente con dos operaciones que satisfacen las mismas propiedades que la suma y multiplicación por
escalares definidas en Rn se denomina espacio vectorial.
Los espacios vectoriales son el corazón del Álgebra Lineal y en este concepto se han sintetizado
varias aspectos fundamentales de la Matemática y otras disciplinas. La idea de dotar a ciertos conjuntos
con un tipo particular de estructura hizo posible la creación de esta noción matemática.

Material de uso interno Mateu-Semitiel 101


CAPÍTULO 4. ESPACIOS VECTORIALES

Definición (Espacio vectorial real). Sea V un conjunto y dos operaciones llamadas suma
y multiplicación por escalar. La suma es una regla que asocia a cada par de elementos u, v
de V, un objeto u + v, llamado suma de u y v. La multiplicación por un escalar es una regla
que asocia a cada par compuesto por un escalar real k y un elemento u de V un objeto, ku,
llamado producto de k por u.
La terna formada por el conjunto V y las dos operaciones es un espacio vectorial real si se
verifican las diez propiedades siguientes llamadas axiomas de un espacio vectorial:

(S1 ) u + v está en V, para todo u, v en V.

(S2 ) u + v = v + u, para todo u, v en V.

(S3 ) (u + v) + w = u + (v + w), para todo u, v, w en V.

(S4 ) Existe un elemento distinguido, 0, en V tal que para cualquier u en V,

u + 0 = 0 + u = u.

(S5 ) Para cada u en V, existe un elemento −u en V tal que

u + (−u) = (−u) + u = 0.

(M1 ) au está en V, para todo u en V y todo a en R.

(M2 ) a (u + v) = au + av, para todo u, v en V y todo a en R.

(M3 ) (a + b) u = au + bu, para todo u en V y todo a, b en R.

(M4 ) a (bu) = (ab) u, para todo u en V y todo a, b en R.

(M5 ) 1u = u, para todo u en V.

A los elementos del conjunto V se los llama vectores. El elemento 0, es llamado vector cero o
simplemente el cero del espacio vectorial y −u se llama vector opuesto de u. Se puede demostrar
que en un espacio vectorial hay un único 0 y que cada vector u de V, tiene un único opuesto (véase
Ejercicio 4).
(S1 ) y (M1 ) son las propiedades de cerradura para la suma y multiplicación por escalares,
respectivamente. También se dice que el conjunto V es cerrado bajo dichas operaciones.
(S2 ) y (S3 ) son las propiedades conmutativa y asociativa de la suma, respectivammente.
(M2 ) y (M3 ) son propiedades distributivas.
Debe observarse que en un espacio vectorial el conjunto de vectores V es no vacı́o ya que de acuerdo
a (S4 ) debe contener, al menos, un elemento (el vector cero).
Si en la definición anterior se considera que los escalares son números complejos se tiene la definición
de espacio vectorial complejo. En este texto todos los escalares que se utilizan son números reales,
por lo tanto en lo que sigue un espacio vectorial será un espacio vectorial real.
Debe tenerse presente que en la definición no se especifica la naturaleza de los llamados vectores
ni la de las operaciones. Cualquier clase de objetos puede “servir” como vector. Para comprobar que

Material de uso interno Mateu-Semitiel 102


CAPÍTULO 4. ESPACIOS VECTORIALES

un determinado conjunto V de objetos con dos operaciones, una entre elementos del conjunto (suma)
y otra entre un escalar y un elemento del conjunto (multiplicación por escalar) es un espacio vectorial,
lo único que se requiere es que se satisfagan los 10 axiomas.
Para la verificación de estos axiomas puede ser conveniente seguir el siguiente orden:

1. Verificar que ambas operaciones son cerradas en V: propiedades de cerradura (S1 ) y (M1 ).

2. Determinar la existencia de un elemento que actúe como cero: axioma (S4 ).

3. Verificar la existencia de un elemento opuesto para cada elemento de V: axioma (S5 ).

4. Comprobar la vigencia de los restantes axiomas.

Los ejemplos que siguen dan una idea de la diversidad de espacios vectoriales posibles. Los dos
primeros ejemplos son los modelos usados para tomar como axiomas, en la definición de espacio
vectorial, las propiedades que verifican las operaciones habituales de suma y multiplicación por un
escalar en dichos conjuntos.

Ejemplo 4.1. El espacio vectorial Rn .


El conjunto V = Rn con las operaciones habituales o estándar de suma y multiplicación por escalar
es un espacio vectorial. En efecto:

1. La suma de vectores y la multiplicación por escalar habituales en Rn son, por definición opera-
ciones cerradas en Rn (véase la sección 2.1). Por lo tanto se satisfacen (S1 ) y (M1 ).

2. El vector cero de Rn es el cero de este espacio vectorial. Luego, se satisface (S4 ).

3. Para cada u de Rn , el vector −u es su vector opuesto. Por lo tanto se satisface (S5 ).

4. Todos los restantes axiomas se cumplen de acuerdo al Teorema 2.1.

Este espacio vectorial es el denominado espacio vectorial Rn o simplemente el espacio Rn .J

Ejemplo 4.2. El espacio vectorial Mmn .


El conjunto V = Mmn de todas las matrices reales de m × n, con las operaciones estándar de suma y
multiplicación por escalar es un espacio vectorial. En efecto:

1. La suma de matrices y la multiplicación por escalar habituales en Mmn son por definición ope-
raciones cerradas en Mmn (véase la sección 2.2). Por lo tanto se satisfacen (S1 ) y (M1 ).

2. La matriz cero, Om×n , es el cero de este espacio vectorial. Luego, se satisface (S4 ).

3. Para cada matriz A de Mmn , la matriz −A es su matriz opuesta. Por lo tanto se satisface (S5 ).

4. Todos los restantes axiomas se cumplen de acuerdo al Teorema 2.2.

Este espacio vectorial es el denominado espacio vectorial Mmn o simplemente el espacio Mmn .
En este contexto, un “vector” es una matriz de m × n.
En particular si m = n se denotará simplemente Mn .J

Material de uso interno Mateu-Semitiel 103


CAPÍTULO 4. ESPACIOS VECTORIALES

Ejemplo 4.3. El espacio vectorial Pn .


El conjunto V = Pn formado por el polinomio cero y todos los polinomios a coeficientes reales de grado
menor o igual a n, con las operaciones estándar de suma de polinomios y multiplicación por escalar
es un espacio vectorial.
Un polinomio genérico en Pn es de la forma

p = a0 + a1 x + ... + an−1 xn−1 + an xn ,

donde a0 , a1 , ..., an son números reales.


Las operaciones estándar de suma y multiplicación por escalar están definidas por:
Si p = a0 + a1 x + ... + an−1 xn−1 + an xn y q = b0 + b1 x + ... + bn−1 xn−1 + bn xn , entonces:
La suma de p y q es

p + q = (a0 + b0 ) + (a1 + b1 ) x + ... + (an−1 + bn−1 ) xn−1 + (an + bn ) xn .

El producto de un escalar c por el polinomio p es

cp = (ca0 ) + (ca1 ) x + ... + (can−1 ) xn−1 + (can ) xn

1. La suma de dos polinomios de Pn es un polinomio de Pn ya que p + q es de la forma c0 + c1 x +


c2 x2 + ... + cn xn donde ci = ai + bi es un número real, para todo i = 0, 1, ..., n.
También cp es un polinomio de Pn pues cp es de la forma c0 + c1 x + c2 x2 + ... + cn xn donde
ci = cai es un número real, para todo i = 0, 1, ..., n.
Por lo tanto se verifican (S1 ) y (M1 ).

2. El polinomio cero, 0 = 0 + 0x + ... + 0xn es tal que p + 0 = 0 + p para todo p ∈ Pn . En efecto,


p + 0 = (a0 + 0) + (a1 + 0) x + ... + (an + 0) xn = a0 + a1 x + ... + an xn = p. Similarmente,
0 + p = p. Luego, se satisface el axioma (S4 ).

3. Es fácilmente comprobable que para cada polinomio p = a0 + a1 x + ... + an xn en Pn el polinomio


−p = (−a0 ) + (−a1 ) x + ... + (−an ) xn es un polinomio en Pn tal que p + (−p) = 0 = (−p) + p.
Por lo tanto se verifica el axioma (S5 ).

4. Probaremos el axioma (M3 ), dejando como ejercicio la prueba de los cinco restantes axiomas.
Sean a, b ∈ R y p = a0 + a1 x + ... + an xn un polinomio en Pn . Debe probarse que es válida la
siguiente igualdad: (a + b) p = ap + bp. En efecto:

(a + b) p = (a + b) (a0 + a1 x + ... + an xn ) = [Def. multiplicación por escalar]

= ((a + b) a0 ) + ((a + b) a1 ) x + ... + ((a + b) an ) xn = [Prop. distributiva en R]

= (aa0 + ba0 ) + (aa1 + ba1 ) x + ... + (aan + ban ) xn = [Def. suma de polinomios]

= (aa0 + aa1 x + ... + aan xn ) + (ba0 + ba1 x + ... + ban xn ) = [Def. multiplicación por escalar]

= a (a0 + a1 x + ... + an xn ) + b (a0 + a1 x + ... + an xn ) =


= ap + bp.

Este espacio vectorial es el denominado espacio vectorial Pn o simplemente el espacio Pn .


En este contexto, un polinomio p = a0 + a1 x + ... + an xn es un vector de este espacio vectorial.J

Material de uso interno Mateu-Semitiel 104


CAPÍTULO 4. ESPACIOS VECTORIALES

Actividad 4.1. Demuestre los axiomas (S2 ), (S3 ), (M2 ), (M4 ) y (M5 ) del Ejemplo 4.3.

Ejemplo 4.4. El espacio vectorial P.


El conjunto V = P formado por todos los polinomios a coeficientes reales, con las operaciones estándar
de suma de polinomios y multiplicación por escalar, es un espacio vectorial.
Las operaciones estándar de suma y multiplicación por escalar están definidas de la siguiente
manera: si p = a0 + a1 x + ... + an xn y q = b0 + b1 x + ... + bm xm son dos polinomios de P entonces la
suma de p y q es:

p + q = (a0 + b0 ) + (a1 + b1 ) x + ... + (an + bn ) xn si m = n,


p + q = p0 + q si m 6= n
donde p0 = a0 + a1 x + ... + an xn + ... + 0xm−1 + 0xm , suponiendo m > n. El producto del escalar c
por el polinomio p es:
cp = (ca0 ) + (ca1 ) x + ... + (can ) xn .
Este espacio vectorial es el denominado espacio vectorial P o simplemente el espacio P. J

Ejemplo 4.5. El espacio vectorial F (D).


El conjunto V = F (D) de todas las funciones reales definidas en D donde D es un subconjunto de R
(por ejemplo un intervalo [a, b] o el propio R) con las operaciones estándar de suma de funciones y
multiplicación por escalar es un espacio vectorial.
Las operaciones estándar de suma y multiplicación por escalar están definidas del siguiente modo:
si f y g son funciones de F (D):
La suma de f y g es la función f + g tal que

(f + g) (x) = f (x) + g(x), para todo x ∈ D.

El producto de un escalar c por la función f es la función cf tal que

(cf ) (x) = cf (x), para todo x ∈ D.

1. Las funciones f + g y cf son funciones reales ya que f (x) + g(x) y cf (x) son números reales.
Además como f y g están definidas para todo x ∈ D, también f + g y cf están definidas en
D. Ası́, ambas operaciones son cerradas en F (D) y por lo tanto se verifican los axiomas (S1 ) y
(M1 ).

2. La función constante cero, O, cuya ley es O(x) = 0 para todo x ∈ D, es el vector cero de este
espacio vectorial. Puede verificarse fácilmente que f + O = O + f = f para todo f en F (D). En
efecto para todo x ∈ D,

(f + O) (x) = f (x) + O(x) = f (x) + 0 = f (x),

y similarmente
(O + f ) (x) = f (x).
Por lo tanto, se satisface el axioma (S4 ).

Material de uso interno Mateu-Semitiel 105


CAPÍTULO 4. ESPACIOS VECTORIALES

3. Es fácilmente comprobable que si f es una función en F (D) entonces la función −f cuya ley es

(−f ) (x) = −f (x),

es una función en F (D) tal que f + (−f ) = (−f ) + f = O. Luego, se satisface el axioma (S5 ).
La verificación de los restantes axiomas se deja como ejercicio.
Este espacio vectorial es el denominado espacio vectorial F(D) o simplemente el espacio F(D).
En este contexto, una función real definida en D es un vector de este espacio vectorial.J

Ejemplo 4.6. El espacio vectorial cero {0}.


Sea V = {α}, un conjunto que consta del único objeto α. Las únicas operaciones suma y multiplicación
por escalar que se pueden dar de modo que sean cerradas en V son las definidas por:

α + α = α,

cα = α, para todo c ∈ R.
Claramente α es el vector cero y el opuesto de α es el mismo α. Los demás axiomas se verifican de
manera trivial. Por ejemplo para probar el axioma (M4 ), dado que cα = α para todo c, se tiene que

a (bα) = aα = α,

y también
(ab) α = α.
Luego, a (bα) = (ab) α para todo a y b en R.
Los espacios vectoriales unitarios difieren sólo en el único objeto que constituye el conjunto V. Este
objeto es trivialmente el cero de dicho espacio. Por esta razón se denomina espacio vectorial cero a
todo espacio vectorial unitario y a su único elemento se lo simboliza 0.J

Ejemplo 4.7. El conjunto formado por el polinomio cero y todos los polinomios a coeficientes reales
de grado 2, con las operaciones estándar de suma de polinomios y multiplicación por escalar, no es un
espacio vectorial.
En efecto, la suma de dos polinomios de grado 2 no es necesariamente un polinomio de grado 2.
Por ejemplo si p = 2 + 3x − 5x2 y q = x + 5x2 entonces p + q = 2 + 4x que no es un polinomio de
grado 2. Por lo tanto no se satisface el axioma de cerradura de la suma.J

Ejemplo 4.8. El conjunto R2 con la suma habitual pero con la multiplicación por escalar definida
por
c (x, y) = (cx, 0) ,
no es un espacio vectorial.
Si bien se satisfacen los primeros cinco axiomas: (S1 ), (S2 ), (S3 ), (S4 ) y (S5 ), ya que la suma es la
habitual en R2 , y la operación multiplicación por escalar ası́ definida es cerrada (se satisface (M1 )), es
fácilmente comprobable que no se satisface el axioma (M5 ) ya que

1 (x, y) = (1x, 0) = (x, 0) ,

y por lo tanto si y 6= 0 entonces 1 (x, y) 6= (x, y).J

Material de uso interno Mateu-Semitiel 106


CAPÍTULO 4. ESPACIOS VECTORIALES

Nota: Es importante observar, como la definición de espacio vectorial establece, que éste se compone
de un conjunto V de “vectores”, un conjunto de escalares y dos operaciones con ciertas propiedades
especiales.
Un mismo conjunto V puede ser el conjunto de objetos de dos espacios vectoriales distintos, es
decir, bajo operaciones diferentes. Cuando no hay posibilidad de confusión, en todo lo que sigue, se
denotará simplemente con V a un espacio vectorial arbitrario.

De los axiomas de la definición de espacio vectorial, se deducen las siguientes propiedades:

Teorema 4.1. Sean V un espacio vectorial, u un vector de V y c un escalar. Entonces:

1. 0u = 0 3. (−1)u = −u

2. c0 = 0 4. Si cu = 0 entonces c = 0 ó u = 0

Demostración. Se probará la propiedad (1) y quedará como ejercicio la prueba de las demás propie-
dades. Sea u un vector de V. Como 0 + 0 = 0 entonces

0u = (0 + 0) u, (4.1)

y por el axioma (M3 )

(0 + 0) u = 0u + 0u. (4.2)

Luego, de (4.1) y (4.2) se tiene:

0u + 0u = 0u.

Por el axioma (S5 ), el vector 0u tiene un opuesto, −0u. Al sumar este vector a los dos miembros
de la igualdad anterior se obtiene:

(0u + 0u) + (−0u) = 0u + (−0u) ,

o bien por el axioma (S3 ):

0u + (0u + (−0u)) = 0u + (−0u) ,

por el axioma (S5 ):

0u + 0 = 0,

y por el axioma (S4 )

0u = 0.

Nota: Cabe la siguiente importante observación: En un espacio vectorial real el conjunto V consta de
un número infinito de vectores o bien de un único vector (véase Ejercicio 8).

Material de uso interno Mateu-Semitiel 107


CAPÍTULO 4. ESPACIOS VECTORIALES

Ejercicios

1. Demuestre lo enunciado en el Ejemplo 4.4.


2. Demuestre los restantes axiomas del Ejemplo 4.5.
3. Determine si el conjunto dado V con las operaciones indicadas es un espacio vectorial.
a) V es el conjunto formado por todos los vectores de R3 que tienen la tercera componente
cero (plano xy) con las operaciones habituales de suma y multiplicación por escalar en R3 .
b) V es el conjunto de las matrices de 2 × 2 invertibles, con las operaciones habituales de suma
y multiplicación por escalar definidas en M2 .
c) V es el conjunto de todos los polinomios a coeficientes reales con términos constantes no
negativos, con las operaciones de suma y multiplicación por escalar habituales en P.
d ) V es el conjunto R2 , con la suma habitual pero con la mutiplicación por escalar definida
por c (x, y) = (0, 0).
e) V es el conjunto de todas las funciones reales derivables en R, con las operaciones de suma
y multiplicación por escalar habituales en F (R).
4. Demuestre que en un espacio vectorial V, hay un único vector cero y para cada vector u de V,
hay un único opuesto.
5. Demuestre las restantes propiedades del Teorema 4.1.
6. Sea V un espacio vectorial y u, v y w vectores de V. Demuestre que si u + w = v + w entonces
u = v.
7. Sea V un espacio vectorial y u y v vectores de V y a un escalar. Demuestre que si au = av
entonces a = 0, o bien u = v.
8. Demuestre que el único espacio vectorial que tiene un número finito de vectores es el espacio
vectorial cero. Es decir, todo espacio vectorial (con escalares reales) contiene infinitos vectores o
es el espacio vectorial cero.

4.2. Subespacios vectoriales


Puede verificarse (ejercicio 3.a. de la sección anterior) que el conjunto formado por todos los vectores
de R3 que tienen la tercera componente cero (plano xy) con la suma y multiplicación por escalar
habituales, satisface los diez axiomas de un espacio vectorial. Ası́ el plano xy es un subconjunto de R3
que es, a su vez, un espacio vectorial respecto a las mismas operaciones del espacio vecrorial R3 . Se
dirá que el plano xy es un subespacio del espacio R3 .
Se tiene entonces la siguiente definición:

Definición (Subespacio vectorial). Sea V un espacio vectorial. Un subespacio vectorial,


o simplemente un subespacio, de V es un subconjunto no vacı́o, W, de V que, bajo las ope-
raciones de suma y multiplicación por escalar definidas en V es, en sı́ mismo, un espacio
vectorial.

Material de uso interno Mateu-Semitiel 108


CAPÍTULO 4. ESPACIOS VECTORIALES

Ejemplo 4.9. Claramente Pn es un subespacio del espacio P ya que Pn está contenido en P y es un


espacio vectorial con las operaciones habituales de suma de polinomios y multiplicación por escalar.J

Para probar que un conjunto W con dos operaciones, suma y multiplicación por escalar, es un espacio
vectorial, se deben verificar los 10 axiomas de la definición de espacio vectorial. Sin embargo, si W
es parte de un conjunto mayor V del que ya se sabe que es un espacio vectorial con esas mismas
operaciones, entonces no es necesario verificar ciertos axiomas para W porque se “heredan” de V. Por
ejemplo no es necesario verificar que u + v = v + u (axioma (S2 )) en W porque esto se cumple para
todos los vectores en V y, en consecuencia, para todos los vectores en W. Es fácil ver que los otros
axiomas “heredados” por W de V son: (S3 ), (M2 ), (M3 ), (M4 ) y (M5 ). Por lo tanto para demostrar
que un conjunto W es un subespacio de un espacio vectorial V sólo es necesario verificar los axiomas
(S1 ), (S4 ), (S5 ) y (M1 ), que son las dos cerraduras, la existencia de un vector cero y de los opuestos.
El siguiente teorema hace ver que incluso se puede omitir la verificación de los axiomas (S4 ) y (S5 ).

Teorema 4.2 (Caracterización de un subespacio). Si W es un subconjunto no vacı́o de un


espacio vectorial V, entonces W es un subespacio de V si y sólo si W es cerrado bajo la suma
y bajo la multiplicación por escalar definidas en V. Es decir:

(a) Si u y v son vectores de W, entonces u + v está en W.

(b) Si u es un vector de W y k es un número real, entonces ku está en W.

Demostración. Si W es un subespacio de V entonces, por definición de subespacio, se satisfacen todos


los axiomas de un espacio vectorial; en particular se cumplen los axiomas (S1 ) y (M1 ), que son las
condiciones (a) y (b), respectivamente.
Recı́procamente, debe probarse que W es un subespacio de V sabiendo que se cumplen las condi-
ciones (a) y (b). Para ello, debe demostrarse que W satisface los 10 axiomas de espacio vectorial con
las operaciones suma y multiplicación por escalar definidas en V.
Los axiomas (S1 ) y (M1 ) se satisfacen por hipótesis ya que son las condiciones (a) y (b), respecti-
vamente. Los axiomas (S2 ), (S3 ), (M2 ), (M3 ), (M4 ) y (M5 ) se satisfacen inmediatamente en W dado
que se verifican por todos los vectores de V. Por lo tanto, para completar la demostración basta con
verificar que los axiomas (S4 ) y (S5 ) se satisfacen en W.
Sea u un vector cualquiera en W (W es no vacı́o). Por la condición (b), tomando k = 0, el vector
0u está en W. Dado que u está en V y V es un espacio vectorial, por la propiedad 1 del Teorema 4.1,
resulta 0u = 0 (el elemento cero de V). Luego, el 0 de V es un vector de W y como v + 0 = v = 0 + v
para todo v en W, resulta que el 0 de V es el vector cero de W. Por lo tanto el axioma (S4 ) se verifica
en W.
Dado cualquier vector u en W, por la condición (b), (−1) u está en W. Dado que u está en V y V
es un espacio vectorial, por la propiedad 3 del Teorema 4.1, (−1) u = −u. Luego, para todo u en W,
−u está en W y como u + (−u) = 0 = (−u) + u, resulta que −u es el opuesto de u en W. De esta
forma, se ha probado que se satiface el axioma (S5 ) en W.

La Figura 4.1 representa lo que establece el teorema de caracterización de un subespacio:

Material de uso interno Mateu-Semitiel 109


CAPÍTULO 4. ESPACIOS VECTORIALES

Figura 4.1: W es un subespacio de V

Un resultado inmediato de la definición de subespacio vectorial es el siguiente:

Todo subespacio de un espacio vectorial V contiene al vector cero de V.

En efecto, si W es un subespacio de V entonces W es no vacı́o y es cerrado bajo la multiplicación por


escalares, por lo tanto (como se probó en el teorema anterior), el vector cero de V está en W.
Este hecho con frecuencia facilita ver que un cierto subconjunto de V no es un subespacio. Es decir,
si un subconjunto de un espacio vectorial V no contiene al vector cero, entonces no es un subespacio.
Por ejemplo, el subconjunto W de R3 formado por todos los puntos (x, y, z) de R3 que satisfacen
la ecuación (un plano en el espacio):

x + 2y − 3z + 1 = 0,

no es un subespacio de R3 . En efecto, el vector cero de R3 , 0 = (0, 0, 0), no satisface la ecuación.


Es claro que la existencia del vector cero en el conjunto W no es condición suficiente para que W
sea subespacio de V. ¡Deben verificarse las dos cerraduras en W !
Sea, por ejemplo, el subconjunto W de R2 formado por todos los puntos (x, y) de R2 tales que

x2 − y 2 = 0.

Es fácil ver que el vector cero 0 = (0, 0) de R2 satisface la ecuación, por lo que 0 está en W . Pero
W no es cerrado bajo la suma. Si se consideran los elementos u = (1, −1) y v = (1, 1) de W , su suma
u + v = (2, 0) no es un elemento de W . Luego, W no es un subespacio de R2 .

Ejemplo 4.10. Subespacios triviales y subespacios propios


En todo espacio vectorial V el subconjunto unitario {0}, es un subespacio de V, ya que en él se verifican
las dos cerraduras (a) y (b) del Teorema 4.2: 0 + 0 = 0 y k0 = 0 para todo k real.

Material de uso interno Mateu-Semitiel 110


CAPÍTULO 4. ESPACIOS VECTORIALES

Es inmediato, por definición de subespacio, que el propio V es un subespacio de sı́ mismo.


Ası́, todo espacio vectorial V contiene los subespacios {0} y V (que coinciden si V = {0}). Dichos
subespacios son los llamados subespacio triviales de V.
Si V 6= {0}, además de los subespacios triviales, hay otros subespacios mas interesante, son los
llamados subespacios propios de V.J

Nota: A menos que se indiquen otras operaciones, cuando se mencionen a los espacios vectoriales con
vectores en Rn , P, Pn , Mmn o F(D) se entenderá que son los espacios vectoriales con respecto a las
operaciones habituales, como se definieron en la Sección 4.1.

Ejemplo 4.11. Todo plano que contiene al origen es un subespacio de R3 .


Sea W el conjunto de puntos (x, y, z) de R3 que satisfacen la ecuación

ax + by + cz = 0,

donde a, b y c son constantes reales no todas cero.


Claramente W es un subconjunto no vacı́o de R3 dado que 0 = (0, 0, 0) está en W.
Por otro lado, sea un escalar k y dos puntos u = (x1 , y1 , z1 ) y v = (x2 , y2 , z2 ) del conjunto W, es
decir puntos que satisfacen la ecuación ax + by + cz = 0. Para demostrar que W es cerrado bajo la
suma, se debe probar que u + v = (x1 + x2 , y1 + y2 , z1 + z2 ) está en W. Dado que:

a (x1 + x2 ) + b (y1 + y2 ) + c (z1 + z2 ) = ax1 + ax2 + by1 + by2 + cz1 + cz2 =


= (ax1 + by1 + cz1 ) + (ax2 + by2 + cz2 ) =
= 0 + 0 = 0,

entonces u + v es un punto de W puesto que satisface la ecuación del plano.


De manera similar para probar que W es cerrado bajo la multiplicación por escalares, debe demos-
trarse que ku = (kx1 , ky1 , kz1 ) está en W. Como:

a (kx1 ) + b (ky1 ) + c (kz1 ) = k (ax1 ) + k (by1 ) + k (cz1 ) = k (ax1 + by1 + cz1 ) = k (0) = 0,

entonces ku satisface la ecuación del plano y por lo tanto es un punto de W.


Ası́, W es cerrado bajo la suma y la multiplicación por escalares y por lo tanto es un subespacio
de R3 .J

Actividad 4.2. Pruebe que toda recta en el espacio que contiene al origen de coordenadas es un
subespacio de R3 .

Actividad 4.3. Pruebe que toda recta en el plano que contiene al origen de coordenadas es un
subespacio de R2 .

Material de uso interno Mateu-Semitiel 111


CAPÍTULO 4. ESPACIOS VECTORIALES

Ejemplo 4.12. El conjunto solución de un sistema lineal homogéneo de m ecuaciones con


n incógnitas es un subespacio de Rn .
Se facilitará la demostración utilizando la forma matricial del sistema, Ax = 0, donde A es la matriz
de m × n de coeficientes y x es el vector de incógnitas.
Claramente, el conjunto solución de Ax = 0 es no vacı́o ya que el vector 0 de Rn es solución del
sistema. Por otro lado, sean x1 y x2 soluciones de Ax = 0 y c un escalar, es decir Ax1 = 0 y Ax2 = 0.
Entonces:

A (x1 + x2 ) = Ax1 + Ax2 = 0 + 0 = 0,


lo que prueba que x1 + x2 es también solución del sistema. Además:

A (cx1 ) = c (Ax1 ) = c0 = 0,

por lo que cx1 es solución del sistema. Se ha probado que el conjunto solución de Ax = 0 es cerrado
bajo la suma y la multiplicación por escalares y por lo tanto es un subespacio de Rn .J

Actividad 4.4. ¿Es el conjunto de soluciones de un sistema lineal consistente de m ecuaciones con n
incógnitas, Ax = b con b 6= 0, un subespacio de Rn ?

Ejemplo 4.13. Sea V un espacio vectorial y u un vector fijo de V. Se mostrará que el conjunto W
de todos los múltiplos escalares de u:

W = {cu : c ∈ R}

es un subespacio de V.
En efecto, W no es vacı́o puesto que si c = 0 entonces 0u = 0 es un elemento de W.
Por otro lado, sean el escalar k y los vectores v y w del conjunto W es decir v = au y w = bu
con a y b en R. Para demostrar que W es cerrado bajo la suma, se debe probar que v + w está en W.
Dado que:
v + w = au + bu = (a + b) u,
entonces v + w es un múltiplo escalar de u.
De manera similar para probar que W es cerrado bajo la multiplicación por escalar, debe demos-
trarse que kv está en W. Como:
kv = k (au) = (ka) u,
entonces kv es un múltiplo escalar de u.
Nótese que las rectas en el plano o en el espacio que contienen al origen de coordenadas, constituyen
un caso particular de este ejemplo para V = R2 o R3 , respectivamente. J

Ejemplo 4.14. Sea W el conjunto de los polinomios p = a + bx + cx2 de P2 tales que a + 2b = c. Se


mostrará que W es un subespacio de P2 .
Es fácil ver que W es un subconjunto no vacı́o de P2 . Por ejemplo, el polinomio cero de P2 ,
O = 0 + 0x + 0x2 , pertenece a W ya qye satisface la condición requerida: 0 + 2(0) = 0. Otros
polinomios de W son, por ejemplo: 2 − 5x − 6x2 y 1 + x2 .

Material de uso interno Mateu-Semitiel 112


CAPÍTULO 4. ESPACIOS VECTORIALES

Por otro lado, sea k un escalar, y dos polinomios p = a1 + b1 x + c1 x2 y q = a2 + b2 x + c2 x2 de


W , es decir polinomios tales que a1 + 2b1 = c1 y a2 + 2b2 = c2 . Para verificar si W es cerrado bajo la
suma, debe analizarse si el polinomio p + q = (a1 + a2 ) + (b1 + b2 ) x + (c1 + c2 ) x2 satisface la condición
requerida. Dado que:

(a1 + a2 ) + 2 (b1 + b2 ) = a1 + a2 + 2b1 + 2b2 = (a1 + 2b1 ) + (a2 + 2b2 ) = c1 + c2 ,

se concluye que p + q es un polinomio de W .


Además, debe verificarse que W es cerrado bajo la multiplicación por escalares. Para ello, se debe
analizar si kp = (ka1 ) + (kb1 ) x + (kc1 ) x2 , es un polinomio de W . Como:

ka1 + 2 (kb1 ) = k (a1 + 2b1 ) = kc1 ,

entonces kp está en W .
Se ha probado que el conjunto W es un subespacio de P2 .J

  
a −b 0
Ejemplo 4.15. W = : a, b ∈ R es un subespacio de M23 .
b 0 2a
En efecto, la matriz cero O de M23 está en W (a = b = 0) por lo que W es un subconjunto no
vacı́o de M23 . Otras matrices de W son, por ejemplo:
 √
2 − 21 0
  
− 3 −2 0√
1 y .
2 0 4 2 0 −2 3
   
a1 −b1 0 a2 −b2 0
Sean las matrices A = y B = de W y el número real k.
b1 0 2a1 b2 0 2a2
Entonces:
     
a1 −b1 0 a2 −b2 0 a1 + a2 −b1 − b2 0+0
A+B = + = =
b1 0 2a1 b2 0 2a2 b1 + b2 0+0 2a1 + 2a2
 
a1 + a2 − (b1 + b2 ) 0
= ,
b1 + b2 0 2 (a1 + a2 )

por lo que A + B tiene la forma de las matrices de W.


En cuanto a la multiplicación por escalares,
     
a1 −b1 0 k (a1 ) k (−b1 ) k (0) ka1 − (kb1 ) 0
kA = k = = ,
b1 0 2a1 k (b1 ) k (0) k (2a1 ) kb1 0 2 (ka1 )

y por lo tanto kA es una matriz de W.


Luego, W es cerrado bajo la suma y la multiplicación por escalares por lo cual es un subespacio
de M23 .J

Ejemplo 4.16. El conjunto C [a, b] formado por todas las funciones reales continuas en el intervalo
cerrado [a, b], es un subespacio de F [a, b].
En efecto, la función constante cero, O, de F [a, b], O(x) = 0 para toda x ∈ [a, b], es una función
continua. Por lo tanto, O es una función de C [a, b].

Material de uso interno Mateu-Semitiel 113


CAPÍTULO 4. ESPACIOS VECTORIALES

Por otro lado, sean f y g funciones de C [a, b] y k un número real. Del Cálculo se sabe que la suma
de funciones continuas en un conjunto es una función continua en dicho conjunto, por lo que f + g
está en C [a, b].
Además, el producto de una constante k por una funnción continua f en un conjunto es una función
continua en dicho conjunto, de lo que se tiene que kf está en C [a, b].
Ası́, C [a, b] es cerrado bajo la suma y la multiplicación por escalares por lo cual es un subespacio
de F [a, b] . J

Nota: Como se probó anteriormente, el conjunto

W = (x, y) ∈ R2 : x2 − y 2 = 0


no es un subespacio de R2 . Para ello, se mostró un par de elementos de W cuya suma no está en W .


En general, para probar que un subconjunto W de un espacio vectorial V no es un subespacio de
V basta mostrar una de las siguientes:

que el 0 de V no está en W ,

un par de elementos u y v de W cuya suma u + v no esté en W (no se cumple la cerradura de


W bajo la suma),

un elemento u de W y un escalar k, cuyo producto ku no esté en W (no se cumple la cerradura


de W bajo la multiplicación por escalares).

Los siguientes son ejemplos de subconjuntos de espacios vectoriales que no son subespacios:

Ejemplo 4.17. W = {A ∈ M2 : det(A) = 0} no es un subespacio de M2 .


Puede observarse que la matriz cero, O, de M2 está en W .
   
1 −1 2 2
W no es cerrado bajo la suma. En efecto, para las matrices A = yB= de
−2 2 1 1
 
3 1
W es A + B = y det(A + B) = 10 6= 0, por lo que A + B no está en W .J
−1 3

Ejemplo 4.18. W = a + bx + cx2 + dx3 ∈ P3 : d ≥ 0 no es un subespacio de P3 .




El polinomio cero de P3 está en W y W es cerrado bajo la suma (¿por qué?).


No se verifica la cerradura de W bajo la multiplicación por escalares. En efecto, si se considera un
polinomio p con d > 0, por ejemplo, p = 1 + x + 5x3 y un número k < 0, por ejemplo k = −2, entonces
el producto kp = (−2)p = −2 − 2x − 10x3 no está en W puesto que el coeficiente de x3 es negativo.J

Material de uso interno Mateu-Semitiel 114


CAPÍTULO 4. ESPACIOS VECTORIALES

Ejercicios

1. Determine si el conjunto W es un subespacio del espacio V indicado:

a) W es el conjunto de todos los puntos (x, y) de R2 tal que y = 0; V = R2 .


b) W es el conjunto de todos los puntos (x, y) de R2 tal que x2 + y 2 + 2xy = 0; V = R2 .
c) W es el conjunto de todos los puntos (x, y, z) de R3 tal que x = y; V = R3 .
d ) W es el conjunto de todos los puntos (x, y, z) de R3 tal que −x + 2y = z; V = R3 .
e) W es el conjunto de todos los puntos (x, y, z) de R3 tal que x2 + y 2 = z; V = R3 .
f ) W = {x ∈ Rn : Ax = 0} donde A es una matriz fija de m × n; V = Rn .
g) W es el conjunto de todos los polinomios a + bx + cx2 de P2 tal que a + b + c = 0; V = P2 .
h) W es el conjunto de todos los polinomios a + bx + cx2 de P2 tal que abc = 0; V = P2 .
i ) W es el conjunto de los polinomios de P3 de la forma a − ax + bx2 − 2bx3 , a, b ∈ R; V = P3 .
j ) W es el conjunto de todas las matrices A de M2 tal que A es invertible; V = M2 .
 
a 0
k ) W es el conjunto de todas las matrices de M2 de la forma con a, b ∈ R; V = M2 .
b 2a
l ) W es el conjunto de todas las matrices A de Mn tal que A es simétrica; V = Mn .
m) W = {X ∈ M2 : AX = XA} donde A es una matriz fija de M2 ; V = M2 .
n) W = Dn es el conjunto de las matrices diagonales de orden n; V = Mn .
ñ) W es el conjunto de todas las funciones polinómicas de R en R; V = F (R).

2. En el espacio F (R) considere los subconjuntos de funciones pares e impares de F (R):

Wp = {f : f (−x) = f (x)} ,
Wi = {f : f (−x) = −f (x)} ,

respectivamente. Pruebe que Wp y Wi son subespacios de F (R).

3. Considere el espacio C [a, b] de las funciones continuas en un intervalo cerrado [a, b]. Determine
si el subconjunto W es un subespacio de C [a, b] siendo:

a) W es el conjunto de las funciones f de C [a, b] tal que f (a)f (b) < 0.


b) W es el conjunto de las funciones f de C [a, b] tal que f (a) = f (b).
c) W es el conjunto formado por las funciones derivables en [a, b].
d ) W es el conjunto formado por las funciones integrables en [a, b].
 Z b 
e) W = f ∈ C [a, b] : f (x) dx = 0 .
a

4. Sean U y W dos subespacios de un espacio vectorial V. Demuestre que U ∩ W es un subespacio


de V. ¿U ∪ W es un subespacio de V?.

Material de uso interno Mateu-Semitiel 115


CAPÍTULO 4. ESPACIOS VECTORIALES

4.3. Combinación lineal y espacio generado


En la Sección 2.1 se definió el concepto de combinación lineal de vectores de Rn . Se estableció que
una combinación lineal de los vectores u1 , u2 ,..., uk de Rn es un vector de Rn de la forma

c1 u1 + c2 u2 + ... + ck uk ,

donde c1 , c2 ,..., ck son escalares cualesquiera, llamados coeficientes de la combinación lineal. Es posible
extender este concepto a un espacio vectorial cualquiera:

Definición (Combinación lineal). Sea V un espacio vectorial. Una combinación lineal de


los vectores u1 , u2 ,..., uk de V es un vector de V de la forma

c1 u1 + c2 u2 + ... + ck uk ,

donde c1 , c2 ,..., ck son escalares cualesquiera, llamados coeficientes de la combinación lineal.

Ası́, un vector u de V es una combinación lineal de ciertos vectores u1 , u2 ,..., uk de V si y sólo si


existen escalares c1 , c2 ,..., ck tal que

u = c1 u1 + c2 u2 + ... + ck uk .

   
−2 1
Ejemplo 4.19. En el espacio R2 ,
el vector u = es combinación lineal de los vectores e1 =
3 0
     
0 2 −3
y e2 = pero no es una combinación lineal de los vectores v1 = y v2 = .J
1 0 0

   
1 1
Ejemplo 4.20. En el espacio R3 , u =  2  es combinación lineal de los vectores v1 =  1 ,
0 −1
     
−2 1 −1
v2 =  1 , v3 =  −3  y v4 =  1 . En el Ejemplo 2.4 se muestra que hay una infinidad de
5 −5 4
maneras de expresar al vector u como combinación lineal de los vectores v1 , v2 , v3 y v4 .J

Ejemplo 4.21. En el espacio P2 , sean los polinomios p = 1 + 3x − x2 , q1 = 1 + x + 2x2 , q2 = 1 − x2


y q3 = 2 − x + 3x2 . Para determinar si p es una combinación lineal de q1 , q2 y q3 , debe analizarse si
existen escalares c1 , c2 y c3 tales que

p = c1 q1 + c2 q2 + c3 q3 .

Esto es equivalente a estudiar la consistencia de la siguiente ecuación en las variables y1 , y2 y y3 :

y1 q1 + y2 q2 + y3 q3 = p.

es decir
y1 1 + x + 2x2 + y2 1 − x2 + y3 2 − x + 3x2 = 1 + 3x − x2 .
  

Material de uso interno Mateu-Semitiel 116


CAPÍTULO 4. ESPACIOS VECTORIALES

Operando en el primer miembro se obtiene:

(y1 + y2 + 2y3 ) + (y1 − y3 ) x + (2y1 − y2 + 3y3 ) x2 = 1 + 3x − x2 ,

y, por igualdad de polinomios, se llega al sistema lineal:



 y1 +y2 +2y3 = 1
y1 −y3 = 3
2y1 −y2 +3y3 = −1

El problema se reduce entonces a estudiar la consistencia de dicho sistema lineal. Aplicando elimi-
nación gaussiana a la matriz aumentada:

     
1 1 2 : 1 −−−−−−−−−−−−−−→ 1 1 2 : 1 1 1 2 : 1
−−−−−−−−−−−−−−→ 
 1 0 −1 : 3 R2 − R1 → R2
0 −1 −3 : 2 0 −1 −3 : 2 .

   R3 − 3R2 → R3 
R3 − 2R1 → R3
2 −1 3 : −1 0 −3 −1 : −3 0 0 8 : −9

Puede observarse que el sistema es consistente. Luego el polinomio p es combinación lineal de los
polinomios q1 , q2 y q3 . Como el sistema tiene única solución y1 = 15 11 9
8 , y2 = 8 y y3 = − 8 , hay una
única manera de expresar al polinomio p como combinación lineal de q1 , q2 y q3 . Los coeficientes de
la combinación lineal son c1 = 15 11 9
8 , c2 = 8 y c3 = − 8 :

15  11  9
1 + x + 2x2 + 1 − x2 − 2 − x + 3x2 = 1 + 3x − x2 . J

8 8 8

Ejemplo 4.22. En el espacio F (R), sean las funciones f , g y h definidas por f (x) = sen2 x, g(x) = 3
y h(x) = cos2 x, para todo x ∈ R.
Puede comprobarse fácilmente que g = 3f + 3h. En efecto,

3f (x) + 3h(x) = 3 sen2 x + 3 cos2 x = 3 sen2 x + cos2 x = 3 = g(x),




para todo x ∈ R. Ası́, g es combinación lineal de f y h.J

La noción de combinación lineal permite definir el siguiente importante concepto:

Definición (Generado). Sea V un espacio vectorial y S = {u1 , u2 , ..., uk } un subconjunto


de V. El conjunto formado por todas las combinaciones lineales de los vectores u1 , u2 ,..., uk
de S es un subconjunto de V llamado generado por S, y se lo denota gen(S):

gen(S) = gen {u1 , u2 , ..., uk } = {c1 u1 + c2 u2 + ... + ck uk : c1 , c2 , ..., ck ∈ R} .

Ası́, un vector v de V está en gen(S) si y sólo si existen escalares c2 ,..., ck tales que

v = c1 u1 + c2 u2 + ... + ck uk .

Observación 4.1. A partir de esta definición puede notarse que:

Material de uso interno Mateu-Semitiel 117


CAPÍTULO 4. ESPACIOS VECTORIALES

1. El vector 0 está en gen(S). En efecto, el vector cero, 0, siempre es combinación lineal de cualquier
colección de vectores de V ya que una combinación lineal que tiene todos sus coeficientes cero
dá como resultado el vector cero. Ası́, 0 = 0u1 + 0u2 + ... + 0uk .
2. S ⊂ gen(S). En efecto, todo vector ui de S puede escribirse como combinación lineal de los
vectores de S de la siguiente manera:
ui = 0u1 + 0u2 + ... + 0ui−1 + 1ui + 0ui+1 + ... + 0uk .
Por lo tanto todo vector de S está en gen(S). La Figura 4.2 muestra un diagrama de la situación.

Figura 4.2: S ⊂ gen(S) ⊂ V

Ejemplo 4.23. En el espacio R2 , sea el conjunto unitario S = {(1, 2)}. El generado por S es el
conjunto
gen(S) = {c(1, 2) : c ∈ R} = {(c, 2c) : c ∈ R} .

Geométricamente representa la recta en el plano que contiene al origen de coordenadas y tiene la


dirección del vector u = (1, 2) como se observa en la Figura 4.3. Nótese que éste es el conjunto de
todos los múltiplos escalares del vector u que es un subespacio de R2 (Ejemplo 4.13).J

Ejemplo 4.24. En el espacio P2 , sea el conjunto S = 1 − x2 , x . El generado por S es el conjunto




gen(S) = c1 1 − x2 + c2 x : c1 , c2 ∈ R = c1 + c2 x − c1 x2 : c1 , c2 ∈ R ,
  

es decir son los polinomios de P2 que tienen el coeficiente de x2 opuesto al término constante (el
coeficiente de x es cualquier número real). Por ejemplo, 2 + x − 2x2 , −5 + 3x + 5x2 , −9x son polinomios
de gen(S) mientras que 3 + x + 3x2 no está en gen(S).J
     
1 3 1 2 0 2
Ejemplo 4.25. En el espacio M2 , sean las matrices A = ,B= yC= .
0 −2 −1 0 1 1
Por definición,
       
1 3 1 2 0 2
gen {A, B, C} = c1 + c2 + c3 : c1 , c2 , c3 ∈ R =
0 −2 −1 0 1 1
  
c1 + c2 3c1 + 2c2 + 2c3
= : c1 , c2 , c3 ∈ R .
−c2 + c3 −2c1 + c3

Material de uso interno Mateu-Semitiel 118


CAPÍTULO 4. ESPACIOS VECTORIALES

Figura 4.3: Recta generada por el vector u

 
a b
Entonces una matriz está en gen {A, B, C} si y sólo si, existen escalares c1 , c2 y c3 tales
c d
que
   
c1 + c2 3c1 + 2c2 + 2c3 a b
= .
−c2 + c3 −2c1 + c3 c d
Esto conduce a estudiar la consistencia del sistema lineal:


 x1 +x2 = a
3x1 +2x2 +2x3 = b


 −x2 +x3 = c
−2x1 +x3 = d

Aplicando eliminación gaussiana a la matriz aumentada:

     
1 1 0 : a 1 1 0 : a 1 1 0 : a
 3 2 2 : b   0 −1 2 : b − 3a   0 −1 2 : b − 3a 
 → → →
 0 −1 1 : c   0 −1 1 : c   0 0 −1 : c − b + 3a 
−2 0 1 : d 0 2 1 : d + 2a 0 0 5 : d + 2b − 4a
 
1 1 0 : a
 0 −1 2 : b − 3a 
→ .
 0 0 −1 : c − b + 3a 
0 0 0 : d + 5c − 3b + 11a
Este sistema es consistente si y sólo si d + 5c − 3b + 11a= 0. Por
 lo tanto, el espacio generado por
a b
las matrices A, B y C está formado por todas las matrices de M2 cuyos elementos satisfacen
c d

Material de uso interno Mateu-Semitiel 119


CAPÍTULO 4. ESPACIOS VECTORIALES

la relación d + 5c − 3b + 11a = 0. Entonces,


  
a b
gen {A, B, C} = ∈ M2 : d + 5c − 3b + 11a = 0 .
c d
Al tener explicitado la forma de los elementos de gen {A, B, C} se puede determinar
 rápidamente

3 2
si una matriz de M2 está o no en dicho conjunto. Por ejemplo, la matriz D = está en
−4 −7
 
4 1
gen {A, B, C} mientras que E = no está en gen {A, B, C}.J
4 −1

Por definición, el conjunto gen(S) es un subconjunto de V. Si gen(S) = V entonces todo vector de V


es una combinación lineal de los vectores de S. Al respecto se tiene:

Definición (Conjunto Generador). Se dice que un conjunto S = {u1 , u2 , ..., uk } de un


espacio vectorial V genera al espacio V si todo vector de V es combinación lineal de los
vectores de S. Si S genera a V se dice que S es un generador de V, o que V está generado
por S, o que los vectores u1 , u2 , ..., uk generan a V.

La Figura 4.4 clarifica este concepto:

Figura 4.4: Conjunto generador

       
 1 2 3 −2 
Ejemplo 4.26. Sea el conjunto S =  0  ,  1  ,  2  ,  4  del espacio R3 .
0 0 1 5
 

Para determinar si S es un generador de R3 , se debe analizar si todo vector b de R3 es una 


b1
combinación lineal de los vectores de S. Es decir, debe analizarse si cualquiera sea el vector b =  b2 
b3

Material de uso interno Mateu-Semitiel 120


CAPÍTULO 4. ESPACIOS VECTORIALES

de R3 , la ecuación        
1 2 3 −2
x1  0  + x2  1  + x3  2  + x4  4  = b,
0 0 1 5
tiene solución. Operando en el primer miembro y por igualdad de vectores se llega al sistema lineal

 x1 +2x2 +3x3 −2x4 = b1
x2 +2x3 +4x4 = b2
x3 +5x4 = b3

El problema se reduce a estudiar la consistencia de este sistema. Es inmediato que es consistente,


y con infinitas soluciones, para todo b1 , b2 y b3 . Luego, cualquier vector b de R3 puede escribirse como
combinación lineal de los vectores de S (más aún, hay infinitas maneras de hacer ésto). Por lo tanto,
S genera a R3 .J

1 − x2 , x del Ejemplo 4.24 no genera a P2 . En efecto, gen(S) =



Ejemplo 4.27. El conjunto S =
c + bx + ax2 ∈ P2 : a = −c que trivialmente no es todo P2 .J


Ejemplo 4.28. El conjunto {A, B, C} de las matrices de M2 dadas en el Ejemplo 4.25, no genera a
M2 . Como se vió en el ejemplo, la matriz E de M2 no está en gen {A, B, C}.J

Los siguientes son ejemplos de conjuntos generadores de los espacios vectoriales que se utilizan más a
menudo:

Ejemplo 4.29. El conjunto {e1 , e2 , e3 } genera a R3 .


En efecto, todo vector x = (x1 , x2 , x3 ) se puede escribir como combinación lineal de los vectores
e1 , e2 , e3 de la siguiente manera:

x = (x1 , x2 , x3 ) = x1 (1, 0, 0) + x2 (0, 1, 0) + x3 (0, 0, 1) = x1 e1 + x2 e2 + x3 e3 . J

Generalizando el ejemplo anterior se tiene:

Ejemplo 4.30. El conjunto {e1 , e2 , ..., en } genera a Rn .J

Ejemplo 4.31. El conjunto 1, x, x2 genera a P2 .




En efecto, todo polinomio p = a + bx + cx2 de P2 se puede escribir como combinación lineal de los
polinomios 1, x, x2 de la siguiente manera:

p = a + bx + cx2 = a (1) + b (x) + c x2 . J




Generalizando el ejemplo anterior:

Ejemplo 4.32. El conjunto 1, x, x2 , ..., xn genera a Pn .J




Material de uso interno Mateu-Semitiel 121


CAPÍTULO 4. ESPACIOS VECTORIALES

Ejemplo 4.33. El conjunto {E11 , E12 , E13 , E21 , E22 , E23 } genera a M23 , donde Eij es la matriz de 
0 0 1
2 × 3 que tiene un 1 en la posición (i, j) y 0 en las otras posiciones, por ejemplo: E13 = .
0 0 0
 
a11 a12 a13
En efecto, toda matriz A = se puede escribir como combinación lineal de las
a21 a22 a23
matrices E11 , E12 , E13 , E21 , E22 , E23 de la siguiente manera:
       
a11 a12 a13 1 0 0 0 1 0 0 0 1
A= = a11 + a12 + a13 +
a21 a22 a23 0 0 0 0 0 0 0 0 0
     
0 0 0 0 0 0 0 0 0
+ a21 + a22 + a23 =
1 0 0 0 1 0 0 0 1

= a11 E11 + a12 E12 + a13 E13 + a21 E21 + a22 E22 + a23 E23 . J

Generalizando este ejemplo:

Ejemplo 4.34. El conjunto {E11 , E12 , ..., E1n ; E21 , E22 , ..., E2n ; ...; Em1 , Em2 , ..., Emn } genera a Mmn ,
donde Eij es la matriz de m × n que tiene un 1 en la posición (i, j) y 0 en las otras posiciones.J

Teorema 4.3 (Espacio generado). Si S = {u1 , u2 , ..., uk } es un subconjunto de un espacio


vectorial V entonces:

1. gen(S) es un subespacio de V. Se lo llama espacio generado por S.

2. gen(S) es el subespacio más pequeño de V que contiene al conjunto S, en el sentido de


que cualquier otro subespacio de V que contenga a S debe contener a gen(S).

Demostración. 1. Nótese primero que gen(S) es un subconjunto no vacı́o de V ya que S ⊂ gen(S)


y S 6= ∅. Se aprobará ahora que gen(S) es cerrado bajo la suma y la multiplicación por escalares.

Sean v y w vectores de gen(S). Luego, existen escalares c1 , c2 , ..., ck y d1 , d2 , ..., dk tal que
v = c1 u1 + c2 u2 + ... + ck uk ,
w = d1 u1 + d2 u2 + ... + dk uk .

Entonces:
v + w = (c1 u1 + c2 u2 + ... + ck uk ) + (d1 u1 + d2 u2 + ... + dk uk ) =
= (c1 + d1 ) u1 + (c2 + d2 ) u2 + ... + (ck + dk ) uk ,
por lo que v + w es combinación lineal de los vectores de S y por lo tanto está en gen(S).

Por otro lado, la multiplicación de un escalar a por el vector v es


av = a (c1 u1 + c2 u2 + ... + ck uk ) =
= (ac1 ) u1 + (ac2 ) u2 + ... + (ack ) uk ,
por lo que av es combinación lineal de los vectores de S y luego está en gen(S).

Ası́, gen(S) es cerrado bajo la suma y multiplicación por escalares y por lo tanto es un subespacio
de V.

Material de uso interno Mateu-Semitiel 122


CAPÍTULO 4. ESPACIOS VECTORIALES

2. Se sabe que gen(S) es un subespacio de V que contiene a S.

Sea W un subespacio de V que contenga a los vectores u1 , u2 ,..., uk de S. Dado que W es cerrado
bajo la suma y multiplicación por escalares, entonces debe contener a todas las combinaciones
lineales c1 u1 + c2 u2 + ... + ck uk . Por lo tanto W contiene a todos los vectores de gen(S), es decir
gen(S) ⊂ W.

Luego, gen(S) es el subespacio “más pequeño” (en el sentido de inclusión) que contiene a S
(véase Figura 4.5).

Figura 4.5: S ⊂ gen(S) ⊂ W ⊂ V

Con frecuencia se demuestra que un subconjunto de un espacio vectorial V es un subespacio del


mismo, mostrando que es el espacio generado por algún conjunto, S, contenido en V. Los siguientes
ejemplos muestran cómo utilizar ésto:

Ejemplo 4.35. Sea W el conjunto de todos los vectores de R4 de la forma (a + 2b, 2b, a − b, b) donde
a y b son escalares arbritrarios, es decir
W = {(a + 2b, 2b, a − b, b) : a, b ∈ R} .
Por definición de suma y multiplicación por escalares, un vector genérico de W puede expresarse
de la siguiente manera:
(a + 2b, 2b, a − b, b) = (a, 0, a, 0) + (2b, 2b, −b, b) = a (1, 0, 1, 0) + b (2, 2, −1, 1) .
Entonces todo vector de W se escribe como combinación lineal de los vectores u1 = (1, 0, 1, 0) y
u2 = (2, 2, −1, 1). Luego,
W = gen {u1 , u2 } ,
y de acuerdo a la parte 1 del Teorema 4.3, W es un subespacio de R4 .J

Material de uso interno Mateu-Semitiel 123


CAPÍTULO 4. ESPACIOS VECTORIALES

Ejemplo 4.36. El conjunto   


a+b c
W = : a, b, c ∈ R
−b 2a
es un subespacio de M2 . En efecto, cualquier matriz de W puede expresarse como
       
a+b c 1 0 1 0 0 1
=a +b +c
−b 2a 0 2 −1 0 0 0

para cualesquiera a, b, c ∈ R. Luego,


     
1 0 1 0 0 1
W = gen , , .J
0 2 −1 0 0 0

Teorema 4.4 (Reducción de un conjunto generador). Sea S = {u1 , u2 , ..., uk } un subconjun-


to de un espacio vectorial V. Si un vector ui de S es una combinación lineal de los restantes
vectores de S, entonces gen(S) = gen(S 0 ), donde S 0 es el conjunto que resulta de eliminar de
S el vector ui .

Demostración. Sin perder generalidad, supóngase que uk es combinación lineal de los restantes vectores
u1 , u2 ,..., uk−1 de S. Es decir, existen escalares c1 , c2 ,..., ck−1 tales que

uk = c1 u1 + c2 u2 + ... + ck−1 uk−1 . (4.3)

Se tiene que probar que gen {u1 , u2 , ..., uk−1 } = gen {u1 , u2 , ..., uk−1 , uk }. Para ello debe verificarse
que todo vector de gen {u1 , u2 , ..., uk−1 } es un vector de gen {u1 , u2 , ..., uk−1 , uk } y recı́procamente.
Por un lado, cualquier vector de gen {u1 , u2 , ..., uk−1 } es un vector de gen {u1 , u2 , ..., uk−1 , uk }
(¿por qué?).
Por otra parte, si x es un vector de gen {u1 , u2 , ..., uk−1 , uk }, entonces

x = d1 u1 + d2 u2 + ... + dk−1 uk−1 + dk uk ,

para ciertos escalares d1 , d2 ,..., dk−1 , dk .


Sustituyendo en esta última igualdad, la expresión para uk dada en (4.3):

x = d1 u1 + d2 u2 + ... + dk−1 uk−1 + dk (c1 u1 + c2 u2 + ... + ck−1 uk−1 ) =


= (d1 + dk c1 ) u1 + (d2 + dk c2 ) u2 + ... + (dk−1 + dk ck−1 ) uk−1 .

Entonces, x es combinación lineal de los vectores u1 , u2 ,..., uk−1 y por lo tanto x está en
gen {u1 , u2 , ..., uk−1 }.

Ejemplo 4.37. Los conjuntos S = 1 + x, −1 + x2 , x + x2 y S 0 = 1 + x, −1 + x2 generan el


 

mismo subespacio de P2 . En efecto, el último polinomio de S es la suma de los dos primeros.J

Material de uso interno Mateu-Semitiel 124


CAPÍTULO 4. ESPACIOS VECTORIALES

Ejercicios

1. Indique si el vector u puede expresarse como una combinación lineal de los vectores u1 , u2 , u3 ,
u4 y u5 de R4 . En caso afirmativo, exhiba alguna de estas combinaciones.
           
2 −1 1 2 0 3
, u2 =  −1 , u3 =  1 , u4 =  4 , u5 =  1 .
 9   0         
a) u =  7 
; u 1 = 
 4   1   0   1   −2 
3 1 0 0 1 2
           
−4 0 1 0 2 1
 1   1   1   1   1   1 
b) u =  3 ;
 u1 =  −1 , u2 =  −1 , u3 =  0 , u4 =  −1 , u5 =  1 .
        
1
0 2 0 1 3 1
           
6 2 1 1 2 1
 −5   −1   1   −1   2   −1 
c) u =  2 ;
 u1 =  0 , u2 =  0 , u3 =  2 , u4 =  4 , u5 =  1 .
        

5 0 1 1 0 1

2. Sean los polinomios p1 = 1 + 3x − x2 , p2 = −3x + 2x2 , p3 = x2 y p4 = 4 − x2 de P2 . ¿Es p4


combinación lineal de los polinomios

a) p1 , p2 y p3 ? En caso afirmativo, exprese la combinación lineal.


b) p1 y p2 ? En caso afirmativo, exprese la combinación lineal.
c) p2 y p3 ? En caso afirmativo, exprese la combinación lineal.

3. Determine valores de a, b y c de modo que la matriz


 
a + b a + 2c
A =  −4 10 
11 2a − b

    
1 2 0 −1 1 1
sea combinación lineal de las matrices A1 =  −1 2 , A2 =  0 1  y A3 =  1 0 .
1 0 2 −1 0 2

4. Describa geométricamente el subespacio generado por los vectores u1 = (−1, 0, 3), u2 = (0, 1, −1)
y u3 = (−2, 3, 3) de R3 .
   
1 1 0 2
5. Explicite el espacio generado por las matrices A = yB= de M2 . Indique
−1 0 3 −4
tres matrices de M2 que estén en gen {A, B} y tres que no pertenezcan a dicho conjunto.

6. Sean los polinomios p1 = 1 − 2x + x2 , p2 = x − x2 , p3 = 2 − 3x + 2x2 y p4 = 2 − x − x2 de P2 .

a) ¿Está p4 en el gen {p1 , p2 , p3 }?


b) ¿Está p4 en el gen {p1 , p2 }?
c) Demuestre que gen {p1 , p2 , p3 } = P2 .
d ) Demuestre que gen {p1 , p2 , p3 , p4 } = gen {p1 , p2 , p3 }.

Material de uso interno Mateu-Semitiel 125


CAPÍTULO 4. ESPACIOS VECTORIALES

7. Indique si el conjunto:

a) {(1, 1, 2) , (3, −1, 4) , (0, 1, 3)} genera al espacio R3 .


       
 1 2 1 0 
b)  −1  ,  0  ,  −1  ,  0  genera a R3 .
3 4 5 3
 

c) 1 + x, −3 + x2 genera a P2 .


d ) 1, 1 + x, 1 + x + x2 , 1 + x + x2 + x3 , 3 − x3 genera a P3 .


e) {E11 , E22 , E33 } genera al espacio D3 de las matrices diagonales de orden 3.


       
1 0 0 1 1 1 0 1
f) , , , genera a M2 .
0 1 1 0 1 0 1 1

8. Halle, si existen, el o lo valores de a de modo que el conjunto S = a, 1 + ax, −x + ax2 , genere




al espacio P2 .

9. Complete la demostración del Teorema 4.4.

10. En cada ı́tem, pruebe que W es un subespacio del espacio vectorial V que se indica mostrando
un conjunto generador de W.

a) W = {(2a, 0, b, −a − 3b + c) : a, b, c ∈ R}; V = R4 .
b) W es el conjunto solución de la ecuación 2x1 − x2 + x3 − x4 + 3x5 = 0; V = R5 .
c) W = a − bx + (a + b)x2 : a, b ∈ R ; V = P2 .


d ) W = {2a + b cos x : a, b ∈ R}; V = F(R).


  
2a b + c
e) W = : a, b, c ∈ R ; V = M2 .
−c 0
11. Indique si las siguientes proposiciones son verdaderas o falsas. Justifique su respuesta:

a) Dos vectores distintos de R2 generan R2 .


b) P9 es generado por 9 polinomios de P9 .
c) M3 puede ser generado por 10 matrices de 3 × 3.
d ) Tres vectores distintos de cero de R3 generan R3 .
e) gen {u, v, w} = gen {u, u + v, u + v + w}, para cualesquiera vectores u, v y w de un espa-
cio vectorial V.

4.4. Independencia lineal


Se sabe de la sección anterior que un espacio vectorial V está generado por un conjunto S = {u1 , u2 , ..., uk }
si cada vector de V es una combinación lineal de los vectores u1 , u2 ,...,uk .
Es posible estudiar un espacio vectorial V conociendo primero los vectores de un conjunto generador
S y luego extendiendo los resultados al resto de los vectores de V. Conviene entonces que el conjunto
generador sea lo más pequeño posible. El problema de encontrar los conjunto generadores más pequeños
para un espacio vectorial depende de la noción de independencia lineal.

Material de uso interno Mateu-Semitiel 126


CAPÍTULO 4. ESPACIOS VECTORIALES

Si S = {u1 , u2 , ..., uk } es un conjunto de vectores de un espacio vectorial V entonces la ecuación


x1 u1 + x2 u2 + ... + xk uk = 0,
tiene siempre la solución trivial
x1 = 0, x2 = 0, ..., xk = 0,
pero puede tener además otras soluciones.
Por ejemplo, en el conjunto S = {u1 , u2 , u3 } del espacio R3 donde u1 = (1, 3, −1) , u2 = (0, 1, −2)
y u3 = (1, 0, 5), el vector u1 puede expresarse como una combinación lineal de los otros dos vectores
de S de la siguiente manera:
u1 = 3u2 + u3 ,
o en forma equivalente
(1)u1 + (−3)u2 + (−1)u3 = 0.
Por lo tanto, la ecuación
x1 u1 + x2 u2 + x3 u3 = 0,
admite como solución, entre otras, a c1 = 1, c2 = −3 y c3 = −1.
En cambio, para el conjunto H = {v1 , v2 , v3 } del espacio R3 donde v1 = (1, 1, 1), v2 = (1, 1, 0) y
u3 = (1, 0, 0), si se resuelve la ecuación
x1 v1 + x2 v2 + x3 v3 = 0,
es decir
(x1 + x2 + x3 , x2 + x3 , x3 ) = (0, 0, 0) ,
se encuentra una única solución x1 = 0, x2 = 0 y x3 = 0 (la trivial).
En general se tiene la siguiente, muy importante, definición:

Definición (Dependencia e independencia lineal). Sea V un espacio vectorial y


S = {u1 , u2 , ..., uk } un subconjunto de V. El conjunto S es linealmente independiente si la
ecuación

x1 u1 + x2 u2 + ... + xk uk = 0 (4.4)

tiene única solución x1 = 0, x2 = 0, ..., xk = 0 (la trivial).


Si por el contrario, la ecuación (4.4) admite otras soluciones (infinitas), el conjunto S se
denomina linealmente dependiente.

De la definición anterior surge que:


El conjunto S es linealmente dependiente si y sólo si existen escalares c1 , c2 ,..., ck , no todos ceros,
tales que c1 u1 + c2 u2 + ... + ck uk = 0.
En cambio, S es linealmente independiente si y sólo si la única manera de obtener al vector cero
como combinación lineal de los vectores de S, es la trivial. Es decir, si c1 u1 + c2 u2 + ... + ck uk = 0
necesariamente c1 = 0, c2 = 0,..., ck = 0 (todos los coeficientes cero).
Retomando los ejemplos introductorios, S = {(1, 3, −1) , (0, 1, −2) , (1, 0, 5)} es un conjunto lineal-
mente dependiente en R3 , mientras que el conjunto H = {(1, 1, 1) , (1, 1, 0) , (1, 0, 0)} es linealmente
independiente.

Material de uso interno Mateu-Semitiel 127


CAPÍTULO 4. ESPACIOS VECTORIALES

     

 1 0 2 
−2 1 1
     
Ejemplo 4.38. Sea el conjunto S =  4
 0  ,  −1  ,  1  del espacio R . Para determinar si
    

 
1 0 1
 
S es linealmente dependiente o linealmente independiente, se debe analizar si la ecuación
       
1 0 2 0
 −2   1   1   0 
x1 
 0  + x2  −1  + x3  1  =  0  ,
      

1 0 1 0
tiene única solución (la trivial) o infinitas soluciones, lo cual es equivalente a determinar si el sistema
lineal homogéneo: 

 x1 +x3 = 0
−2x1 +x2 +x3 = 0


 −x2 +x3 = 0
x1 +x3 = 0

tiene sólo la solución trivial o tiene infinitas soluciones.


Es fácilmente comprobable que el sistema tiene sólo la solución trivial x1 = x2 = x3 = 0, y por lo
tanto S es linealmente independiente.J

Ejemplo 4.39. El conjunto S = 1 − x, 2 + x2 , 1 − 3x − x2 del espacio P2 es linealmente depen-




diente. En efecto, al plantear la ecuación en las incógnitas c1 , c2 y c3 :


c1 (1 − x) + c2 2 + x2 + c3 1 − 3x − x2 = 0,
 

y operando en el primer miembro


(c1 + 2c2 + c3 ) + (−c1 − 3c3 ) x + (c2 − c3 ) x2 = 0 + 0x + 0x2 .
Por igualdad de polinomios se obtiene el sistema lineal homogéneo

 c1 +2c2 +c3 = 0
−c1 −3c3 = 0
c2 −c3 = 0

el cual admite infinitas soluciones (el determinante de la matriz de coeficientes es cero). Luego, el
conjunto S es linealmente dependiente.J

Los siguientes son ejemplos de conjuntos linealmente independientes de los espacios vectoriales que se
encuentran más a menudo:

Ejemplo 4.40. El conjunto {e1 , e2 , e3 } de R3 es linealmente independiente.


En efecto, dada la ecuación
x1 e1 + x2 e2 + x3 e3 = 0,
es decir
x1 (1, 0, 0) + x2 (0, 1, 0) + x3 (0, 0, 1) = (0, 0, 0) ,
operando en el primer miembro se tiene
(x1 , x2 , x3 ) = (0, 0, 0) ,
y por igualdad de vectores, la única solución es x1 = x2 = x3 = 0.J

Material de uso interno Mateu-Semitiel 128


CAPÍTULO 4. ESPACIOS VECTORIALES

Generalizando el resultado anterior:

Ejemplo 4.41. El conjunto {e1 , e2 , ..., en } de Rn es linealmente independiente.J

Ejemplo 4.42. El conjunto 1, x, x2 de P2 es linealmente independiente.




En efecto,
c1 (1) + c2 (x) + c2 x2 = 0 = 0 + 0x + 0x2 ,


y por igualdad de polinomios, la única solución es c1 = c2 = c3 = 0.J

Generalizando este resultado:

Ejemplo 4.43. El conjunto 1, x, x2 , ..., xn de Pn es linealmente independiente.J




Ejemplo 4.44. El conjunto {E11 , E12 , E21 , E22 , E31 , E32 } de M32 es linealmente independiente.
En efecto, la ecuación

x1 E11 + x2 E12 + x3 E21 + x4 E22 + x5 E31 + x6 E32 = O,

queda
             
1 0 0 1 0 0 0 0 0 0 0 0 0 0
x1  0 0  + x2  0 0  + x3  1 0  + x4  0 1  + x5  0 0  + x6  0 0  =  0 0  ,
0 0 0 0 0 0 0 0 1 0 0 1 0 0

y operando en el primer miembro se obtiene


   
x1 x2 0 0
 x3 x4  =  0 0  .
x5 x6 0 0

Por igualdad de matrices, necesariamente x1 = x2 = x3 = x4 = x5 = x6 = 0.J

Fácilmente puede generalizarse este resultado:

Ejemplo 4.45. El conjunto {E11 , E12 , ..., E1n ; E21 , E22 , ..., E2n ; ...; Em1 , Em2 , ..., Emn } de Mmn es li-
nealmente independiente.J

El término linealmente dependiente sugiere que los vectores “dependen” entre ellos de alguna manera.
En el ejemplo introductorio, el conjunto S = {(1, 3, −1) , (0, 1, −2) , (1, 0, 5)} de R3 es linealmente
dependiente. Se mostró que, por ejemplo, el vector u1 = (1, 3, −1) es combinación lineal de los otros
dos vectores de S.
Al respecto, vale el siguiente teorema:

Teorema 4.5. Un conjunto S = {u1 , u2 , ..., uk } (k ≥ 2) de un espacio vectorial V es lineal-


mente dependiente si y sólo si al menos uno de los vectores de S puede expresarse como
combinación lineal de los restantes vectores de S.

Material de uso interno Mateu-Semitiel 129


CAPÍTULO 4. ESPACIOS VECTORIALES

Demostración. Si el conjunto S = {u1 , u2 , ..., uk−1 uk } es linealmente dependiente, entonces existen


escalares c1 , c2 ,...,ck−1 ,ck , no todos ceros, tales que

c1 u1 + c2 u2 + ... + ck−1 uk−1 + ck uk = 0.

Sin pérdida de generalidad, supóngase ck 6= 0, y despejando uk de la expresión anterior se tiene


     
c1 c2 ck−1
uk = − u1 + − u2 + ... + − uk−1 ,
ck ck ck
por lo que uk resulta combinación lineal de los restantes vectores, u1 , u2 ,...,uk−1 , de S.
Recı́procamente, supóngase que un vector de S es combinación lineal de los restantes vectores de
S. Sin pérdida de generalidad, sea uk combinación lineal de u1 ,u2 ,...,uk−1 . Es decir, existen escalares
d1 , d2 ,..., dk−1 tal que
uk = d1 u1 + d2 u2 + ... + dk−1 uk−1 ,
lo que es equivalente a
d1 u1 + d2 u2 + ... + dk−1 uk−1 + (−1)uk = 0.
Esta última relación muestra que se puede obtener el vector cero como una combinación lineal de
los vectores de S con no todos los coeficientes cero (el coeficiente que acompaña a uk es −1). Luego,
S es linealmente dependiente.

Nota: Dado un conjunto S = {u1 , u2 , ..., uk } de un espacio vectorial V se puede decir indistintamente
que S es linealmente dependiente (independiente) o que los vectores u1 , u2 ,..., uk son linealmente
dependientes (independientes).
     
1 −1 0 2 1 1
Ejemplo 4.46. En el espacio M2 , las matrices A = , B = , C = y
2 0 3 0 5 0
 
3 8
D = son linealmente dependientes. Es fácilmente comprobable que la matriz C se puede
4 1
escribir como combinación lineal de A, B y D. En efecto:

C = A + B = (1)A + (1)B + (0)D.

Observe que el conjunto formado por las matrices A, B, C y D es linealmente dependiente, C es


combinación lineal de A, B y D. La matriz D no es combinación lineal de las restantes matrices, esto
no contradice al teorema anterior (Teorema 4.5). Este teorema no dice que cada vector de un conjunto
linealmente dependiente debe ser combinación lineal de los restantes sino que al menos uno de ellos
debe serlo.J

El Teorema 4.5 tiene un corolario que proporciona una prueba muy simple para determinar si dos
vectores de un espacio vectorial son linealmente dependientes o no.

Corolario 4.1. Sean u y v dos vectores distintos de un espacio vectorial V. Entonces u y v


son linealmente dependientes si y sólo uno de ellos es un múltiplo escalar del otro.

Demostración. De acuerdo al Teorema 4.5, el conjunto S = {u, v} es linealmente dependiente si y


sólo si uno de los vectores de S es combinación lineal del otro. Esto es: u = cv ó v = du, para algunos
escalares c y d.

Material de uso interno Mateu-Semitiel 130


CAPÍTULO 4. ESPACIOS VECTORIALES

Ejemplo 4.47. Se deduce del corolario anterior que dos vectores en R2 o en R3 son linealmente
dependientes si y sólo si están sobre la misma recta que pasa por el origen. Observe las Figuras 4.6 y
4.7.J

Figura 4.6: Dos vectores en R3 linealmente dependientes

Figura 4.7: Dos vectores v1 y v2 de R3 linealmente independientes

Ejemplo 4.48. El espacio generado por dos vectores distintos cualesquiera en R3 es un plano que
pasa por el origen o una recta que pasa por el origen. (Ejercicio 2).J

Material de uso interno Mateu-Semitiel 131


CAPÍTULO 4. ESPACIOS VECTORIALES

Ejemplo 4.49. Los polinomios p = 3−2x2 y q = −6+4x2 del espacio P2 son linealmente dependientes
dado que q = −2p (ó p = − 12 q).J

En el siguiente teorema se agregan otros importantes criterios para determinar la dependencia o


independencia lineal de un subconjunto de un espacio vectorial. Queda como ejercicio la demostración
del mismo:

Teorema 4.6. Sea S un subconjunto finito no vacı́o de un espacio vectorial V.

1. Si S es un conjunto unitario, es decir S = {u}, entonces S es linealmente independiente


si y sólo si u 6= 0.

2. Si S contiene al vector cero, entonces S es linealmente dependiente.

3. Si S es linealmente independiente entonces todo subconjnunto no vacı́o de S es lineal-


mente independiente.

4. Si S es linealmente dependiente entonces todo conjunto que lo contiene es linealmente


dependiente.

Ejemplo 4.50. De acuerdo a la parte 4 del Teorema 4.6, el conjunto


      
3 1 1 2 −1 5 2 4
, ,
0 4 0 0 −9 8 0 0
   
1 2 2 4
del espacio M2 es linealmente dependiente ya que contiene al conjunto S = ,
0 0 0 0
que es linealmente dependiente puesto que una de las matrices es mútiplo escalar de la otra. J

Ejercicios

1. Para cada conjunto S del espacio vectorial V indicado, determine si es linealmente independiente
o linealmente dependiente:

a) S = {(1, −1, 3) , (2, 0, −5) , (0, 1, 1)}, V = R3 .


b) S = {(0, 0, −1, 2) , (2, 2, −5, 1) , (4, 4, −21, 5)}, V = R4 .
c) S = 1 + x + x2 , 3x2 , −5 + x , V = P2 .


d ) S = x3 , 1 − 3x2 , 2 + x , V = P.

     
1 1 0 0 −2 −2
e) S = , , , V = M2 .
−1 0 0 3 2 1
       
1 1 0 0 0 0 1 0 1 2 1 1
f) S = , , , , V = M23 .
−1 0 2 0 3 1 1 0 −1 1 0 0
g) S = {ex , e−x , cosh x}, V = F (R).

Material de uso interno Mateu-Semitiel 132


CAPÍTULO 4. ESPACIOS VECTORIALES

h) S = e2x , e−3x , V = F (R).




2. Pruebe lo enunciado en el Ejemplo 4.48.

3. Determine para qué valores de a y b el subconjunto 1 + ax + ax2 , 1 + bx + bx2 , x2 del espacio




P2 es linealmente independiente.

4. Indique si las siguientes proposiciones son verdaderas o falsas. Justifique su respuesta:

a) Dos vectores distintos de un espacio vectorial son linealmente independientes.


b) Si V es un espacio vectorial y u1 , u2 y u3 son vectores de V, entonces si {u1 , u2 , u3 } es
linealmente independiente, también los es el conjunto {u1 + 2u2 , u1 + u2 + u3 , −u3 }.
c) Sean p, q y r polinomios del espacio P2 . Si los conjuntos {p, q} y {q, r} son linealmente
independientes, entonces {p, r} es linealmente independiente.

5. Demuestre el Teorema 4.6.

6. Dé ejemplos de subconjuntos S de R4 tal que

a) contenga exactamente dos elementos y sea linealmente dependiente.


b) contenga exactamente dos elementos y sea linealmente independiente.
c) contenga exactamente tres elementos y sea linealmente independiente.
d ) contenga exactamente cuatro elementos y sea linealmente dependiente.
e) contenga exactamente cuatro elementos y sea linealmente independiente.

7. Repita el ejercicio anterior para subconjuntos S de P4 .

4.5. Base y dimensión


Por lo común se concibe a una recta como un espacio unidimensional, a un plano como uno bidimen-
sional y al espacio que lo rodea como a uno tridimensional.
En lo que sigue se precisará esta noción intuitiva de dimensión:

Definición (Base). Sea V un espacio vectorial distinto del espacio cero y S un subconjunto
finito no vacı́o de V. El conjunto S es una base de V si

1. S es linealmente independiente,

2. S genera a V.

Ejemplo 4.51. En el Ejemplo 4.40 se demostró que S = {e1 , e2 , e3 } es un conjunto linealmente


independiente en R3 . Además, en el Ejemplo 4.29 se probó que S es un generador de R3 . Por lo tanto,
S es una base. Esta base se conoce como la base estándar de R3 .J

Material de uso interno Mateu-Semitiel 133


CAPÍTULO 4. ESPACIOS VECTORIALES

Ejemplo 4.52. Base estándar de Rn


El conjunto S = {e1 , e2 , ..., en } es una base de Rn . En los ejemplos 4.30 y 4.41 se mostró que S es
un conjunto generador y linealmente independiente de Rn . Esta base es conocida como base estándar
o canónica de Rn .J

Ejemplo 4.53. El conjunto S = 1, x, x2 es una base del espacio P2 . Se mostró en los ejemplos


4.31 y 4.42 que S es un conjunto generador linealmente independiente en P2 . Esta base es la base
estándar del espacio vectorial P2 .J

Ejemplo 4.54. Base estándar de Pn


El conjunto S = 1, x, x2 , ..., xn es una base de Pn . Se mostró que S es un conjunto generador y


linealmente independiente en Pn en los ejemplos 4.43 y 4.31. Esta base es la llamada base estándar o
canónica de Pn .J

Ejemplo 4.55. Base estándar de Mmn


El conjunto S = {E11 , E12 , ..., E1n ; E21 , E22 , ..., E2n ; ...; Em1 , Em2 , ..., Emn } es una base del espacio
Mmn . Se vió en los ejemplos 4.34 y 4.45 que es un conjunto generador linealmente independiente de
Mmn . Esta base es la llamada base estándar o canónica del espacio Mmn .J

Ejemplo 4.56. Si S es un conjunto linealmente independiente en un espacio vectorial V, trivialmente


S es una base para el espacio gen(S) (S es linealmente independiente y por definición genera a gen(S)).
Por ejemplo, el conjunto S = {(1, 2, −1) , (0, −1, 3)} de R3 es una base de gen(S) puesto que S es
linealmente independiente (¿por qué?). Geométricamente gen(S) es un plano que pasa por el origen.J

Ejemplo 4.57 (Una base de R3 que no es la estándar). El conjunto S = {u1 , u2 , u3 } donde u1 =


(1, 2, 1), u2 = (−2, 3, 0) y u3 = (3, 3, 2) es una base de R3 .
Debe comprobarse que S genera a R3 y que es linealmente independiente.
Para demostrar que S genera a R3 , debe probarse que todo vector b de R3 es combinación lineal
de los vectores de S. Es decir, debe mostrarse que cualquiera sea el vector b = (b1 , b2 , b3 ) de R3 , la
ecuación
x1 u1 + x2 u2 + x3 u3 = b,
tiene solución.
Reemplazando, la ecuación anterior es

x1 (1, 2, 1) + x2 (−2, 3, 0) + x3 (3, 3, 2) = (b1 , b2 , b3 ) ,

y operando en el primer miembro e igualando las correspondientes componentes se obtiene el sistema


lineal 
 x1 −2x2 +3x3 = b1
2x1 +3x2 +3x3 = b2
x1 +2x3 = b3

el cual debe ser consistente cualesquiera sean b1 , b2 y b3 .

Material de uso interno Mateu-Semitiel 134


CAPÍTULO 4. ESPACIOS VECTORIALES

Para demostrar que S es linealmente independiente es necesario probar que la única solución de la
ecuación
x1 u1 + x2 u2 + x3 u3 = 0,
o bien
x1 (1, 2, 1) + x2 (−2, 3, 0) + x3 (3, 3, 2) = (0, 0, 0) ,
es la trivial, x1 = x2 = x3 = 0. La verificación de la independencia lineal se reduce a demostrar que el
sistema homogéneo: 
 x1 −2x2 +3x3 = 0
2x1 +3x2 +3x3 = 0
x1 +2x3 = 0

tiene únicamente la solución trivial.


Obsérvese que ambos sistemas tienen la misma matriz de coeficientes:
 
1 −2 3
A= 2 3 3 .
1 0 2

Es posible probar simultáneamente que S genera a R3 y que es linealmente independiente mos-


trando que det(A) 6= 0. De acuerdo al Teorema 3.16 y como det(A) = −1 6= 0, entonces el sistema
Ax = b es consistente con única solución cualquiera sea el vector de términos constantes b, y el
sistema homogéneo Ax = 0 tiene únicamente la solución trivial. J

Sea V un espacio vectorial distinto del espacio cero. Si V contiene un conjunto finito no vacı́o de
vectores que forman una base, se dice que V es un espacio vectorial de dimensión finita o finito
dimensional. Si no existe un conjunto de este tipo se dice que V es de dimensión infinita o infinito
dimensional.
Casi todos los espacios vectoriales considerados en este texto son de dimensión finita. Por ejemplo,
los espacios Rn , Pn y Mmn son espacios vectoriales de dimensión finita.
Sin embargo, es conveniente notar que muchos espacios vectoriales de importancia son de dimensión
infinita. El espacio vectorial P es infinito dimensional ya que no es posible encontrar un conjunto finito
que lo genere.

Actividad 4.5. Explique por qué no existe un conjunto generador de P que contenga un número
finito de elementos.

El siguiente teorema proporciona la clave hacia el concepto de dimensión de un espacio vectorial.


Basándose en este teorema, se obtienen algunos de los resultados más importantes del Álgebra Lineal.

Teorema 4.7. Si un espacio vectorial V tiene una base que consta de n vectores entonces
todo subconjunto de V que contiene más de n vectores es linealmente dependiente. Dicho de
otro modo, todo subconjunto linealmente independiente de V contiene a lo sumo n vectores.

Material de uso interno Mateu-Semitiel 135


CAPÍTULO 4. ESPACIOS VECTORIALES

Demostración. Sea S = {u1 , u2 , ..., un } una base del espacio vectorial V y H = {v1 , v2 , ..., vm } un
subconjunto de V que consta de m vectores, donde m > n.
Se probará que H es linealmente dependiente mostrando que la ecuación

x1 v1 + x2 v2 + ... + xm vm = 0, (4.5)

tiene soluciones no triviales.


Como S es una base de V entonces S genera a V. Ası́, cada vector de V puede expresarse como
una combinación lineal de los vectores de S. En particular, cada vi de H es una combinación lineal
de vectores de S, por lo tanto:

v1 = c11 u1 + c21 u2 + ... + cn1 un


v2 = c12 u1 + c22 u2 + ... + cn2 un
.. ..
. .
vm = c1m u1 + c2m u2 + ... + cnm un

Sustituyendo cada una de estas expresiones en la ecuación (4.5):

x1 (c11 u1 + c21 u2 + ... + cn1 un ) + x2 (c12 u1 + c22 u2 + ... + cn2 un ) + ...


... + xm (c1m u1 + c2m u2 + ... + cnm un ) = 0,

y operando y asociando en el primer miembro resulta

(c11 x1 + c12 x2 + ... + c1m xm ) u1 + (c21 x1 + c22 x2 + ... + c2m xm ) u2 + ...


... + (cn1 x1 + cn2 x2 + ... + cnm xm ) un = 0.

Dado que los vectores u1 , u2 ,...,un son linealmente independientes (S una base), entonces todos
los coeficientes de la expresión anterior son iguales a cero. Ası́, resolver la ecuación (4.5) equivale a
resolver el siguiente sistema lineal homogéneo en las incógnitas x1 , x2 ,..., xm :


 c11 x1 + c12 x2 + ... + c1m xm = 0
 c21 x1 + c22 x2 + ... + c2m xm = 0

..


 .
cn1 x1 + cn2 x2 + ... + cnm xm = 0

Como este sistema es homogéneo y el número de incógnitas (m) es mayor que el número de
ecuaciones (n), entonces tiene soluciones no triviales. Esto es, existen escalares d1 , d2 ,...,dm no todos
ceros que satisfacen la ecuación (4.5).
Luego, el conjunto H es linealmente dependiente.

Ejemplo 4.58. Dado que R3 tiene una base que consta de 3 vectores (la base estándar), cualquier
conjunto de R3 que consta de 4 ó más vectores es linealmente dependiente.
En general, en el espacio Rn , todo conjunto que consta de más de n vectores es linealmente
dependiente.J

Material de uso interno Mateu-Semitiel 136


CAPÍTULO 4. ESPACIOS VECTORIALES

Ejemplo 4.59. En el espacio P2 todo conjunto que consta de 4 o más polinomios es linealmente
dependiente puesto que P2 tiene una base que consta de 3 polinomios (la base estándar 1, x, x2 ).
En general en el espacio Pn , todo conjunto que consta de más de n + 1 polinomios es linealmente
dependiente.J

     
2 0 1 −3 2 1
Ejemplo 4.60. En el espacio M2 , el conjunto formado por las matrices , , ,
0 0 0 0 1 0
   
1 3 4 −1
, es linealmente dependiente. ¿Por qué?.J
0 1 −2 1

Debe observarse en primer lugar que si {u1 , u2 , ..., un } es una base de un espacio vectorial V, entonces
{cu1 , u2 , ..., un } donde c 6= 0 es también una base de V (Ejercicio 5). Esto muestra que todo espacio
vectorial real, distinto del espacio cero, tiene infinitas bases.
A partir del teorema anterior, puede demostrarse que todas las bases de un espacio vectorial finito
dimensional, tienen el mismo número de vectores.

Corolario 4.2. Si un espacio vectorial V tiene una base que consta de n vectores entonces
toda otra base de V consta también de n vectores.

Demostración. Sea S = {u1 , u2 , ..., un } una base del espacio vectorial V y H = {v1 , v2 , ..., vm } cual-
quier otra base de V.
Por el Teorema 4.7, dado que S es una base de V y H es linealmente independiente (H es una
base), entonces m ≤ n. Haciendo el mismo razonamiento, y cambiando los roles, puesto que H es una
base de V y S es linealmente independiente, entonces debe ser n ≤ m.
En consecuencia, m = n y por lo tanto ambas bases tienen el mismo número de vectores.

A partir de este corolario, puede notarse que si se conoce una base de un espacio vectorial V de
dimensión finita, una condición necesaria para que un conjunto S sea una base de V es que S tenga
el mismo número de elementos que la base conocida.

Actividad 4.6. Indique, por simple inspección, por qué los siguientes conjuntos no son una base de
los espacios vectoriales indicados:

1. {(1, −1, 3) , (2, 0, 5)} en R3 .

2. 1 + x, 5 − x + x2 , 3x2 , x + x2 en P2 .


El corolario anterior permite definir el concepto de dimensión de un espacio vectorial finito dimen-
sional:

Definición (Dimensión). Si un espacio vectorial V tiene una base que consta de n vectores,
a dicho número n se lo denomina dimensión de V y se denota dim(V) = n.

El espacio vectorial cero, V = {0}, está generado por el vector 0 pero {0} es un conjunto linealmente
dependiente, y por lo tanto no puede ser una base. Ya que el espacio cero no contiene un conjunto

Material de uso interno Mateu-Semitiel 137


CAPÍTULO 4. ESPACIOS VECTORIALES

con al menos un elemento que sea una base de él, se conviene en considerar a este espacio como finito
dimensional con dimensión 0.
Al contar el número de elementos de las bases estándar de los espacios Rn , Pn y Mmn , se obtiene
la siguiente conclusión:

dim (Rn ) = n

dim (Pn ) = n + 1

dim (Mmn ) = mn

El espacio vectorial P es infinito dimensional (no existe un conjunto finito de polinomios que lo
genere). Similarmente, el espacio F(R) es de dimensión infinita ya que contiene un subespacio, el espacio
de todas las funciones polinómicas, que es infinito dimensional (Teorema 4.12 que está demostrado al
final de esta sección).
Dado que un subespacio de un espacio vectorial es en sı́ mismo un espacio vectorial, tiene sentido
hablar de la dimensión de un subespacio:

Ejemplo 4.61. Se vió en el Ejemplo 4.35 que el conjunto

W = {(a + 2b, 2b, a − b, −b) : a, b ∈ R}

es un subespacio de R4 mostrando que

W = gen {u1 , u2 }

donde u1 = (1, 0, 1, −1) y u2 = (2, 2, −1, 0).


El conjunto S = {u1 , u2 } es entonces un generador de W . Dado que S consta de dos vectores tales
que ninguno de ellos es múltiplo escalar del otro, entonces S es linealmente independiente. Ası́, S es
una base de W y dim(W ) = 2.J

Ejemplo 4.62. En el Ejemplo 4.36 se probó que el conjunto


  
a+b c
W = : a, b, c ∈ R
−b 2a

es un subespacio de M2 mostrando que


     
1 0 1 0 0 1
W = gen , , .
0 2 −1 0 0 0
     
1 0 1 0 0 1
Ası́, el conjunto S = , , es un generador de W . Puede probarse
0 2 −1 0 0 0
que S es linealmente independiente verificando que
       
1 0 1 0 0 1 0 0
a +b +c =
0 2 −1 0 0 0 0 0

sólo si a = b = c = 0. Luego, S es una base de W y dim(W ) = 3.J

Material de uso interno Mateu-Semitiel 138


CAPÍTULO 4. ESPACIOS VECTORIALES

Ejemplo 4.63. Sea el subconjunto S = 1 + x5 , 2 + x − 4x2 del espacio P. Entonces el generado




por S es el siguiente conjunto:

gen(S) = a 1 + x5 + b 2 + x − 4x2 : a, b ∈ R = (a + 2b) + bx − 4ax2 + ax5 : a, b ∈ R .


   

El conjunto S es linealmente independiente y trivialmente genera a gen(S), por lo que S es una


base de gen(S). Ası́, dim (gen(S)) = 2.J

El teorema siguiente muestra que la dimensión, n, de un espacio vectorial V finito dimensional es el


número máximo de vectores que puede tener un conjunto linealmente independiente en V y el número
mı́nimo de vectores que debe tener un conjunto generador de V.

Teorema 4.8. Sea V un espacio vectorial no cero de dimensión n y S un subconjunto no


vacı́o de V con m elementos.

1. Si S es linealmente independiente entonces m ≤ n.

2. Si S genera a V entonces m ≥ n.

Demostración. 1. Dado que la dimensión de V es n entonces V tiene una base que consta de n
vectores. De acuerdo con el Teorema 4.7 cualquier conjunto linealmente independiente en V
tiene a lo sumo n vectores. Ası́, m ≤ n.

2. Si S es linealmente independiente y como, por hipótesis, S genera a V, entonces S es una base


de V y por lo tanto S consta también de n vectores. Ası́, m = n.
Si en cambio S es linealmente dependiente entonces uno de los vectores de S es combinación
lineal de los restantes, si se elimina este vector se obtiene un conjunto S1 que consta de m − 1
vectores y que, de acuerdo al Teorema 4.4, también genera a V. Si S1 es linealmente independiente
entonces S1 es una base de V y dado que dim(V) = n resulta m − 1 = n y por lo tanto m > n. Si
S1 es linealmente dependiente, se repite este procedimiento. La eliminación reiterada de vectores
de S se termina cuando se obtiene un subconjunto de S, Sk , que consta de m − k elementos y
que es linealmente independiente y generador de V. Este conjunto Sk es entonces una base de V
y por lo tanto debe ser m − k = n. Luego, m > n.
Ası́, si S genera a V resulta m ≥ n.

Actividad 4.7. Sea S un conjunto que consta de 10 vectores de Rn . ¿Qué puede asegurarse respecto
al número n en cada uno de los siguientes casos?

1. S es linealmente independiente.

2. S es generador de Rn .

3. S es una base de Rn .

En general para demostrar que un conjunto de vectores, S = {u1 , u2 , ..., un }, es una base de un espacio
vectorial V se tiene que demostrar que los vectores son linealmente independientes y que generan a
V. Sin embargo, si se conoce de antemano que V tiene dimensión n, de modo que S tiene el número

Material de uso interno Mateu-Semitiel 139


CAPÍTULO 4. ESPACIOS VECTORIALES

correcto de vectores para ser una base, el Teorema 4.9 asegura que basta comprobar sólo uno de los
dos requisitos.
El siguiente lema es clave para la demostración de dicho teorema:

Lema 4.1. (Ampliación de un conjunto linealmente independiente) Si S es un subconjunto


linealmente independiente de un espacio vectorial V y w es un vector de V que no pertenece
al espacio generado por S, entonces el conjunto que se obtiene agregando el vector w a S es
linealmente independiente.

Demostración. Sea S = {u1 , u2 , ..., uk } un subconjunto linealmente independiente de V y w un vector


de V que no pertenece al gen(S).
Para demostrar que S 0 = {u1 , u2 , ..., uk , w} es linealmente independiente debe probarse que la
única combinación lineal de vectores de S 0 que da como resultado el vector 0 es la trivial. Sean
entonces c1 , c2 ,..., ck , c, escalares tales que

c1 u1 + c2 u2 + ... + ck uk + cw = 0. (4.6)

Necesariamente c = 0 ya que de otro modo:


 c   c   c 
1 2 k
w= − u1 + − u2 + ... + − uk ,
c c c
y w estarı́a en gen(S) contradiciendo la hipótesis.
Dado que c = 0 entonces cw = 0 por lo cual la igualdad (4.6) se convierte en:

c1 u1 + c2 u2 + ... + ck uk = 0,

y como por hipótesis S es linealmente independiente, necesariamente c1 = c2 = ... = ck = 0.


Ası́, la igualdad dada en (4.6) se verifica sólo si c1 = c2 = ... = ck = c = 0, que prueba que S 0 es
linealmente independiente.

Teorema 4.9. Sea V un espacio vectorial no cero de dimensión n y sea S un subconjunto


de V con n vectores.

1. Si S es linealmente independiente entonces S es una base de V.

2. Si S genera a V entonces S es una base de V.

Demostración. 1. Sea S = {u1 , u2 , ..., un } un subconjunto linealmente independiente de V. Si S no


genera a V entonces hay un vector w en V que no pertenece al gen(S). Por el lema anterior, el
conjunto S1 = {u1 , u2 , ..., un , w} es linealmente independiente. Dado que S1 tiene n+1 elementos
esto contradice la parte 1 del Teorema 4.8 (todo subconjunto linealmente independiente consta
a lo sumo de n vectores). Por lo tanto, S genera a V y por ser linealmente independiente, S es
una base de V.

2. Sea S = {u1 , u2 , ..., un } un conjunto generador de V. Si S no es linealmente independiente


entonces uno de los vectores de S es combinación lineal de los restantes. Si se elimina este vector
del conjunto S, se tiene un subconjunto con n − 1 elementos y que, de acuerdo al Teorema 4.4,
sigue generando a V. Esto contradice la parte 2 del Teorema 4.8 (todo subconjunto generador

Material de uso interno Mateu-Semitiel 140


CAPÍTULO 4. ESPACIOS VECTORIALES

de V consta al menos de n vectores). Luego, S es linealmente independiente y como genera a V,


entonces S es una base de V.

Ejemplo 4.64. El conjunto S = {(1, 1), (2, −4)} de R2 es linealmente independiente (¿por qué?) y
tiene 2 elementos. Como dim R2 = 2 entonces S es una base de R2 .J

El teorema siguiente puede ser muy útil en la práctica. En él se afirma que en un espacio vectorial
finito dimensional, procediendo adecuadamente, se puede obtener una base agregando vectores a un
conjunto linealmente independiente o quitando vectores de un conjunto generador.

Teorema 4.10. Sea V un espacio vectorial no cero de dimensión n y S un subconjunto no


vacı́o de V que consta de m elementos.

1. Si S es linealmente independiente y m < n, entonces S puede ampliarse a una base de


V.

2. Si S genera a V y m > n, entonces S contiene una base de V.

Demostración. 1. Sea S = {u1 , u2 , ..., um } un subconjunto linealmente independiente de V con


m < n elementos. S no puede generar a V puesto que se requiere al menos n vectores para
generarlo (Teorema 4.8, parte 2). Por lo tanto hay un vector u en V que no pertenece al gen(S).
Ası́, de acuerdo al Lema 4.1, el conjunto S1 = {u1 , u2 , ..., um , u} es linealmente independiente,
y consta de m + 1 elementos. Si m + 1 = n entonces, por Teorema 4.9 parte 1, S1 es una base
de V. Si m + 1 < n entonces S1 no genera a V y se repite este procedimiento con S1 en lugar de
S hasta llegar a un conjunto Sk que es linealmente independiente y consta de n vectores. Por el
Teorema 4.9 parte 1, Sk es una base de V y contiene a S. Por lo tanto, S puede ampliarse a una
base de V.

2. Sea S un conjunto generador de V que consta de m > n vectores. S es linealmente dependiente


ya que n es el número máximo de vectores que puede tener un subconjunto linealmente inde-
pendiente de V (Teorema 4.8, parte 1). Dado que n ≥ 1 entonces S tiene al menos dos vectores
distintos y, por ser linealmente dependiente, uno de los vectores de S es combinación lineal de
los restantes. Si se elimina este vector, se obtiene un subconjunto S1 de S que contiene m − 1
elementos y que, de acuerdo al Teorema 4.4, sigue generando a V. Si m − 1 = n entonces, por
Teorema 4.9 parte 2, S1 es una base de V. Si m − 1 > n entonces S1 es linealmente dependiente
y se repite el procedimiento con S1 en lugar de S hasta llegar a un subconjunto de S, Sk , que es
generador de V y que consta de n elementos. Por el Teorema 4.9 parte 2, Sk es una base de V.
Por lo tanto todo conjunto generador de V contiene una base de V.

Dado un conjunto finito, S, en un espacio vectorial V la parte 2 del teorema anterior provee un
procedimiento para encontrar un subconjunto de S que es una base para el espacio gen(S). El ejemplo
siguiente es ilustrativo de esta construcción. El método puede resultar tedioso puesto que cada vez
que se elimina un vector se debe analizar la dependencia lineal de los vectores restantes. En la Sección
4.7 se proporcionará un método que permite encontrar de una manera más directa un subconjunto de
S que sea una base para el gen(S).

Material de uso interno Mateu-Semitiel 141


CAPÍTULO 4. ESPACIOS VECTORIALES

Ejemplo 4.65. Sea el subconjunto S = {p1 , p2 , p3 , p4 , p5 } del espacio vectorial P3 donde p1 = 1 + x +


2x3 , p2 = x + x2 − x3 , p3 = 2 + 3x + x2 + 3x3 , p4 = −1 + x2 − 3x3 y p5 = 1 + x + x2 + x3 , y se desea
encontrar una base para el espacio W = gen(S).
Claramente S es linealmente dependiente ya que consta de 5 polinomios de P3 y dim (P3 ) = 4.
Se deduce entonces que uno de los polinomios de S es combinación lineal de los restantes. Si no se
descubre a simple vista uno de tales polinomios, debe resolverse la ecuación:
c1 1 + x + 2x3 +c2 x + x2 − x3 +c3 2 + 3x + x2 + 3x3 +c4 −1 + x2 − 3x3 +c5 1 + x + x2 + x3 = 0,
    

y operando
(c1 + 2c3 − c4 + c5 )+(c1 + c2 + 3c3 + c5 ) x+(c2 + c3 + c4 + c5 ) x2 +(2c1 − c2 + 3c3 − 3c4 + c5 ) x3 = 0,
que conduce al sistema lineal homogéneo


 c1 + 2c3 − c4 + c5 = 0
c1 + c2 + 3c3 + c5 = 0

c + c3 + c4 + c5 = 0
 2


2c1 − c2 + 3c3 − 3c4 + c5 = 0
Aplicando Gauss-Jordan a la matriz aumentada del sistema, se obtiene su forma escalonada redu-
cida (verifı́quelo):
0 2 −1
 
1 0 : 0
 0 1 1 1 0 : 0 
 
 0 0 0 0 1 : 0 
0 0 0 0 0 : 0
Las variables libres son c3 y c4 y la solución general del sistema esá dada por c1 = −2r + t,
c2 = −r − t, c3 = r, c4 = t, c5 = 0 con t, r ∈ R.
Por lo tanto el polinomio cero se obtiene de las infinitas maneras siguientes como combinación
lineal de los polinomios p1 , p2 , p3 , p4 y p5 :
(−2r + t) p1 + (−r − t) p2 + rp3 + tp4 + 0p5 = 0, r, t ∈ R. (4.7)
El polinomio p5 no puede expresarse como combinación lineal de los polinomios restantes.
El polinomio p4 puede expresarse como combinación lineal de los restantes tomando, por ejemplo,
t = 1:
p4 = (2r − 1)p1 + (r + 1)p2 − rp3 + 0p5 , r ∈ R.

Si se elimina p4 de S se obtiene el conjunto S1 = {p1 , p2 , p3 , p5 } que genera el mismo espacio, W, que


S. Puede comprobarse rápidamente que estos vectores verifican la siguiente relación de dependencia
lineal, resolviendo la ecuación d1 p1 + d2 p2 + d3 p3 + d4 p5 = 0 o bien tomando t = 0 en la ecuación (4.7):
(−2r)p1 + (−r)p2 + rp3 + 0p5 = 0, r ∈ R.
Es claro que el conjunto S1 es linealmente dependiente y el polinomio p3 puede expresarse como
combinación lineal de los restantes polinomios de S1 tomando, por ejemplo, r = 1:
p3 = 2p1 + p2 + 0p5 .
Eliminando p3 se obtiene el conjunto S2 = {p1 , p2 , p5 } que genera el mismo espacio, W, que S.
Es fácil comprobar que S2 es linealmente independiente sin resolver ninguna ecuación dado que p1
y p2 son linealmente independientes y p5 no es combinación lineal de ellos. Ası́ S2 es una base para
W = gen(S) que está contenida en S. J

Material de uso interno Mateu-Semitiel 142


CAPÍTULO 4. ESPACIOS VECTORIALES

Actividad 4.8. Considere el subconjunto S = {u1 , u2 } del espacio R4 donde u1 = (1, 2, 1, 0) y


u2 = (−1, 1, −1, 1). Siguiendo la demostración de la parte 1 del teorema anterior, amplı́e el conjunto
S hasta obtener una base de R4 .

El siguiente teorema demuestra que todo subespacio de un espacio vectorial V finito dimensional es
(como es de esperar) también finito dimensional y que su dimensión no supera a la dimensión de V.

Teorema 4.11. Sea W un subespacio de un espacio vectorial V no cero de dimensión n.


Entonces:

1. W es finito dimensional y dim(W) ≤ n.

2. dim(W) = n si y sólo si W = V

Demostración. 1. Si W = {0} entonces W es finito dimensional y dim(W) = 0. Dado que n ≥ 1


entonces dim(W) < n.

Supóngase W 6= {0}. Debe probarse que W contiene un conjunto finito que es una base de W y
que dicha base no contiene más de n vectores.

Dado que W no es el subespacio cero entonces W contiene subconjuntos linealmente independien-


tes (para cualquier vector w 6= 0 en W, el conjunto unitario {w} es linealmente independiente).

Sea S = {w1 , w2 , ..., wm } un subconjunto de W que es linealmente independiente. Dado que


dim(V) = n, S contiene a lo sumo n vectores, esto es: m ≤ n. Si S genera a W entonces S es
una base de W. Ası́, W es finito dimensional y dim(W) = m ≤ n.
Si S no genera a W, hay un vector w en W que no pertence a gen(S). Agregando el vector
w al conjunto S se obtiene un subconjunto S1 de W que, de acuerdo al Lema 4.1, es también
linealmente independiente y por lo tanto tiene a lo sumo n vectores. Si S1 genera a W entonces
S1 es una base de W y por lo tanto W es finito dimensional y dim(W) ≤ n. Si S1 no genera
a W, se repite el procedimiento con S1 en lugar de S, y en no más de n pasos se llega a un
subconjunto, Sk , de W que contiene a lo sumo n vectores y que es linealmente independiente y
generador de W. El conjunto Sk es una base de W, ası́ W es finito dimensional y dim(W) ≤ n.

2. Trivialmente, si W es el propio espacio V entonces dim(W) = n.


Recı́procamente, supóngase que dim(W) = n. Si S es una base de W entonces S es un conjunto
generador de W que consta de n vectores linealmente independientes. Dado que S es también
un subconjunto de V que es linealmente independiente y dim(V) = n, de acuerdo al Teorema
4.9, S es una base de V. Por lo tanto gen(S) = V, y como gen(S) = W, resulta V = W.

Ejemplo 4.66. Los subespacios de R2 son:

Subespacios de dimensión cero: hay uno solo, el subespacio trivial {0}.

Subespacios unidimensionales: hay infinitos, todas las rectas que pasan por el origen. Son del
tipo gen {u} con u 6= 0.

Subespacios bidimensionales: hay uno solo, el mismo espacio R2 .

Material de uso interno Mateu-Semitiel 143


CAPÍTULO 4. ESPACIOS VECTORIALES

Actividad 4.9. Describa geométricamente todos los subespacios de R3 .

Ejercicios

1. Determine si los conjuntos dados son bases de R3 :

a) {(1, −1, 3), (0, 4, −1), (1, 1, 1)}


b) {(1, 1, 1), (0, −1, 5)}
c) {(0, 0, 1), (1, −1, 2), (1, 0, 0), (0, 1, −1)}
d ) {(1, −1, 2), (2, 0, 4), (1, −2, 2)}

2. Determine si los conjuntos dados son bases de M2 :


       
1 2 3 4 5 6 7 8
a) , , ,
1 2 3 4 5 6 7 8
     
1 1 0 0 1 0
b) , ,
0 0 1 1 0 1
       
1 0 2 1 1 −1 −2 3
c) , , ,
1 1 −1 0 1 0 1 0
3. Determine si los conjuntos dados son bases de P2 :

a) 1 + x + x2 , 2 − x, x + 3x2


b) 1, 1 + 2x, 1 + 2x + 3x2 , 1 − x2


c) 1 + x, x + x2


d ) 2 − x + x2 , 3 + x + x2 , 5 + 2x2


 
a b
4. Sea el subespacio V de M2 que consta de todas las matrices de la forma . Demuestre
c a−b
que {E11 + E22 , E12 − E22 , E21 } es una base de V.

5. Pruebe que si {u1 , u2 , ..., un } es una base de un espacio vectorial V, entonces {cu1 , u2 , ..., un }
donde c 6= 0 es también una base de V.

6. En caso, halle la dimensión del subespacio W de V:

a) W = {(a − b, b, 2a + b) : a, b ∈ R}; V = R3 .
b) W = {(a, b, 0) : a, b ∈ R}; V = R3 .
c) W = {(2a, −b, a + b) : a, b ∈ R}; V = R3 .
d ) W es el conjunto de todos los vectores de R4 cuya primera y última componentes son cero;
V = R4 .
e) W = gen {(1, 2, −1, 0) , (0, 3, 1, 0) , (1, 1, 1, 1) , (2, 6, 1, 1)}; V = R4 .
  
a b
f) W = : a, b ∈ R ; V = M2 .
2b a − b

Material de uso interno Mateu-Semitiel 144


CAPÍTULO 4. ESPACIOS VECTORIALES

       
1 −1 0 0 1 1 3 −1
g) W = gen , , , ; V = M2 .
2 0 1 0 −1 1 2 1
h) W = a + bx − (a + b)x2 : a, b ∈ R ; V = P2 .


i ) W = gen 1 + x, 1 − x2 , 2 + x4 , x + x4 ; V = P.


7. Indique el valor de a de modo que el subespacio gen 1 + x, −1 + 2x + ax2 , 2 + x − x2



de P2
sea de dimensión 2.

8. Halle la dimensión del subespacio W = {a cos x + b sen x : a, b ∈ R} de F (R).

9. Encuentre una base para el subespacio gen ex , xex , x2 ex de F (R) y obtenga su dimensión.


10. Halle la dimensión del subespacio gen cos2 x, sen2 x, 1 de F (R).




11. En cada caso el conjunto S genera al espacio V. Reduzca S hasta obtener una base de V:
         
 1 2 6 −1 2 
a) S =  1  ,  −1  ,  3  ,  3  ,  3  , V = R3 .
0 3 3 4 1
 

b) S = {1 + x, −5x, 3 + 4x}, V = P1 .

12. En cada caso S es un conjunto linealmente independiente del espacio V. Amplı́e S hasta obtener
una base de V:

a) S = {(1, −1, 3)}; V = R3 .


   
1 2 −1 1
b) S = , ; V = M2 .
1 0 3 0
13. Responda verdadero o falso. Justifique adecuadamente su respuesta:

a) R10 tiene un subespacio de dimensión 9.


b) Un subespacio no cero, de R10 , puede tener dos bases con diferente número de elementos.
c) Un subespacio no cero, de P5 , puede tener una base con 7 elementos.
d ) Un subespacio no cero, de P5 , puede tener una base con 5 elementos.
e) Si S = {u, v} es un conjunto linealmente independiente del espacio vectorial V de dimensión
2, entonces {u − v, u + v} es una base de V.
f ) Sea V un espacio vectorial de dimensión 3. Si {u, v, w} es conjunto generador de V, entonces
{2u, u − v, u + v + w} es una base de V.
g) Si V es un espacio vectorial de dimensión n y k es un número entero tal que 0 ≤ k ≤ n,
entonces hay un subespacio W de V tal que dim(W) = k.
h) Para cualesquiera u y v vectores del espacio V, dim (gen {u, v}) = dim (gen {u − v, u + v}).
i ) Un espacio vectorial V tal que dim(V) = 1 no tiene subespacios propios.
j ) Si W es un subespacio no trivial de un espacio vectorial V de dimensión n ≥ 2, entonces
toda base de W puede ampliarse a una base de V.
k ) Si W es un subespacio no trivial de un espacio vectorial V de dimensión n ≥ 2, entonces
toda base de V contiene una base de W.

Material de uso interno Mateu-Semitiel 145


CAPÍTULO 4. ESPACIOS VECTORIALES

4.6. Coordenadas y cambio de base


En esta sección se estudia la relación entre la noción de base y la de sistema de coordenadas.
En la geometrı́a del plano se asocia un par ordenado (a, b) de números reales a un punto P en el
plano aplicando dos ejes perpendiculares x e y llamados ejes de coordenadas, a es la coordenada de P
con respecto al eje x y b es la coordenada de P con respecto al eje y (véase Figura 4.8).

Figura 4.8: Coordenadas (a, b) del punto P en el plano

También se pueden introducir coordenadas utilizando vectores. Por ejemplo, véase Figura 4.9, los
versores fundamentales i y j forman una base para R2 y puede verse que al bajar rectas perpendiculares
desde P hacia los ejes x e y determinados por los vectores i y j se obtienen los vectores ai y bj, y que
−−→
OP = ai + bj.

Figura 4.9: Vector OP en el plano

Las coordenadas a y b de P se pueden concebir como los números (coeficientes) necesarios para
−−→
expresar al vector v = OP como combinación lineal de los vectores de la base {i, j}.

Material de uso interno Mateu-Semitiel 146


CAPÍTULO 4. ESPACIOS VECTORIALES

Esta noción de coordenadas se puede extender a espacios más generales. Para esto es necesario un
resultado preliminar:

Teorema 4.12. Si S = {u1 , u2 , ..., un } es una base para un espacio vectorial V entonces
todo vector v en V se puede expresar como combinación lineal de los vectores de S de una
única manera. Es decir, para cada v de V existen únicos escalares c1 , c2 ,...,cn tales que

v = c1 u1 + c2 u2 + ... + cn un .

Demostración. Dado que S genera a V, todo vector de V se puede expresar como una combinación
lineal de los vectores de S. Se verá que la independencia lineal de S asegura que esta manera es única.
Para ello, supóngase que un vector v se puede escribir como

v = c1 u1 + c2 u2 + ... + cn un ,

y también como
v = k1 u1 + k2 u2 + ... + kn un .
Por lo tanto:
c1 u1 + c2 u2 + ... + cn un = k1 u1 + k2 u2 + ... + kn un ,
y operando se obtiene:

(c1 − k1 ) u1 + (c2 − k2 ) u2 + ... + (cn − kn ) un = 0,

que muestra al vector cero como una combinación lineal de los vectores de S y dado que S es linealmente
independiente, necesariamente:

c1 − k1 = 0, c2 − k2 = 0, ..., cn − kn = 0,

es decir
c1 = k1 , c2 = k2 , ..., cn = kn .
Luego, no hay dos maneras distintas de escribir a un vector de V como combinación lineal de los
elementos de una base. Ası́, quedó probado el teorema.

Bases ordenadas y vector de coordenadas


Se conoce que si V es un espacio vectorial de dimensión finita, n, y los vectores u1 , u2 , ..., un conforman
un conjunto S que es una base de V no importa el orden en que se los considere. Ası́, por ejemplo:

S = {u1 , u2 , ..., un } = {u2 , u1 , ..., un } = {un , un−1 , ..., u1 } .

En esta sección interesará el orden en que se toman los vectores de una base y se hablará de bases
ordenadas.
Si u1 , u2 , ..., un son los vectores de una base de V, la base ordenada B es el conjunto B =
{u1 , u2 , ..., un } juntamente con el orden dado. Cambiar el orden en que están enlistados los elementos
de una base ordenada produce una base ordenada diferente. En este sentido B1 = {u2 , u1 , ..., un } es
una base ordenada distinta a la base ordenada B.

Material de uso interno Mateu-Semitiel 147


CAPÍTULO 4. ESPACIOS VECTORIALES

Definición (Vector de coordenadas). Sea V un espacio vectorial finito dimensional de


dimensión n y B = {u1 , u2 , ..., un } un base ordenada de V. Dado que B es una base de V,
para cada vector v de V existen únicos escalares c1 , c2 , ..., cn tales que

v = c1 u1 + c2 u2 + ... + cn un .

Los coeficientes c1 , c2 , ..., cn de la combinación lineal se denominan coordenadas del vector v


respecto a la base ordenada B. El coeficiente ci , correspondiente al i-ésimo vector ui de la
base ordenada B, es la coordenada i-ésima del vector v (respecto a la base ordenada B).
El vector de coordenadas de v respecto a la base ordenada B se denota por [v]B y es el vector
columna de Rn definido por  
c1
 c2 
[v]B =  .  .
 
 .. 
cn
La i-ésima componente ci del vector [v]B es la coordenada i-ésima del vector v con respecto
a la base ordenada B.

Observe que un cambio en el orden de los vectores del conjunto B conduce a un cambio en el orden
de las componentes del vector de coordenadas de v y por lo tanto a vectores de coordenadas distintos.
De ahı́ la necesidad de imponer algún orden a los vectores que forman una base B y considerar bases
ordenadas de modo que no se produzcan ambigüedades al definir la i-ésima coordenada de v.
Toda base a lo largo de esta sección se considera una base ordenada aún cuando no se lo explicite.
Vale aclarar que el vector de coordenadas se tomó como vector columna aunque bien podrı́a haber
sido expresado en la forma
(v)B = (c1 , c2 , ..., cn ) .
La notación como columna es sólo por conveniencia ya que es útil cuando se procede a describir
qué le sucede a las coordenadas de un vector v cuando se cambia de una base ordenada a otra.

Correspondencia entre V y Rn
Debe observarse que fijada una base ordenada B = {u1 , u2 , ..., un } de un espacio vectorial V de
dimensión n, existe una correspondencia biunı́voca entre el conjunto V y el conjunto Rn . En efecto, la
asignación
v → [v]B ,
hace corresponder a cada vector v de V un único vector de Rn , el vector [v]B .
 
c1
 c2 
Recı́procamente, cada vector  .  de Rn es el vector de coordenadas, con respecto a la base B,
 
 .. 
cn
de un único vector v de V, a saber, el vector v = c1 u1 + c2 u2 + ... + cn un .

Ejemplo 4.67. Sean las siguientes bases (ordenadas) de R2 , la estándar E = {e1 , e2 } y la base
B = {u1 , u2 } donde u1 = (1, 2) y u2 = (3, 1), y el vector v = (11, 7).

Material de uso interno Mateu-Semitiel 148


CAPÍTULO 4. ESPACIOS VECTORIALES

Puede verificarse rápidamente que

v = (11, 7) = 2(1, 2) + 3(3, 1) = 2u1 + 3u2 ,

y ası́, 2 y 3 son la primera y segunda coordenada de v respecto de la base B, respectivamente. Luego,


 
2
[v]B = .
3

Por otra parte,


v = (11, 7) = 11(1, 0) + 7(0, 1) = 11e1 + 7e2 ,
luego  
11
[v]E = .
7
En la Figura 4.10 se muestra al vector v considerado tanto como combinación lineal de e1 y e2 ,
como combinación lineal de u1 y u2 .J

Figura 4.10: Vector v como combinación lineal de los vectores de E y B

Ejemplo 4.68. Sean los vectores u1 , u2 y v del ejemplo anterior, y la base ordenada S = {u2 , u1 }
de R2 . Entonces:
v = (11, 7) = 2u1 + 3u2 (= 3u2 + 2u1 ) ,
luego  
3
[v]S = .J
2

Material de uso interno Mateu-Semitiel 149


CAPÍTULO 4. ESPACIOS VECTORIALES

Ejemplo 4.69. (Obtención de v a partir de [v]B )


Considere la base B = {u1 , u2 , u3 } de R3 donde u1 = (1, 0, 2), u2 = (2, 1, −3) y u3 = (3, 1, 0). Si el
vector de coordenadas de un vector v de R3 en la base B es
 
−1
[v]B =  2  ,
4

entonces el vector v es

v = (−1)u1 + 2u2 + 4u3 = (−1, 0, −2) + (4, 2, −6) + (12, 4, 0) = (15, 6, −8). J

Ejemplo 4.70. (Vector de coordenadas del vector 0)


Sea B = {u1 , u2 , ..., un } una base de un espacio vectorial V. El vector de coordenadas del cero de V
es el vector 0 de Rn . Esto es:  
0
 0 
[0]B =  .  ,
 
 .. 
0
ya que el vector 0 de V se escribe como combinación lineal de los vectores de B de la siguiente única
manera:
0 = 0u1 + 0u2 + ... + 0un . J

Ejemplo 4.71. Sea B = {u1 , u2 , ..., un } una base de un espacio vectorial V. Los vectores de coorde-
nadas de los vectores u1 , u2 ,..., un con respecto a la base B que los contiene, son los vectores de la
base estándar de Rn , e1 , e2 ,...,en . En efecto, para todo j = 1, 2, ..., n:

uj = 0u1 + 0u2 + ... + 0uj−1 + 1uj + 0uj+1 + ... + 0un ,

luego
 
0

 0 

 .. 

 . 

[uj ]B =  1  ← j-ésima coordenada.
 
 .. 

 . 

 0 
0

Ası́, [uj ]B = ej para todo j = 1, 2, ..., n.J

Ejemplo 4.72. (Coordenadas de un vector x de Rn con respecto a la base estándar)


Las coordenadas de un vector x = (x1 , x2 , ..., xn ) de Rn con respecto a la base estándar coinciden con
las componentes de dicho vector.

Material de uso interno Mateu-Semitiel 150


CAPÍTULO 4. ESPACIOS VECTORIALES

En efecto, sea E = {e1 , e2 , ..., en } la base estándar ordenada de Rn . Dado que:

x = (x1 , x2 , ..., xn ) = x1 e1 + x2 e2 + ... + xn en ,

entonces,  
x1
 x2 
[x]E =  .
 
..
 . 
xn
Puede observarse que el vector de coordenadas [x]E es el mismo vector x, escrito como vector
columna.J

Encontrar las coordenadas de un vector particular usualmente involucra resolver un sistema de ecua-
ciones lineales a menos que la base tenga algo especial como la base canónica o estándar, o las bases
ortogonales que se verán en secciones posteriores.

Ejemplo 4.73. Sean las siguientes bases (ordenadas) de P2 : la base canónica E = 1, x, x2 y la base


B = {p1 , p2 , p3 } donde p1 = 1 + x + x2 , p2 = x + 2x2 y p3 = 2 + 3x2 .


3
Se quiere hallar los vectores de coordenadas [p]E y [p]B del polinomio p = 2 + 72 x − 2x2 .
3
(1) + 27 (x) + (−2) x2 .

Es muy fácil hallar las coordenadas de p en la base canónica E ya que p = 2
Luego:  
3/2
[p]E =  7/2  .
−2
Para hallar [p]B deben encontrarse los números (únicos) c1 , c2 y c3 tales que

c1 p1 + c2 p2 + c3 p3 = p,

esto es
 3 7
c1 1 + x + x2 + c2 x + 2x2 + c2 2 + 3x2 = + x − 2x2 ,
 
2 2
operando
3 7
(c1 + 2c3 ) + (c1 + c2 ) x + (c1 + 2c2 + 3c3 ) x2 = + x − 2x2 ,
2 2
y por igualdad de polinomios 
 c1 +2c3 = 3/2
c1 +c2 = 7/2
c1 +2c2 +3c3 = −2

La solución de este sistema es c1 = 92 , c2 = −1 y c3 = − 32 , y por lo tanto


 
9/2
[p]B =  −1  . J
−3/2

Material de uso interno Mateu-Semitiel 151


CAPÍTULO 4. ESPACIOS VECTORIALES

Ahora se trata el problema central de esta sección, el problema del cambio de base.

Matriz de transición o de cambio de base


Supóngase que B1 = {u1 , u2 , ..., un } y B2 = {v1 , v2 , ..., vn } son dos bases ordenadas de un espacio
vectorial V de dimensión n. Se examinará la relación que existe entre los vectores de coordenadas [v]B1
y [v]B2 de cualquier vector v de V.
Sea v un vector de V cuyo vector de coordenadas en la base B1 es
 
c1
 c2 
[v]B1 =  .  ,
 
 .. 
cn
entonces
v = c1 u1 + c2 u2 + ... + cn un . (4.8)
Si se quiere encontrar el vector de coordenadas de v con respecto a la base B2 , [v]B2 , deben hallarse
los coeficientes que permiten expresar al vector v como combinación lineal de los vectores de la base
B2 . Para ello se expresará cada vector ui de la base B1 como combinación lineal de los vectores de la
base B2 . Sean entonces:
u1 = a11 v1 + a21 v2 + ... + an1 vn
u2 = a12 v1 + a22 v2 + ... + an2 vn
.. (4.9)
.
un = a1n v1 + a2n v2 + ... + ann vn
de modo que      
a11 a12 a1n
 a21   a22   a2n 
[u1 ]B2 =  , [u ] = , ..., [u ] = .
     
..  2 B2  ..  n B2  ..
 .   .   . 
an1 an2 ann
Reemplazando las expresiones (4.9) en (4.8) y operando (verifique) se obtiene el vector v expresado
como combinación lineal de los vectores de la base B2 :
v = (c1 a11 + c2 a12 + ... + cn a1n ) v1 +(c1 a21 + c2 a22 + ... + cn a2n ) v2 +...+(c1 an1 + c2 an2 + ... + cn ann ) vn .
Los coeficientes que acompañan a los vectores v1 , v2 ,..., vn de la expresión anterior son las coor-
denadas del vector v con respecto a la base B2 . Ası́, y por definición de producto de matrices:
    
c1 a11 + c2 a12 + ... + cn a1n a11 a12 ... a1n c1
 c1 a21 + c2 a22 + ... + cn a2n   a21 a22 ... a2n   c2 
[v]B2 =   =  .. ..   ..  .
    
.. ..
 .   . . ... .   . 
c1 an1 + c2 an2 + ... + cn ann an1 an2 ... ann cn
 
c1
 c2 
Dado que   = [v]B1 , y llamando P a la matriz que lo premultiplica, entonces:
 
..
 . 
cn
[v]B2 = P [v]B1 ,

Material de uso interno Mateu-Semitiel 152


CAPÍTULO 4. ESPACIOS VECTORIALES

donde  
a11 a12 ... a1n
 a21 a22 ... a2n 
P = .
 
.. .. ..
 . . ... . 
an1 an2 ... ann

La igualdad anterior muestra que premultiplicando el vector de coordenadas de un vector v en la


base B1 por la matriz P , se obtiene el vector de coordenadas del mismo vector v en la base B2 .
Debe observarse que la matriz P tiene como columnas a los vectores de coordenadas de los vectores
de la base B1 con respecto a la base B2 es decir
 
P = [u1 ]B2 [u2 ]B2 ... [un ]B2 .

Se ha probado el siguiente teorema:

Teorema 4.13. Sea V un espacio vectorial de dimensión n y sean B1 = {u1 , u2 , ..., un } y


B2 = {v1 , v2 , ..., vn } dos bases ordenadas de V. Entonces existe una matriz , P , de n × n tal
que:
∀ v ∈ V, [v]B2 = P [v]B1 .
 
En términos de sus columnas, P = [u1 ]B2 [u2 ]B2 ... [un ]B2 .

La matriz P del teorema anterior es la única matriz tal que para cada v en V, [v]B2 = P [v]B1 (puede
verse una demostración al final de esta sección). Esta matriz es llamada matriz de transición o de
cambio de base de la base B1 a la base B2 .

Ejemplo 4.74. (Cálculo de una matriz de transición) En el espacio vectorial R2 , sean las bases
ordenadas B1 = {u1 , u2 } y B2 = {v1 , v2 } donde u1 = (2, 0), u2 = (1, 2), v1 = (6, 3) y v2 = (4, −1).
La matriz P de transición de la base B1 a la base B2 tiene por columnas los vectores de coordenadas
de los vectores de B1 con respecto a la base B2 , es decir
 
P = [u1 ]B2 [u2 ]B2 .

Material de uso interno Mateu-Semitiel 153


CAPÍTULO 4. ESPACIOS VECTORIALES

Para calcular [u1 ]B2 , se deben determinar los coeficientes (únicos) a1 y a2 tales que

a1 v1 + a2 v2 = u1 ,

es decir
a1 (6, 3) + a2 (4, −1) = (2, 0) ,
o bien 
6a1 + 4a2 = 2
.
3a1 − a2 = 0
Se trata entonces de encontrar la (única) solución del sistema lineal de matriz aumentada:
 
6 4 : 2  
= v 1 v 2 : u1 ,
3 −1 : 0
entendiendo que v1 , v2 y u1 están expresados como vectores columna.
Similarmente, para hallar [u2 ]B2 , se deben determinar los (únicos) coeficientes b1 y b2 tales que

b1 v1 + b2 v2 = u2 ,

es decir
b1 (6, 3) + b2 (4, −1) = (1, 2) ,
o bien 
6b1 + 4b2 = 1
3b1 − b2 = 2
por lo que se tiene entonces que encontrar la (única) solución del sistema lineal de matriz aumentada:
 
6 4 : 1  
= v 1 v 2 : u2 .
3 −1 : 2
Como la matriz de coeficientes de los dos sistemas es la misma,
 éstos se pueden resolver en forma
simultánea llevando la matriz aumentada v1 v2 : u1 u2 a su forma escalonada reducida.
Aplicando Gauss-Jordan:
     
  6 4 : 2 1 6 4 : 2 1 6 4 : 2 1
v1 v2 : u1 u2 = → → →
3 −1 : 0 2 0 −3 : −1 23 0 1 : 31 − 12
2 1 1
   
6 0 : 3 3 1 0 : 9 2
→ 1 → ,
0 1 : 3 − 21 0 1 : 1
3 − 12
por lo cual, la solución del primer sistema es a1 = 91 , a2 = 13 es decir
 1 
[u1 ]B2 = 91 ,
3

y la solución del segundo sistema es b1 = 21 , b2 = − 12 es decir


 1 
[u2 ]B2 = 2 .
− 12
Ası́, la matriz de transición de la base B1 a la base B2 es
 1 1

P = 1 9 2 .J
1
3 −2

Material de uso interno Mateu-Semitiel 154


CAPÍTULO 4. ESPACIOS VECTORIALES

Obsérvese del ejemplo anterior que la matriz P de transición de la base B1 a la base B2 se obtuvo al
aplicar eliminación de Gauss-Jordan a la matriz
 
6 4 : 2 1  
= v 1 v 2 : u1 u2
3 −1 : 0 2

donde v1 y v2 son los vectores de la base final, B2 , y u1 y u2 son los vectores de la base inicial, B1 .
La forma escalonada reducida de esta matriz es la matriz de 2 × 4 que tiene en el lado izquierdo a
la matriz identidad, I2 , y en el lado derecho a la matriz P de transición de B1 a B2 :

1 0 : 19 1
 
2 = [I : P ] .
0 1 : 13 − 21
 
Debe notarse que la forma escalonada reducida de la matriz v 1 v 2 es la matriz identidad
2
 
I = e1 e2 . Esto no es casual ya que siendo {v1 , v2 } una base de R hay una única manera de
expresar
 un vector de R2 como combinación lineal de v1 y v2 , luego cualquier sistema lineal que tiene
a v1 v2 como matriz de coeficientes tiene solución única, y por lo tanto la forma escalonada
reducida de esta matriz es la matriz identidad I.
El procedimiento visto puede generalizarse como manera práctica para calcular una matriz de
cambio de base cuando el espacio vectorial V es Rn .

Cálculo de una matriz de cambio de base en el espacio Rn


Si B1 = {u1 , u2 , ..., un } y B2 = {v1 , v2 , ..., vn } son dos bases ordenadas de Rn , entonces para
hallar la matriz P de transición de la base B1 a la base B2 , el procedimiento es el siguiente:

Forme la matriz de n × 2n donde las primeras n columnas son los vectores (ordenados)
de la base B2 y las siguientes n columnas son los vectores (ordenados) de la base B1 :
 
v1 v2 ... vn : u1 u2 ... un .

Aplique el proceso de eliminación de Gauss-Jordan a dicha matriz. La matriz escalonada


reducida que se obtiene tiene en el lado izquerdo a la matriz identidad, In , y en el lado
derecho a la matriz P de transición buscada:
 
v1 v2 ... vn : u1 u2 ... un → [I : P ] .

Ejemplo 4.75. Sean las bases B1 y B2 de R2 del ejemplo anterior, y el vector v = (7, 6).
Se comprobará la relación [v]B2 = P [v]B1 . Para ello, se obtendrá [v]B2 en forma directa y se
verificará que el mismo resultado se obtiene pre-multiplicando la matriz P por el vector de coordenadas
[v]B1 .
Para calcular [v]B2 en forma directa debe resolverse el sistema lineal que permite encontrar las
coordenadas del vector v respecto a la base B2 . Deben hallarse los coeficientes c1 y c2 tales que

c1 (6, 3) + c2 (4, −1) = (7, 6) ,

o bien 
6c1 + 4c2 = 7
3c1 − c2 = 6

Material de uso interno Mateu-Semitiel 155


CAPÍTULO 4. ESPACIOS VECTORIALES

31
Resolviendo el sistema se obtiene c1 = 18 y c2 = − 65 . Ası́,
31
 
[v]B2 = 18 .
− 65

Por otra parte, puede comprobarse fácilmente que

v = (7, 6) = 2 (2, 0) + 3 (1, 2) ,


 
2
ası́ [v]B1 = . Teniendo calculada la matriz P de transición de la base B1 a la base B2 sólo un
3
producto de matrices es necesario para obtener [v]B2 :
 1 1
    31 
9 2 2 18
P [v]B1 = 1 1 = .
3 − 2 3 − 56
Ası́ se ha obtenido el vector [v]B2 de dos maneras distintas.J

En el Ejemplo 4.74 se halló la matriz P de transición de la base B1 a la base B2 . Se puede también


preguntar por la matriz de transición de la base B2 a la base B1 , es decir se considera a B2 como la
base inicial (o vieja) y a B1 como la base final (o nueva).
Por definición, esta matriz de transición tendrá como columnas los vectores de coordenadas de los
vectores de la base inicial, B2 , con respecto a la base nueva, B1 . Teniendo en cuenta el procedimiento
para hallar esta matriz se deberá aplicar eliminación de Gauss-Jordan a la matriz:
 
  2 1 : 6 4
u1 u2 : v1 v2 = ,
0 2 : 3 −1

obtiéndose (verificar) su forma escalonada reducida:

1 0 : 49 9
 
4 = [I : Q] ,
0 1 : 23 − 12
9 9
 
siendo Q = 4 4 la matriz de transición de la base B2 a la base B1 .
3
2 − 21
Esta matriz es la única que satisface la siguiente propiedad:

[v]B1 = Q [v]B2 , ∀v ∈ V.
1 1 9 9
    
9 2 4 4 1 0
Puede observarse que P Q = 1 = = I, y por lo tanto P es invertible
3 − 12 3
2 − 12 0 1
y Q = P −1 . En general, se tiene el siguiente teorema:

Teorema 4.14. Sea V un espacio vectorial de dimensión n, B1 y B2 dos bases ordenadas de


V y P la matriz de transición de B1 a B2 . Entonces P es invertible y P −1 es la matriz de
transición de B2 a B1 .

Material de uso interno Mateu-Semitiel 156


CAPÍTULO 4. ESPACIOS VECTORIALES

Demostración. Sea Q la matriz de transición de la base B2 a la base B1 . Se probará que P Q = I y


en consecuencia se conluirá que P es invertible y Q = P −1 .

 {u1 , u2 , ..., un } y que la matriz producto de P por Q dada en términos de


Supóngase que B1 =
sus columnas es P Q = c1 c2 ... cn . Dado que P es la matriz de transición de B1 a B2 :

[v]B2 = P [v]B1 , ∀v ∈ V,

y como Q es la matriz de transición de B2 a B1 entonces

[v]B1 = Q [v]B2 , ∀v ∈ V.

Luego, 
[v]B2 = P [v]B1 = P Q [v]B2 = (P Q) [v]B2 , ∀v ∈ V.
Esto es,
[v]B2 = (P Q) [v]B2 , ∀v ∈ V.

En particular para los vectores vj de la base B2 se tiene (P Q) [vj ]B2 = [vj ]B2 , ∀j = 1, 2, ..., n.
Dado que [vj ]B2 = ej , j = 1, 2, ..., n (véase Ejemplo 4.71) resulta

(P Q) ej = ej , ∀j = 1, 2, ..., n.

y como
(P Q) ej = cj , ∀j = 1, 2, ..., n,
entonces cj = ej , ∀j = 1, 2, ..., n. Por lo tanto, las columnas de P Q son e1 , e2 ,..., en es decir
 
P Q = e1 e2 ... en = I.

Ası́, P es invertible y Q = P −1 .

Figura 4.11: Relación entre los vectores de coordenadas en dos bases distintas

Material de uso interno Mateu-Semitiel 157


CAPÍTULO 4. ESPACIOS VECTORIALES

En los ejemplos anteriores el espacio vectorial V considerado fue Rn y se obtuvieron matrices de


transición de una base a otra. El concepto de matriz de transición está definido para cualquier espacio
vectorial de dimensión finita. En el siguiente ejemplo se obtendrá una matriz de transición pero ahora
en el espacio vectorial P2 :
Ejemplo 4.76. En el espacio vectorial P2 , considere las bases ordenadas B1 = {p1 , p2 , p3 } donde
p1 = 1, p2 = 1 + x y p3 = 1 + x + x2 y B2 = {q1 , q2 , q3 } donde q1 = 3 + x − x2 , q2 = x, q3 = 1 − x2 ,.
La matriz P de transición de la base B1 a la base B2 es
 
P = [p1 ]B2 [p2 ]B2 [p3 ]B2 .

Para calcular [p1 ]B2 se deben determinar los coeficientes a1 , a2 y a3 tales que

a1 q1 + a2 q2 + a3 q3 = p1 ,

reemplazando q1 , q2 , q3 , p1 y operando se tiene

(3a1 + a3 ) + (a1 + a2 ) x + (−a1 − a3 ) x2 = 1,

y por igualdad de polinomios se obtiene:



 3a1 +a3 = 1
a1 +a2 = 0
−a1 −a3 = 0

Procediendo de forma similar, para calcular [p2 ]B2 deben hallarse los coeficientes b1 , b2 y b3 tales
que 
 3b1 +b3 = 1
b1 +b2 = 1
−b1 −b3 = 0

y para calcular [p3 ]B2 deben hallarse los coeficientes c1 , c2 y c3 tales que

 3c1 c3 = 1
c1 +c2 = 1
−c1 −c3 = 1

Hay que resolver entonces tres sistemas lineales. Como éstos tienen la misma matriz de coeficientes
es posible hacerlo en forma simultánea. Para ello, se aplica Gauss-Jordan a la matriz aumentada
 
3 0 1 : 1 1 1
 1 1 0 : 0 1 1 
−1 0 −1 : 0 0 1
obteniéndose su forma escalonada reducida:
1 1
 
1 0 0 : 2 2 1
 0 1 0 : − 1 1
2 2 0 .
0 0 1 : − 21 − 12 −2

Luego, la solución del primer sistema es a1 = 21 , a2 = − 12 y a3 = − 12 y por lo tanto


 1 
2
[p1 ]B2 =  − 12  .
− 12

Material de uso interno Mateu-Semitiel 158


CAPÍTULO 4. ESPACIOS VECTORIALES

La solución del segundo sistema es b1 = 21 , b2 = 1


2 y b3 = − 12 y ası́
1
 
2
1
[p2 ]B2 =  2
.
− 12

Y la solución del último sistema es c1 = 1, c2 = 0 y c3 = 2 por lo que


 
1
[p3 ]B2 =  0  .
−2

Luego, la matriz de transición P de la base B1 a la base B2 es


 1 1

2 2 1
P =  − 21 1
2 0 . J
1 1
− 2 − 2 −2

Observación 4.2. En el ejemplo, la matriz P de transición de la base B1 a la base B2 se obtuvo a


partir de la matriz  
3 0 1 : 1 1 1
 1 1 0 : 0 1 1 .
−1 0 −1 : 0 0 1
Puede observarse que la matriz de 3 × 3 de la izquierda tiene como columnas los vectores de
coordenadas de los polinomios de la base nueva, B2 = {q1 , q2 , q3 }, con respecto a la base estándar
2

E = 1, x, x de P2 y la matriz de 3×3 de la derecha tiene como columnas los vectores de coordenadas
de los polinomios de la base vieja, B1 = {p1 , p2 , p3 }, también con respecto a la base estándar E. Esto
es:  
3 0 1 : 1 1 1  
 1 1 0 : 0 1 1  = [q1 ]E [q2 ]E [q3 ]E : [p1 ]E [p2 ]E [p3 ]E .
−1 0 −1 : 0 0 1
La forma escalonada reducida es
1 1
 
1 0 0 : 2 2 1
: − 21 1
 
 0 1 0
2 0  = e1 e2 e3 : [p1 ]B2 [p2 ]B2 [p3 ]B2
0 0 1 : − 21 − 12 −2

y la matriz de transición P de la base B1 a la base B2 es la matriz de 3 × 3 de la derecha.


Este procedimiento puede generalizarse como método para obtener matrices de transición, por
ejemplo, en los espacios vectoriales Mmn y Pn teniendo cuenta sus bases estándar (véase Ejercicio 15).

El siguiente teorema nos permitirá aplicar resultados de los vectores de Rn a los vectores de cualquier
espacio vectorial de dimensión n.

Material de uso interno Mateu-Semitiel 159


CAPÍTULO 4. ESPACIOS VECTORIALES

Teorema 4.15. Sea B una base de un espacio vectorial V de dimensión n y sean v1 , v2 ,...,
vk vectores de V, entonces:

1. El vector de coordenadas de una combinación lineal es la misma combinación lineal de


los vectores de coordenadas:

[c1 v1 + c2 v2 + ... + ck vk ]B = c1 [v1 ]B + c2 [v2 ]B + ... + ck [vk ]B

para todo c1 , c2 ,..., ck en R.

2. v es un vector del espacio generado por {v1 , v2 , ..., vk } si y sólo si [v]B está en el espacio
generado por {[v1 ]B , [v2 ]B , ..., [vk ]B }.

3. El conjunto {v1 , v2 , ..., vk } es linealmente independiente (en V) si y sólo si


{[v1 ]B , [v2 ]B , ..., [vk ]B } es linealmente independiente (en Rn ).

Demostración. Al final de la sección se encuentra una prueba de la parte 1. Las demás se han dejado
como ejercicio.

El resultado siguiente es una consecuencia inmediata del teorema:

Corolario 4.3. Sean V un espacio vectorial de dimensión n y B una base de V. Entonces el


conjunto {v1 , v2 , ..., vn } es una base de V si y sólo si {[v1 ]B , [v2 ]B , ..., [vn ]B } es una base de
Rn .

Ejemplo 4.77. Para demostrar que el conjunto S = {A1 , A2 , A3 , A4 } donde


       
1 −1 0 2 2 1 3 0
A1 = , A2 = , A3 = y A4 = ,
1 1 2 1 4 2 −1 −2
es una base de M2 , de acuerdo al corolario anterior, basta con demostrar que los vectores de coorde-
nadas de las matrices de S respecto a una base cualquiera de M2 forman una base de de R4 .
Si en particular se considera la base estándar E = {E11 , E12 , E21 , E22 } de M2 , entonces el problema
consiste en determinar si el conjunto
S 0 = {[A1 ]E , [A2 ]E , [A3 ]E , [A4 ]E } ,
es una base de R4 . Por considerarse la base estándar, los vectores de coordenadas con respecto a dicha
base se obtienen directamente:
       
1 0 2 3
 −1   2   1   0 
[A1 ]E = 
 1  , [A2 ]E =  2  , [A3 ]E =  4  y [A4 ]E =  −1  .
      

1 1 2 −2

Fácilmente se comprueba que S 0 es una base de R4 (verifı́quelo) y por lo tanto S es una base de
M2 .J

Material de uso interno Mateu-Semitiel 160


CAPÍTULO 4. ESPACIOS VECTORIALES

Unicidad de la matriz de transición


Sean B1 = {u1 , u2 , ..., un } y B2 = {v1, v2 , ..., vn } dos bases ordenadas
 de un espacio vectorial V y la
matriz de transición de B1 a B2 , P = [u1 ]B2 [u2 ]B2 ... [un ]B2 .
Se probará que P es la única matriz que verifica:

[v]B2 = P [v]B1 , ∀v ∈ V.

Para ello, supóngase que A es una matriz de n × n tal que

[v]B2 = A [v]B1 ,

para todo v ∈ V. En particular esta última igualdad debe verificarse para los vectores uj de la base
B1 . Es decir,
A [uj ]B1 = [uj ]B2 , ∀j = 1, 2, ..., n.
De acuerdo al Ejemplo 4.71 , [uj ]B1 = ej , luego

Aej = [uj ]B2 , ∀j = 1, 2, ..., n.

Por otra parte, si a1 , a2 ,..., an son las sucesivas columnas de la matriz A, entonces

Aej = aj , ∀j = 1, 2, ..., n.

Ası́,
aj = [uj ]B2 , ∀j = 1, 2, ..., n.
 
Luego, A = [u1 ]B2 [u2 ]B2 ... [un ]B2 y por lo tanto la matriz A es la matriz P de transición
de la base B1 a la base B2 .

Demostración de la parte 1 del Teorema 4.15


Sea el vector
w = c1 v1 + c2 v2 + ... + ck vk (4.10)
Supongamos que los vectores de coordenadas de los vectores v1 , v2 ,..., vk con respecto a la base
B son los siguientes vectores de Rn :
     
a11 a12 a1k
 a21   a22   a2k 
[v1 ]B =  , [v ] = , ..., [v ] = ..  ,
     
..  2 B  ..  k B 
 .   .   . 
an1 an2 ank

por lo cual

v1 = a11 u1 + a21 u2 + ... + an1 un


v2 = a12 u1 + a22 u2 + ... + an2 un
.. (4.11)
.
vk = a1k u1 + a2k u2 + ... + ank un

Material de uso interno Mateu-Semitiel 161


CAPÍTULO 4. ESPACIOS VECTORIALES

Reemplazando las expresiones (4.11) en (4.10) y operando (verificar), se obtiene el vector w ex-
presado como combinación lineal de los vectores de la base B:

w = (c1 a11 + c2 a12 + ... + ck a1k ) u1 +(c1 a21 + c2 a22 + ... + ck a2k ) u2 +...+(c1 an1 + c2 an2 + ... + ck ank ) un .

Los coeficientes que acompañan a los vectores u1 , u2 ,..., un de la expresión anterior son las coor-
denadas del vector w con respecto a la base B. Ası́:
 
c1 a11 + c2 a12 + ... + ck a1k
 c1 a21 + c2 a22 + ... + ck a2k 
[c1 v1 + c2 v2 + ... + ck vk ]B = 
 
.. 
 . 
c1 an1 + c2 an2 + ... + ck ank
     
a11 a12 a1k
 a21   a22   a2k 
= c1  .  + c2  .  + ... + ck  .
     
 ..   ..   ..


an1 an2 ank

= c1 [v1 ]B + c2 [v2 ]B + ... + ck [vk ]B .

Ejercicios

1. Obtenga, a partir de la base (ordenada) B del espacio R3 y el vector de coordendas [x]B , el


vector x.
 
2
a) B = {e2 , e1 , e3 }, [x]B =  1 
−5
 
−1
b) B = {e1 , e1 + e2 , e1 + e2 + e3 }, [x]B =  2 
5
 
1
c) B = {(−1, 2, 0), (0, 1, 1), (3, −1, −2)}, [x]B =  0 
3
2. Halle el polinomio p en cada caso, siendo B una base (ordenada) del espacio Pn y [p]B su vector
de coordenadas.
 
−2
a) B = {1 + 2x, −2 + x} una base de P1 , [p]B =
3
 
1
b) B = x, x2 , 1 una base de P2 , [p]B =  2 


−3
 
0
 2 
c) B = 1 + x + x3 , x − x2 , 2 − 3x + x2 , x + x2 − x3 una base de P3 , [p]B = 


 3 
−4

Material de uso interno Mateu-Semitiel 162


CAPÍTULO 4. ESPACIOS VECTORIALES

3. Calcule el vector [u]B siendo B = {(−1, 3), (2, −2)} una base (ordenada) de R2 y u = (0, 4).
4. Calcule el vector de coordendas [p]B considerando una base (ordenada) B de Pn y el polinomio
p, en cada caso:
a) B = 1 + 2x, −x2 , x + x2 base de P2 , p = −1 + 3x + 2x2


b) B = {1 + 2x, 2 − 3x} base de P1 , p = −1 − 4x


c) B = 1, 1 + x, 1 + x + x2 , 1 + x + x2 + x3 base de P3 , p = −2 + x − x2 + 4x3


       
1 1 2 0 1 2 −2 0
5. Sea B = , , , una base (ordenada) del espacio M22 .
0 0 −1 0 3 4 0 0
a) Obtenga la matriz A si (A)B = (4, 2, 6, −3).
 
−1 3
b) Halle el vector de coordenadas de la matriz con respecto a la base B.
1 2
6. Sea el subespacio finito dimensional W = {aex + be−x : a, b ∈ R} de F(R).
a) Obtenga una base para W y denomı́nela S.
b) Calcule el vector de coordenadas [f ]S siendo f (x) = cosh x, x ∈ R.
 1 
c) Halle g(x) si [g]S = 2
− 12
7. Demuestre el recı́proco del Teorema 4.12: Sea S = {u1 , u2 , ..., un } un subconjunto de un espacio
vectorial V. Si todo vector v de V puede escribirse de manera única como combinación lineal de
los vectores de S entonces S es una base de V.
8. Halle la matriz de transición de la base (ordenada) B1 a la base (ordenada) B2 del espacio V
que se indica en cada caso:
a) V = R2 ; bases B1 = {u1 , u2 } y B2 = {v1 , v2 } donde u1 = (−2, 3), u2 = (1, −1),
v1 = (0, −2), v2 = (3, 2).
b) V = R3 ; bases B1 = {u1 , u2 , u3 } y B2 = {v1 , v2 , v3 } donde u1 = e2 , u2 = e3 , u3 = e1 ,
v1 = e1 , v2 = e2 , v3 = e3 .
c) V = P1 ; bases B1 = {p1 , p2 } y B2 = {q1 , q2 } donde p1 = 1, p2 = 2 + x, q1 = 2 − x,
q2 = 3 + 4x.
d ) V = M22 ; bases B1 = {A1 , A2 , A3 , A4 } y B2 = {C1 , C2 , C3 , C4 } donde
A1 = E11 C1 = E11
A2 = E11 + E12 C2 = E12
A3 = E11 + E12 + E21 C3 = E21
A4 = E11 + E12 + E21 + E22 C4 = E22

9. Considere las bases (ordenadas) de R3 , B1 = {u1 , u2 , u3 } y B2 = {v1 , v2 , v3 }, donde u1 = (1, 1, 1),


u2 = (−1, 3, 0), u3 = (2, 0, 3), v1 = (0, 0, 2), v2 = (−1, 0, 0), v3 = (2, −1, 5).
a) Encuentre la matriz de transición, P , de la base B1 a la base B2 .
b) Halle la matriz de transición de la base B2 a la base B1 de dos maneras distintas:
i) utilizando la definición de matriz de transición.
ii) calculando la inversa de la matriz P .

Material de uso interno Mateu-Semitiel 163


CAPÍTULO 4. ESPACIOS VECTORIALES

10. (Rotación de los ejes coordenados) En muchos problemas se da un sistema de coordenadas


rectangulares XY y se obtiene un nuevo sistema de coordenadas X 0 Y 0 al hacer girar el sistema
XY en sentido contrario a las agujas del reloj alrededor del origen, un ángulo θ. Entonces cada
punto R en el plano tiene dos conjuntos de coordenadas, las coordenadas (x, y) con respecto
al sistema XY y las coordenadas (x0 , y 0 ) relativas al sistema X 0 Y 0 . Al introducir los vectores
unitarios (longitud 1) e1 y e2 a lo largo de los ejes X y Y positivos, y los vectores unitarios v1 ,
v2 a lo largo de los ejes X 0 y Y 0 positivos, esta rotación se puede considerar como un cambio de
base, de la base E = {e1 , e2 } a la base B = {v1 , v2 }.

Por tanto las nuevas coordenadas de R cumplen la relación


 0   
x x
=P ,
y0 y

donde P es la matriz de cambio de base de E a B.


De la figura siguiente puede observarse que:

Material de uso interno Mateu-Semitiel 164


CAPÍTULO 4. ESPACIOS VECTORIALES

v1 = cos θ e1 + sen θ e2 ,
 π  π
v2 = cos θ + e1 + sen θ + e2 = − sen θ e1 + cos θ e2 .
2 2

Luego,    
cos θ − sen θ
[v1 ]E = y [v2 ]E =
sen θ cos θ
Ası́, la matriz Q de transición de B a E es
 
  cos θ − sen θ
Q= [v1 ]E [v2 ]E =
sen θ cos θ

y la matriz P de transición de E a B es
 
−1 cos θ sen θ  
P =Q = = [e1 ]B [e2 ]B .
− sen θ cos θ

Por lo tanto, se verifican las siguientes relaciones entre los vectores de coordenadas:
    0 
x cos θ − sen θ x
=
y sen θ cos θ y0
y
x0
    
cos θ sen θ x
= .
y0 − sen θ cos θ y

Considere ahora una rotación de ángulo θ = π4 .

a) Si las coordenadas del punto R en el sistema XY son x = 2, y = 4, obtenga las coordenadas


de dicho punto en el sistema final X 0 Y 0 rotado.

b) Si las coordenadas del punto S en el sistema X 0 Y 0 rotado son x0 = 0, y 0 = 3 2 2 , halle las
coordenadas x, y de dicho punto en el sistema inicial XY .

11. En el espacio P3 , considere la base estándar E y la base B = 1, 2x, −2 + 4x2 , −12x + 8x3


(polinomios de Hermite).

a) Obtenga el vector de coordenadas del polinomio q = −1 + 2x + x2 − x3 con respecto a la


base B de manera directa.
b) Halle la matriz de transición, P , de la base E a la base B.
c) Encuentre el vector de coordenadas del polinomio q con respecto a la base B usando la
matriz obtenida en el ı́tem anterior.
d ) Verifique que P −1 [q]B = [q]E .

12. (Caso particular de la parte 1 del Teorema 4.15) Considere el espacio vectorial P2 y la
base B = 1, 1 + x, 1 + x + x2 . Para los polinomios p1 = 2x + x2 y p2 = 5 − 3x, verifique:


a) [p1 + p2 ]B = [p1 ]B + [p2 ]B


b) [cp1 ]B = c [p1 ]B , para todo c ∈ R

13. Pruebe los incisos 2 y 3 del Teorema 4.15.

Material de uso interno Mateu-Semitiel 165


CAPÍTULO 4. ESPACIOS VECTORIALES

14. Usando el Teorema 4.15 o su corolario pruebe que:


     
−1 3 1 0 0 1
a) Las matrices , y forman un conjunto linealmente indepen-
1 2 −1 5 1 1
diente de M22 .
b) gen 1 + x + x2 , −x − 4x2 , 1 + x + 2x2 , −1 + x + x2 = P2


c) El conjunto B = 1 + x − x2 + x3 , 2 − 3x + 4x2 , 1 − x2 + x3 , 2 + 3x + 5x3 es una base del




espacio P3 .

15. (Scilab) En el espacio vectorial M2 considere las siguientes bases:


       
1 1 1 1 1 1 1 0
B1 = , , , ,
1 1 1 0 0 0 0 0
       
1 1 0 2 −2 0 0 −12
B2 = , , , .
0 0 0 0 4 0 0 8

Teniendo en cuenta la Observación 4.2, para hallar la matriz de transición de la base B1 a la


base B2 se lleva la matriz
 
1 0 −2 0 : 1 1 1 1
 1 2
 0 −12 : 1 1 1 0 

 0 0 4 0 : 1 1 0 0 
0 0 0 8 : 1 0 0 0

a su forma escalonada reducida. Las primera cuatro columnas de esta matriz son los vectores de
coordenadas con respecto a la base estándar de M2 , de las matrices de la base B2 y las cuatro
últimas columnas son los vectores de coordenadas también con respecto a la base estándar de
M2 , de las matrices de la base B1 .
Aplicando Gauss-Jordan se obtiene:
 
1 0 0 0 : 3/2 3/2 1 1
 0 1 0
 0 : 1/2 −1/4 0 −1/2 
.
 0 0 1 0 : 1/4 1/4 0 0 
0 0 0 1 : 1/8 0 0 0

La matriz 4 × 4 de la derecha es la matriz de transición de B1 a B2

a) Usando el comando “rref”, verifique el resultado anterior.


b) Halle la matriz de transición de la base B2 a la base B1 .

16. (Scilab) En el espacio vectorial P4 , considere las bases ordenadas:

B1 = 1 + x2 + x4 , 1 + x − x2 + x3 + x4 , 2 + 2x − 2x3 − 2x4 , 3 + 4x + 3x3 + 4x4 , −1 + x + x2 + 5x3 ,




B2 = 1 + x − x4 , −1 + 2x + 2x2 + 2x4 , 2x − x2 + 2x3 + 2x4 , 1 + x + x2 + x3 , 1 + x2 + 4x3 .




Obtenga las dos matrices de transición (de la base B1 a la base B2 y de la base B2 a la base B1 ).

Material de uso interno Mateu-Semitiel 166


CAPÍTULO 4. ESPACIOS VECTORIALES

4.7. Rango y nulidad de una matriz


En esta sección se estudiarán tres espacios vectoriales importantes asociados a una matriz: el espacio
de renglones, el espacio de columnas y el espacio nulo.

Definición (Espacios de renglones y columnas). Sea A una matriz de m × n,


 
a11 a12 . . . a1n
 a21 a22 . . . a2n 
A= . ..  .
 
.. ..
 .. . . . 
am1 am2 . . . amn

Los vectores

r1 = (a11 , a12 , ..., a1n ) , r2 = (a21 , a22 , ..., a2n ) , ... , rm = (am1 , am2 , ..., amn ) ,

formados a partir de los renglones de A se conocen como vectores renglón de A, mientras que
los vectores      
a11 a12 a1n
 a21   a22   a2n 
a1 =  .  , a2 =  .  , ..., an =  .  ,
     
.
 .  .
 .  .
 . 
am1 am2 amn
son los vectores columna de A.
El espacio de renglones de A es el subespacio de Rn generado por los vectores renglón de A.
Se simboliza ren(A).
El espacio de columnas de A es el subespacio de Rm generado por los vectores columna de
A. Se simboliza col(A).

 
1 2 1
Ejemplo 4.78. Para la matriz A = , los espacios de columnas y de renglones de A son:
3 0 3
   
1 2
col(A) = gen , ,
3 0
y
ren(A) = gen {(1, 2, 1) , (3, 0, 3)} ,
respectivamente.J

El objetivo de esta sección es proveer un método práctico para encontrar bases para el espacio generado
por un conjunto de vectores de Rn . Para ello, se tratará primero el problema de la obtención de bases
para los espacios de renglones y de columnas de una matriz.

Una base para el espacio de los renglones de una matriz


El lema siguiente es clave para la determinación de una base para el espacio de renglones de una
matriz.

Material de uso interno Mateu-Semitiel 167


CAPÍTULO 4. ESPACIOS VECTORIALES

Lema 4.2. Las operaciones elementales de renglones no cambian el espacio de renglones de


una matriz: si A y B son matrices equivalentes por renglones entonces ren(A) = ren(B).

Demostración. Para probar que ren(A) = ren(B), se mostrará que todo vector en ren(A) es un vector
de ren(B) y recı́procamente.
Dado que la matriz B se obtiene de la matriz A a través de una sucesión de operaciones elementales
de renglón (suma de vectores y multiplicación por escalares no cero), todo renglón de B es una
combinación lineal de los renglones de A. Como todo vector en ren(B) es una combinación lineal de
renglones de B y éstos a su vez son combinaciones lineales de renglones de A, entonces todo vector
en ren(B) es una combinación lineal de renglones de A. Esto prueba que todo vector en ren(B) es un
vector en ren(A).
Recı́procamente, invirtiendo las operaciones elementales que llevaron la matriz A a la matriz B se
obtiene A a partir de B y por lo tanto todo vector de ren(A) es una combinación lineal de los renglones
de B, es decir, todo vector en ren(A) es un vector en ren(B).

Teorema 4.16. Los renglones no cero de una matriz en forma escalonada por renglones
forman una base para su espacio de renglones.

Una demostración de este teorema se encuentra al final de esta sección.

Teorema 4.17. Los renglones no cero de cualquier forma escalonada por renglones de una
matriz A forman una base para el espacio ren(A).

Demostración. Sea B una forma escalonada de A. Por el teorema anterior, los renglones no cero de
B forman una base para su espacio de renglones. Dado que ren(A) = ren(B) (Lema 4.2) entonces los
renglones no cero de B forman una base para el espacio ren(A).

Es inmediato el siguiente resultado:

Corolario 4.4. La dimensión del espacio de renglones de una matriz A es el número de


renglones no cero de una forma escalonada por renglones de A.

Estos resultados pueden ser aplicados para facilitar la búsqueda de una base para el espacio generado
por un conjunto de vectores de Rn .

Ejemplo 4.79. Supóngase que se quiere encontrar una base para el espacio generado por los siguientes
vectores de R5 : v1 = (1, −2, 0, 0, 3), v2 = (2, −5, −3, −2, 6), v3 = (0, 5, 15, 10, 0) y v4 = (2, 6, 18, 8, 6).
El espacio generado por el conjunto S = {v1 , v2 , v3 , v4 }, es el espacio de renglones de la matriz
 
1 −2 0 0 3
 2 −5 −3 −2 6 
A=  0
.
5 15 10 0 
2 6 18 8 6

Material de uso interno Mateu-Semitiel 168


CAPÍTULO 4. ESPACIOS VECTORIALES

Al llevar esta matriz a una forma escalonada se obtiene (verifı́quelo):


 
1 −2 0 0 3
 0 1 3 2 0 
B=  0
.
0 1 1 0 
0 0 0 0 0

Los vectores renglón diferentes de cero en esta matriz son: u1 = (1, −2, 0, 0, 3), u2 = (0, 1, 3, 2, 0) y
u3 = (0, 0, 1, 1, 0). Estos vectores forman una base para ren(A) = gen(S). Obsérvese que los vectores
u2 y u3 no son vectores de S.J

El ejemplo anterior ofrece un método para encontrar una base del espacio generado por un conjunto
finito de vectores de Rn :

Cálculo de una base para gen(S)


Sea S = {u1 , u2 , ..., um } un subconjunto de Rn . Entonces se puede determinar una base para
gen(S) como sigue:

1. Forme la matriz A de m × n cuyos renglones son u1 , u2 ,...,um .

2. Reduzca A hasta una forma escalonada B.

3. Una base para gen(S) es el conjunto de los vectores renglón no cero de B.

Observación 4.3. Este método produce una base de gen(S) formada por vectores que, en general,
no son del conjunto S. La ventaja es que este método produce bases “simples” ya que se obtienen
vectores con varias componentes cero.

Una base para el espacio de las columnas de una matriz


Es evidente que excepto por un cambio de notación vertical a horizontal, el espacio de columnas de
una matriz A es el mismo que el espacio de renglones de At . Por lo tanto, se puede encontrar una base
para col(A) hallando una base para ren(At ) y luego “volver” a la notación vertical.

Ejemplo 4.80. Se quiere hallar una base del espacio de columnas de


 
1 0 1 1
A= 3 2 5 1 .
0 4 4 −4

Al transponerla se obtiene  
1 3 0
0 2 4 
At = 

,
 1 5 4 
1 1 −4

Material de uso interno Mateu-Semitiel 169


CAPÍTULO 4. ESPACIOS VECTORIALES

y llevando At a una forma escalonada se llega a (verifı́quelo):


 
1 3 0
 0 1 2 
 .
 0 0 0 
0 0 0

Por lo tanto, los vectores (1, 3, 0) y (0, 1, 2) forman una base para ren(At ) o, lo que es equivalente,
los vectores    
1 0
u1 =  3  y u2 =  1  ,
0 2
forman una base para col(A). Nótese que el vector u2 de la base obtenida no es una columna de A es
decir se obtuvo una base de col(A) que no está compuesta totalmente por columnas de dicha matriz.J

En el ejemplo anterior se usó el hecho de que col(A) = ren(At ) y se aplicó la técnica del Ejemplo 4.79
a la matriz At para hallar una base de col(A).
A continuación se darán una serie de resultados que brindarán una forma alternativa de hallar una
base para el espacio de columnas de una matriz A que esté formada exclusivamente por columnas de
dicha matriz. Para ello se verá primero el siguiente ejemplo:

Ejemplo 4.81. Se aplicará una sucesión de operaciones elementales a una matriz A hasta obtener
una forma escalonada (eliminación gaussiana). Se mostrará que las columnas de todas las matrices del
proceso, satisfacen las mismas relaciones de dependencia lineal.

     
1 −2 2 3 0 1 −2 2 3 0 1 −2 2 3 0
A =  −1 2 −1 −2 1 →B= 0 0 1 1 1 →C= 0 0 1 1 1 .
3 −6 5 8 −1 0 0 −1 −1 −1 0 0 0 0 0
En la matriz escalonada C se vé rápidamente, por la forma en que están dispuestos los ceros,
que las columnas pivote c1 y c3 son linealmente independientes. Además se puede observar que las
otras columnas son combinaciones lineales de éstas dos: c2 = −2c1 , c4 = c1 + c3 , c5 = −2c1 + c3 .
Por lo tanto, reduciendo el conjunto generador, col(C) = gen {c1 , c2 , c3 , c4 , c5 } = gen {c1 , c3 }. Ası́ el
conjunto de las columnas pivote de C, {c1 , c3 } es linealmente independiente y generador de col(C), y
por lo tanto es una base de col(C).
Puede comprobarse también para la matriz B, que las correspondientes columnas verifican las
mismas relaciones: b1 y b3 son linealmente independientes y las otras columnas verfican también:
b2 = −2b1 , b4 = b1 + b3 , b5 = −2b1 + b3 . Ası́, {b1 , b3 } es una base de col(B).
Es más difı́cil ver las relaciones de dependencia lineal entre las columnas de la matriz A pero
puede verificarse que las columnas pivote, a1 y a3 , son linealmente independientes y las otras columnas
verifican también las relaciones: a2 = −2a1 , a4 = a1 + a3 , a5 = −2a1 + a3 . Por lo tanto, el conjunto
formado por las columnas pivote de A, {a1 , a3 }, es una base de col(A). J

Observación 4.4. Debe advertirse que el espacio generado por las columnas de una matriz varı́a,
en general, por operaciones elementales de renglón. Nótese del ejemplo anterior, que las columnas
pivote de la matriz C forman una base para col(C) pero no forman una base para el espacio col(A)
(col(A) 6= col(C)).

Material de uso interno Mateu-Semitiel 170


CAPÍTULO 4. ESPACIOS VECTORIALES

Lo mostrado en el ejemplo no es casualidad. Los siguientes teoremas conducen al resultado principal:


las columnas pivote de una matriz forman una base para su espacio de columnas.

Lema 4.3. Si las matrices A y B son equivalentes por renglones, las columnas de A y B
verifican
 las mismas relaciones
 de dependencia lineal. Esto es, si A = a1 a2 ... an y
B = b1 b2 ... bn ,

c1 a1 + c2 a2 + ... + cn an = 0 ⇔ c1 b1 + c2 b2 + ... + cn bn = 0.

Demostración. Dado que una columna cero no se modifica por una operación elemental de renglón, la
misma sucesión de operaciones elementales que transforman la matriz A en la matriz B, transforman la
matriz aumentada [A : 0] en la matriz [B : 0]. Luego, estas dos matrices aumentadas son equivalentes
por renglones y en consecuencia los sistemas lineales homogéneos Ax = 0 y Bx = 0 tienen las mismas
soluciones. Entonces
Ac = 0 ⇔ Bc = 0.
Si las componentes del vector c son c1 , c2 ,..., cn , por definición de producto de una matriz por un
vector, la equivalencia anterior resulta

c1 a1 + c2 a2 + ... + cn an = 0 ⇔ c1 b1 + c2 b2 + ... + cn bn = 0.

Este lema indica que si A y B son matrices equivalentes por renglones, un conjunto de columnas de
A es linealmente dependiente (o independiente) si y sólo si las correspondientes columnas de B son
linealmente dependientes (o independientes).
Por el momento nos restringiremos a las matrices que están en forma escalonada. Se verá que es
fácil encontrar una base para el espacio de columnas de tales matrices.

Teorema 4.18. Las columnas pivote de una matriz que está en forma escalonada por ren-
glones forman una base para su espacio de columnas.

Una demostración de este teorema se puede ver al final de esta sección. Pasemos ahora al caso general:

Teorema 4.19. Las columnas pivote de una matriz A forman una base para el espacio
col(A).

   
Demostración. Sea A = a1 a2 ... an una matriz de m × n, y B = b1 b2 ... bn una
forma escalonada de A.
Sean bl1 , bl2 ,..., blk las columnas pivote de B. Por el teorema anterior, éstas forman una base para
col(B) y por lo tanto son linealmente independientes y las restantes columnas de B son combinaciones
lineales de ellas.
De acuerdo al Lema 4.3 las columnas de A y B guardan las mismas relaciones de dependencia lineal.
Luego, las correspondientes columnas (pivotes) de A, al1 , al2 ,..., alk , forman un conjunto linealmente
independiente y las restantes columnas son combinaciones lineales de ellas. Por lo tanto,

col(A) = gen {a1 , a2 , ..., an } = gen {al1 , al2 , ..., alk } .

Material de uso interno Mateu-Semitiel 171


CAPÍTULO 4. ESPACIOS VECTORIALES

Ası́, el conjunto de las columnas pivote de A, {al1 , al2 , ..., alk }, es linealmente independiente y
generador de col(A), y por lo tanto es una base de col(A).

Corolario 4.5. La dimensión del espacio de columnas de una matriz A es el número de


columnas pivote de A.

Ejemplo 4.82. Como aplicación del teorema anterior, suponga que se pide encontrar un subconjunto
de S = {v1 , v2 , v3 , v4 } donde v1 = (1, −2, 0, 0, 3), v2 = (2, −5, −3, −2, 6), v3 = (0, 5, 15, 10, 0) y
v4 = (2, 6, 18, 8, 6), que sea una base para gen(S). Para ello se forma la matriz A cuyas columnas son
dichos vectores:
 
1 2 0 2
  −2 −5 5 6 
 

A = v1 v 2 v 3 v4 =   0 −3 15 18  ,

 0 −2 10 8 
3 6 0 6
entonces gen(S) = col(A). De acuardo al Teorema 4.19 el conjunto de las columnas pivote de A forman
una base de col(A). Estas columnas se identifican llevando A a una forma escalonada para obtener las
posiciones pivote. Una forma escalonada de A es la matriz B (verifı́quelo):
 
1 2 0 2
 0 −1 5 10 
 
B= 0 0 1 .
 
0
 
 0 0 0 0 
0 0 0 0

Las posiciones pivote muestran que las columnas pivote son la 1era, la 2da y la 4ta. Por lo tanto, el
conjunto {v1 , v2 , v4 } es una base para col(A). Luego, ésta es una base de gen(S) formada por vectores
de S.J

El ejemplo anterior ofrece un método para hallar una base del espacio generado por un conjunto finito,
S, de vectores de Rn que está compuesta exclusivamente por vectores de S.

Cálculo de una base para gen(S) formada por vectores de S


Sea S = {v1 , v2 , ..., vm } un subconjunto de Rn . Se puede determinar un subconjunto de S
que es una base para gen(S) como sigue:

1. Forme la matriz A de n × m cuyas columnas son los vectores v1 , v2 ,...,vm .

2. Reduzca A hasta una forma escalonada B e identifique las columnas pivote de B, y en


consecuencia las correspondientes columnas pivote de A.

3. Una base para gen(S) es el conjunto de los vectores columna de A identificadas en el


item anterior.

Se han estado desarrollando métodos que permiten obtener bases para espacios generados por un sub-
conjunto S de Rn . Estos métodos también pueden emplearse con el mismo fin, en espacios vectoriales

Material de uso interno Mateu-Semitiel 172


CAPÍTULO 4. ESPACIOS VECTORIALES

que no son Rn teniendo en cuenta que todos los cálculos con vectores de un espacio vectorial V de
dimensión finita pueden hacerse de forma equivalente con sus vectores de coordenadas.
Teniendo en cuenta los resultados del Teorema 4.15, si B es una base de un espacio vectorial V
de dimensión n y S 0 es el conjunto de los vectores de coordenadas de los vectores de S con respecto a
la base B, entonces H es una base de gen(S) si y sólo si el correspondiente conjunto de vectores de
coordenadas, H 0 , es una base de gen(S 0 ).
En el Ejemplo 4.65 se implementó un procedimiento para hallar una base del espacio generado
por un conjunto, S, de polinomios de P3 reduciendo el conjunto S hasta encontrar un subconjunto de
él linealmente independiente. Ésto resultó un trabajo tedioso pero teniendo en cuenta lo comentado
en el párrafo anterior un problema similar se puede resolver utilizando vectores de coordenadas y
trabajando en Rn lo que facilita los cálculos y el uso de sistemas computacionales. Al respecto veamos
el siguiente ejemplo:

Ejemplo 4.83. Al igual que en el Ejemplo 4.65, sea el subconjunto S = {p1 , p2 , p3 , p4 , p5 } del espacio
vectorial P3 donde p1 = 1 + x + 2x3 , p2 = x + x2 − x3 , p3 = 2 + 3x + x2 + 3x3 , p4 = −1 + x2 − 3x3 y
p5 = 1 + x + x2 + x3 . Se desea encontrar una base para el espacio gen(S) que esté contenida en S.
Para ello, basta con hallar una base para el subespacio de R4 generado por el conjunto S 0 de los
vectores de coordenadas de S respecto a una base cualquiera de P3 . Se elije como base de P3 a la base
estándar E = 1, x, x2 , x3 ya que no hay que resolver ningún sistema lineal para hallar vectores de


coordenadas con respecto a dicha base.


Entonces el problema se reduce a determinar una base para el espacio generado por

S 0 = {[p1 ]E , [p2 ]E , [p3 ]E , [p4 ]E , [p5 ]E } ,

que sea un subconjunto de S 0 . Los vectores de coordenadas se obtienen en forma directa:


         
1 0 2 −1 1
 1   1   3   0   1 
[p1 ]E = 
 0  , [p2 ]E =  1  , [p3 ]E =  1  , [p4 ]E =  1
      ,
 [p5 ]E = 
 1 .

2 −1 3 −3 1

Se forma la matriz A cuyas columnas son dichos vectores de coordenadas:


 
1 0 2 −1 1
 1 1 3 0 1 
A=  0
.
1 1 1 1 
2 −1 3 −3 1

El conjunto de las columnas pivote de A es una base para gen(S 0 ). Una forma escalonada de A es
la matriz
2 −1
 
1 0 1
 0 1 1 1 0 
B=  0
.
0 0 0 1 
0 0 0 0 0
Las posiciones pivote indican que las columnas pivote de A son: [p1 ]E , [p2 ]E y [p5 ]E . Por lo tanto el
conjunto {[p1 ]E , [p2 ]E , [p5 ]E } es una base para gen(S 0 ) y el correspondiente conjunto en P3 , {p1 , p2 , p5 }
es una base para gen(S) (y está contenida en S).J

Material de uso interno Mateu-Semitiel 173


CAPÍTULO 4. ESPACIOS VECTORIALES

Teorema 4.20. Para cualquier matriz A, dim (col(A)) = dim (ren(A)).

Demostración. La dimensión de col(A) es el número de columnas pivote de A que son aquellas que
contienen una posición pivote. Por lo tanto:

dim (col(A)) = número de pivotes de A.

La dimensión de ren(A) es el número de renglones no cero de una forma escalonada de A. Dado


que el número de renglones no cero es igual al número de pivotes:

dim (ren(A)) = número de pivotes de A.

Por lo tanto,
dim (col(A)) = dim (ren(A)) (= número de pivotes de A) .

Definición (Rango de una matriz). El rango de una matriz A de m × n es la dimensión


común de los espacios columna y renglón de A, se representa por rango(A) o ρ(A).

Nótese que, de acuerdo al Teorema 4.20, para calcular el rango de una matriz A se debe llevar a ésta
a una forma escalonada por renglones, B. El rango de A es el número de renglones no cero de B o, lo
que es lo mismo, el número de pivotes de B.
Es claro entonces que si A es de m × n entonces ρ(A) ≤ mı́n {m, n}. Por ejemplo, una matriz A
de 5 × 7 no puede tener rango 6 pues ρ(A) ≤ 5.
Puede observarse además que ρ(A) = 0 ⇔ A = O.

Definición (Espacio nulo y nulidad de una matriz). El espacio nulo de una matriz A
de m × n, que se simboliza N (A), es el conjunto de todas las soluciones de Ax = 0. Es decir,

N (A) = {x ∈ Rn : Ax = 0} .

En la Sección 4.2 se probó que N (A) es un subespacio de Rn ; su dimensión es la nulidad de


la matriz A que se simboliza nulidad(A) o ν(A).

Ejemplo 4.84. Para hallar el espacio nulo de la matriz


 
1 −2 3 4
 2 0 −1 1 
A= ,
 0 1 1 −2 
2 1 0 −1

se debe resolver el sistema lineal homogéneo




 x1 −2x2 +3x3 +4x4 = 0
2x1 −x3 +x4 = 0


 x2 +x3 −2x4 = 0
2x1 +x2 −x4 = 0

Material de uso interno Mateu-Semitiel 174


CAPÍTULO 4. ESPACIOS VECTORIALES

La forma escalonada reducida de la matriz ampliada del sistema es


 
1 0 0 5/11 : 0
 0 1 0 −21/11 : 0 
 0 0 1 −1/11 : 0  ,
 

0 0 0 0 : 0
y se observa que x4 es la única variable libre. La solución general del sistema viene dada por
5

 x1 = − 11 t
21

x2 = 11 t

1 , t ∈ R.
 x3 = 11
 t
x4 = t

Luego, el espacio nulo de la matriz A es


    

 −5/11 
 
 −5 
21/11  21 
   
N (A) =    t : t ∈ R = gen  1  .
 

 1/11  
 
 
1 11
   
 

 −5  
21 
 
El conjunto unitario    claramente es linealmente independiente, y por ser generador de

 1 
11
 
N (A), es una base de dicho espacio. Ası́, ν(A) = dim (N (A)) = 1.J

 
2 3
Ejemplo 4.85. Sea la matriz A = . Como det(A) = −8 6= 0, el sistema lineal Ax = 0 tiene
0 −4
única solución, la trivial. Luego,  
0
N (A) = .
0
No se define base para N (A) ya que es el espacio cero. La dimensión de N (A) es ν(A) = 0.J

Puede observarse en los ejemplos anteriores que la nulidad de la matriz A es igual al número de
variables libres del sistema lineal Ax = 0.

Teorema 4.21. La nulidad de una matriz A es el número de variables libres del sistema
lineal homogéneo que tiene a A como matriz de coeficientes.

Una demostración de este teorema se encuentra al final de esta sección.


El teorema siguiente relaciona el rango y la nulidad de una matriz. Es considerado uno de los
teoremas más importantes del Álgebra Lineal

Teorema 4.22 (del rango). Para toda matriz A de m × n, la suma del rango y la nulidad es
igual al número de columnas de A, es decir

ρ(A) + ν(A) = n.

Material de uso interno Mateu-Semitiel 175


CAPÍTULO 4. ESPACIOS VECTORIALES

Demostración. El rango de una matriz A es el número de columnas pivote de A. Por otra parte la
nulidad de A es el número de variables libres de Ax = 0. Como se tienen tantas variables libres como
columnas no pivote, la nulidad de A es igual a la cantidad de columnas no pivote. Dado que
número de columnas pivote + número de columnas no pivote = número de columnas,
entonces
ρ(A) + ν(A) = n.

Ejemplo 4.86. En el Ejemplo 4.84, ν(A) = 1. Por otro lado, el número de pivotes de A es 3, por lo
que ρ(A) = 3. Luego, ρ(A) + ν(A) = 3 + 1 = 4 que es el número de columnas de A, y ası́ se verifica el
teorema del rango.
En el Ejemplo ??, el número de pivotes de A es 2 por lo que ρ(A) = 2. Por otra parte, ν(A) = 0.
Luego, ρ(A) + ν(A) = 2 + 0 = 2 que es el número de columnas de A. J

Ejemplo 4.87. Si el sistema lineal Ax = 0 tiene 25 incógnitas y ρ(A) = 15, puede deducirse que A
tiene 25 columnas, que ν(A) = 10 y que el número m de renglones de A es m ≥ 15.J

Las nociones desarrolladas en esta sección están relacionadas con los sistemas lineales. Dado que el
sistema lineal Ax = b es consistente si y sólo si el vector b es combinación lineal de las columnas de
A, se tiene el siguiente teorema:

Teorema 4.23. Un sistema lineal Ax = b es consistente si y sólo si b está en col(A).

Y en relación a los sistemas lineales y al rango de una matriz, se tiene el siguiente resultado:

Teorema 4.24. El sistema lineal Ax = b es consistente si y sólo si ρ (A) = ρ ([A : b]).

Ejemplo 4.88. Sea Ax = b un sistema lineal de 20 ecuaciones con 25 incógnitas donde el espacio
nulo de A está generado por cinco vectores linealmente independientes. Se desea saber si el sistema es
consistente para cualquier vector b de R2 0.
La nulidad de la matriz A es 5, de modo que su rango es 20. Ası́, el espacio de columnas es R20 .
Luego, ρ (A) = ρ ([A : b]) = 20, para todo b ∈ R20 y por lo tanto Ax = b es consistente para cualquier
vector b ∈ R20 .J

El siguiente teorema completa el Teorema 3.16 de equivalencias.

Material de uso interno Mateu-Semitiel 176


CAPÍTULO 4. ESPACIOS VECTORIALES

Teorema 4.25. Sea A una matriz A de n × n. Entonces las siguientes proposiciones son
equivalentes:

1. |A| =
6 0.

2. A es invertible.

3. Ax = b es consistente con única solución para todo b ∈ Rn .

4. Ax = 0 tiene única solución la trivial.

5. A tiene n posiciones pivote.

6. A es equivalente (por renglones) a la matriz identidad I.

7. ν(A) = 0

8. ρ(A) = n

9. Los vectores renglón de A son linealmente independientes.

10. Los vectores columna de A son linealmente independientes.

11. col(A) = Rn .

12. ren(A) = Rn .

Demostración. Las equivalencias de (1) a (6) han sido probadas en el Teorema 3.16. Se probará aquı́
las equivalencias restantes. Para ello se seguirá el siguiente orden en las implicancias (6) ⇒ (7) ⇒
(8) ⇒ (9) ⇒ (10) ⇒ (11) ⇒ (12), probando luego que (12) ⇒ (6).

(6) ⇒ (7) Si A es equivalente por renglones a la matriz identidad, In , entonces las n columnas de
A son columnas pivote por lo cual Ax = 0 no tiene variables libres y ası́ ν(A) = 0.

(7) ⇒ (8) Es una consecuencia inmediata del teorema del rango.

(8) ⇒ (9) Si ρ(A) = n entonces el espacio de renglones de A es de dimensión n. Ya que los n


renglones de A generan el espacio ren(A) se concluye (Teorema 4.9) que los vectores renglón de
A forman una base para ren(A) y por lo tanto son linealmente independientes.

(9) ⇒ (10) Si los n renglones de A forman un conjunto linealmente independiente, como este conjun-
to es generador de ren(A), entonces forman una base para ren(A) y por lo tanto dim(ren(A)) = n.
Por el Teorema 4.20, también dim(col(A)) = n y dado que el conjunto de las n columnas de A es
generador de col(A) entonces (Teorema 4.9) las n columnas de A forman una base para col(A)
y por lo tanto son linealmente independientes.

(10) ⇒ (11) Las n columnas de A generan col(A) y dado que son linealmente independientes,
entonces forman una base para col(A). Ası́ dim(col(A)) = n y como col(A) es un subespacio de
Rn , entonces (Teorema 4.12) col(A) = Rn .

(11) ⇒ (12) Dado que dim(ren(A)) = dim(col(A)), si col(A) = Rn entonces dim(ren(A)) = n. Como
ren(A) es un subespacio de Rn , necesariamente (Teorema 4.12) ren(A) = Rn .

Material de uso interno Mateu-Semitiel 177


CAPÍTULO 4. ESPACIOS VECTORIALES

(12) ⇒ (6) Si ren(A) = Rn entonces dim(ren(A)) = n y por lo tanto A tiene n posiciones pivote.
Luego, la forma escalonada reducida de A es la matriz identidad, In .

Teorema 4.16: Los renglones no cero de una matriz en forma escalonada por renglones
forman una base para su espacio de renglones.
Demostración. Sea B = [bij ] una matriz de m×n en forma escalonada por renglones. Si k es el número
de renglones no cero de B, dado que B está en forma escalonada, éstos son los primeros k renglones,
mientras que los últimos m − k renglones son renglones cero.
Se probará que el conjunto S = {r1 , r2 , ..., rk } es una base de ren(B).
Los vectores r1 , r2 ,..., rk son todos no cero y como B está en forma escalonada, el elemento delantero
de cada renglón no cero está más a la derecha que el elemento delantero del renglón anterior. Esto
es, si bili es el elemento delantero del renglón i-ésimo debe ser l1 < l2 < ... < lk . Recordando que el
elemento delantero de un renglón no cero es la primera componente no cero de dicho vector, entonces
para cada ri es bili 6= 0 mientras que bij = 0 para todo j < li . Ası́, por ejemplo, los renglones r1 y r2
son de la forma:

r1 = (0, 0, ..., 0, b1l1 , ×, ..., ×, ..., ×) ,


r2 = (0, 0, ..., 0, 0, ..., 0, b2l2 , ×, ..., ×) .

Para probar que S es linealmente independiente debe demostrarse que si c1 , c2 ,..., ck son escalares
tales que
c1 r1 + c2 r2 + ... + ck rk = 0,
necesariamente c1 = c2 = ... = ck = 0.
La componente en la posición l1 del vector c1 r1 + c2 r2 + ... + ck rk es c1 b1l1 y las anteriores compo-
nentes son ceros. Si este vector es el vector 0 necesariamente c1 b1l1 = 0 y dado que b1l1 6= 0 debe ser
c1 = 0. Entonces

c1 r1 + c2 r2 + ... + ck rk = 0 ⇔ c1 = 0 y c2 r2 + ... + ck rk = 0.

De manera similar, la componente en la posición l2 del vector c2 r2 + ... + ck rk es c2 b2l2 y las


anteriores componentes son ceros. Si este vector es el vector 0 necesariamente c2 b2l2 = 0 y dado que
b2l2 6= 0 debe ser c2 = 0. Ası́,

c1 r1 + c2 r2 + ... + ck rk = 0 ⇔ c1 = 0, c2 = 0 y c3 r3 + ... + ck rk = 0.

De esta manera se llega en k − 1 pasos a

c1 r1 + c2 r2 + ... + ck rk = 0 ⇔ c1 = 0, c2 = 0, ..., ck−1 = 0 y ck rk = 0,

y como rk 6= 0 necesariamente ck = 0. Luego,

c1 r1 + c2 r2 + ... + ck rk = 0 ⇔ c1 = c2 = ... = ck = 0.

Material de uso interno Mateu-Semitiel 178


CAPÍTULO 4. ESPACIOS VECTORIALES

Es claro que el conjunto S es generador del espacio ren(B) ya que los últimos m − k renglones de
B son vectores cero y por lo tanto pueden eliminarse generando el mismo espacio. Esto es, ren(B) =
gen {r1 , r2 , ..., rk }.
Se ha probado entonces que los renglones no cero de una matriz en forma escalonada son linealmente
independientes y generan ren(B) y por lo tanto forman una base para el espacio de renglones de B.

Teorema 4.18: Las columnas pivote de una matriz que está en forma escalonada por
renglones forman una base para su espacio de columnas.
Demostración. Sea B = [bij ] una matriz de m × n que está en forma escalonada por renglones. Si k
es el número de renglones no cero de B, dado que B está en forma escalonada, éstos son los primeros
k renglones de B, mientras que los últimos m − k renglones son renglones cero.
Sean b1l1 , b2l2 ,...., bklk los elementos delanteros de los k renglones no cero de B. Entonces las
columnas pivote de B son bl1 , bl2 ,..., blk . Se probará que estas columnas forman una base para
col(B).
Para ello, consderemos la matriz U de m × k formada por las columnas pivote de B:
 
b1l1 × × ... ×
 0
 b2l2 × ... ×  
 0
 0 b3l3 ... ×  
 . .. .. .. 
   .. . . ... . 
U = bl1 bl2 ... blk =   , donde bil 6= 0.
 0 i
 0 0 ... bklk  
 0 0 0 ... 0  

 . .. .. .. 
 .. . . ... . 
0 0 0 ... 0

Dado que todos los vectores columna de B tienen sus últimas m − k componentes iguales a cero,
todo vector b de col(B) tendrá sus últimas m − k componentes iguales a cero. Entonces para cualquier
b en col(B), el sistema lineal de matriz aumentada
 
b1l1 × × ... × : b1
 0 b2l2 × ... × : b2 
 
 
 0
 0 b3l3 ... × : b3  
 . .. .. .. .. 
 .
. . . ... . : . ,

[U : b] = 
 
 0 0 0 ... bklk : bk 
 
 0 0 0 ... 0 : 0 
 
 . . . . .
. . . . .

 . . . ... . : . 
0 0 0 ... 0 : 0
es consistente y con única solución ya que la última columna de la matriz aumentada no es columna
pivote y todas las columnas de U son pivote. Esto quiere decir que todo vector b en col(B) puede
expresarse de manera única como combinación lineal de las columnas pivote de la matriz B. Esto
prueba que las columnas pivote de B forman una base de col(B).

Material de uso interno Mateu-Semitiel 179


CAPÍTULO 4. ESPACIOS VECTORIALES

Teorema 4.21: La nulidad de una matriz A es el número de variables libres del sistema
lineal homogéneo que tiene a A como matriz de coeficientes.
Demostración. Si B es cualquier forma escalonada de la matriz A, se conoce que los sistemas ho-
mogéneos Ax = 0 y Bx = 0 tienen las mismas soluciones, en particular si B es la forma escalonada
reducida de A.
Si ρ(A) = r y A es de m × n, entonces r ≤ m y r ≤ n. Si U es la forma escalonada reducida de A
entonces los primeros r renglones de U son distintos de cero.
Si r = n todas las columnas de U (y por lo tanto de A) son columnas pivote y entonces el sistema
Ax = 0 no tiene variables libres y su única solución es la trivial. Luego, N (A) está formado únicamente
por el vector cero y por lo tanto su dimensión es cero, que es también el número de variables libres de
Ax = 0.
Si r < n no se pierde generalidad si se supone que las columnas pivote son las r primeras columnas.
Más aún como los renglones cero de U (si los tiene) no contribuyen a la solución de U x = 0 estos
renglones pueden descartarse. De modo que las soluciones de Ax = 0 se obtienen del sistema U 0 x = 0
donde U 0 es la matriz de r × n formadas por los r renglones no cero de U . Ası́ las primers r columnas
de U 0 (pivotes) forman la matriz identidad de orden r y las últimas n − r son las columnas no pivote
es decir  
1 0 ... 0 c1 r+1 ... c1n
 0 1 ... 0 c2 r+1 ... c2n 
U0 =  . . ..  .
 
. ..
 .. .. ... .. . ... . 
0 0 ... 1 cr r+1 ... crn
 
x1
 .. 
 . 
 
 xr  0
Siendo el vector de las incógnitas x = 
 xr+1 , la forma estándar de U x = 0 es

 
 .. 
 . 
xn


 x1 + c1 r+1 xr+1 + c1 r+1 xr+1 + ... + c1n xn = 0
 x2 + c2

r+1 xr+1 + c2 r+1 xr+1 + ... + c2n xn = 0
..


 .
xr + cr r+1 xr+1 + cr r+1 xr+1 + ... + crn xn = 0

y despejando las r variables delanteras en función de las n − r libres se tiene




 x1 = −c1 r+1 xr+1 − c1 r+1 xr+1 − ... − c1n xn
 x2 = −c2 r+1 xr+1 − c2 r+1 xr+1 − ... − c2n xn

..


 .
xr = −cr r+1 xr+1 − cr r+1 xr+1 − ... − crn xn

Asignando valores arbitrarios s1 , s2 ,...,sr−n a las variables libres xr+1 , xr+2 ,...,xn , respectivamente, la

Material de uso interno Mateu-Semitiel 180


CAPÍTULO 4. ESPACIOS VECTORIALES

solución general para Ax = 0 está dada por:


   
x1 −c1 r+1 s1 − c1 r+1 s2 − ... − c1n sn−r
 x2   −c2 r+1 s1 − c2 r+1 s2 − ... − c2n sn−r 

 .. 
 
..

 
 .   . 
   
 xr   −cr r+1 s1 − cr r+1 s2 − ... − crn sn−r 
x=  xr+1  = 
  
   s1 

 xr+2   s2 
   
 .  ..
 .. 
 
 . 
xn sn−r
     
−c1 r+1 −c1 r+1 −c1n
 −c2 r+1   −c2 r+1   −c2n 

..
 
..
 
 ..

    

 . 


 . 

 .



 −cr r+1   −cr r+1   −crn 
= s1    +s2   +... + sn−r  ,
 1 
  0 

 0




 0 


 1 

 0



.. ..  .
 ..
    
 .   .  
0 0 1
| {z } | {z } | {z }
u1 u2 un−r

siendo s1 , s2 ,..., sn−r ∈ R.


Luego, x es una solución de Ax = 0 si y sólo si x es una combinación lineal de los vectores u1 ,
u2 ,..., un−r es decir N (A) = gen {u1 , u2 , ..., un−r }. Fácilmente puede probarse que estos vectores son
linealmente independientes. En efecto s1 u1 + s2 u2 + ... + sn−r un−r = 0 si y sólo si
   
−c1 r+1 s1 − c1 r+1 s2 − ... − c1n sn−r 0
 −c2 r+1 s1 − c2 r+1 s2 − ... − c2n sn−r   0 

..
  
   .. 

 .   . 
  
 −cr r+1 s1 − cr r+1 s2 − ... − crn sn−r   0 
  =  ,

 s 1
  0 
  

 s2   0 
  
..   . 
  .. 

 .
sn−r 0
y por igualdad de vectores necesariamente s1 = s2 = ... = sn−r = 0.
Ası́ el conjunto {u1 , u2 , ..., un−r } es una base de N (A). Por lo tanto, dim (N (A)) = n − r que es el
número de variables libres de Ax = 0.

Ejercicios

1. Para cada matriz encuentre una base para su espacio de renglones, una base para su espacio de
columnas y, si es posible, una base para su espacio nulo. Determine además el rango y la nulidad
de cada matriz.

Material de uso interno Mateu-Semitiel 181


CAPÍTULO 4. ESPACIOS VECTORIALES

   
  2 −3 5 3 −1 2 1
3 −2 8 2 1 4  0  0 −4 3 5 
0 8 
a)  0 0 −8 5 0 −10  b) 
 0
 c)  
0 0   0 0 2 1 
0 0 0 0 0 2
0 0 0 0 0 0 10

2. Para cada matriz encuentre una base para su espacio de renglones, una base para su espacio de
columnas y, si es posible, una base para su espacio nulo. Determine además el rango y la nulidad
de cada matriz.
 
    3 2 −1
1 2 −3 0 2 −3 1 2  6 3 5 
a)  2 4 8  b)  0 −2 3 3 1  c) 
 3

1 6 
−1 −5 0 0 4 −6 6 7
0 1 −7
 
−1 1 1 2
3. Dada la matriz A =  2 2 2 4 .
0 1 1 2

a) Describa el espacio de renglones y el de columnas de A.


b) Halle una base para el espacio de renglones de A.
c) Teniendo en cuenta que col(A) = ren(At ), halle una base para el espacio col(A).
d ) Halle una base para el espacio de columnas de A que esté formada exclusivamente por
columnas de A.
e) Describa el espacio nulo de A y halle una base, si es posible, del mismo.
f ) Calcule la nulidad y el rango de A. Verifique el teorema del rango.
g) Indique cuáles de los vectores
    
1 3 2
a =  −2  , b= 5  y c =  −1 
0 1 3

están en el espacio de columnas de la matriz A. Si lo están expréselos como una combinación


lineal de columnas de A.

4. Obtenga una base para gen(S) siendo:


       
1 3 2 0
a) S = , , ,
−1 4 1 3
b) S = {(1, −1, 0), (1, 2, 1), (0, 1, 1)}
       

 1 3 −5 4 

2   1   1   1
       
c) S =   3  ,  4  ,  −4  ,  5



 
1 0 0 −1
 

5. Utilice vectores de coordenadas para determinar una base del subespacio gen(S) de V, siendo:

a) S = {1 − 3x, −3 + 9x, 4x, 1 − x}, V = P1 .


b) S = −1 + 2x2 , x − x2 , 2 − 4x2 , −1 + x + x2 , V = P2 .


Material de uso interno Mateu-Semitiel 182


CAPÍTULO 4. ESPACIOS VECTORIALES

c) S = 1 − 2x − 3x2 + x3 , x + 2x2 , 3 − 2x − x2 + 2x3 , V = P3 .




6. Utilice vectores de coordenadas para hallar una base de gen(S) siendo:


     
−1 0 1 −1 −1 1
a) S = , ,
1 0 0 0 1 0
         
1 1 1 1 1 1 1 0 1 1
b) S = , , , ,
1 1 1 0 0 0 0 0 3 −2
       
1 −2 1 0 −2 2 0 2 −4 0 0 0
c) S = , , ,
0 0 0 2 4 6 0 2 1 0 2 1

7. En cada caso, obtenga un subconjunto de S que sea una base del subespacio gen(S) de V.
         
 1 2 −1 0 1 
a) S =  3 ,
  0 ,
  1 ,
  1 , 1  , V = R3
 
1 −1 0 −1 1
 

b) S = 1 + 3x − x2 + x3 , 1 + x + x3 , 2 + x2 + x3 , −1 + x − x2 , x + x3 , V = P3

         
1 1 2 0 1 3 1 0 2 1
c) S = , , , , , V = M2
0 1 1 1 −1 1 0 1 1 1

8. (Ampliación de un subconjunto linealmente independiente de Rn a una base de Rn )


En el Teorema 4.10 se mostró que un subconjunto S linealmente independiente de un espacio
vectorial V de dimensión n, puede ampliarse a una base de V agregando uno a uno vectores
que no son combinaciones lineales de los anteriores hasta obtener un conjunto de n vectores
linealmente independientes. Esto puede resultar tedioso ya que en cada paso hay que verificar
que el vector que se agrega no pertenezca al espacio generado por los anteriores.

Un procedimiento más eficiente consiste en reducir un conjunto generador de V que contenga


al conjunto S. Si S = {u1 , u2 , ..., uk } es un conjunto linealmente independiente en Rn , k < n,
agregándole a S la base estándar, el conjunto S 0 = {u1 , u2 , ..., uk , e1 , e2 , ..., en } obtenido es
trivialmente generador de Rn . Para obtener una base de Rn que contenga a S, se forma la
matriz A cuyas columnas son los vectores de S 0 en el orden que se muestran:
 
A = u1 u2 ... uk e1 e2 ... en .

Luego, Rn = gen(S 0 ) = col(A).

Dado que S es linealmente


 independiente, entonces el sistema lineal homogéneo cuya matriz
de coeficientes es A1 = u1 u2 ... uk tiene sólo la solución trivial y por lo tanto no hay
variables libres. Luego, las k columnas
 de A1 son columnas
 pivote y por lo tanto la forma
escalonada reducida de A1 es B1 = e1 e2 ... ek . Entonces la forma escalonada reducida
de la matriz A es  
B = e1 e2 ... ek v1 v2 ... vn .

Esto muestra que las k primeras columnas de A son columnas pivote y las restantes n − k
columnas pivote están entre las n últimas columnas. Ası́ el conjunto de las columnas pivote de
A contiene al conjunto S y es una base de Rn .

Material de uso interno Mateu-Semitiel 183


CAPÍTULO 4. ESPACIOS VECTORIALES

   

 1 1 
2 1
   
Por ejemplo, el conjunto S =  4
 3  ,  −1  de R es linealmente independiente. Para
  

 
0 1
 
obtener una base de R4 que contenga a S, formamos la matriz
 
1 1 1 0 0 0
 2 1 0 1 0 0 
A=  3 −1 0 0 1 0  .

0 1 0 0 0 1

Claramente col(A) = R4 por lo que el conjunto de las columnas pivote de A formarán una base
para R4 . Una forma escalonada de A es la matriz
 
1 1 1 0 0 0
 0 1 2 −1 0 0 
 
B=
 0 0 5 −4 1 0 

0 0 0 −3 2 5

que me indica que las primera, segunda, tercera y cuarta columna de A son las columnas pivote
de A. Luego, el conjunto
       

 1 1 1 0 
2 1 0 1 
   
0
   
S =  ,
    ,   ,  

 3 −1   0   0  
0 1 0 0
 

es una base para R4 que contiene al conjunto S.

a) Amplı́e el conjunto linealmente independiente S hasta obtener una base del espacio vectorial
V indicado en cada caso.
   

 1 0  
−1   1 

i) S =  4
 ,  1 , V = R
   

 2 
3 −1
 
     

 1 1 0  
 1   1   0 

      


ii) S =  0  ,  1  ,  2  , V = R5
     


  0   1   2  

 
0 1 1
 

b) Utilice vectores de coordenadas para ampliar el conjunto linealmente independiente S hasta


obtener una base del espacio V.
i) S = 1 + x + x3 , −2 + x + x2 , x2 + x3 , V = P3 .

     
1 −2 0 −2 0 2
ii) S = , , , V = M2 .
0 0 2 4 0 1

9. Sea W el plano en R3 que contiene a la recta x = y, z = 0 y también al eje z.

Material de uso interno Mateu-Semitiel 184


CAPÍTULO 4. ESPACIOS VECTORIALES

a) Encuentre una base de W .


b) Extienda la base hallada a una base de R3 .
c) Sea B la base estándar de R3 . ¿Puede reducirse B a una base de W ?, explique.

10. Si el sistema lineal homogéneo Ax = 0 tiene 300 incógnitas y su espacio solución está generado
por 65 vectores linealmente independientes. ¿Cuál es el rango de A?

11. Demuestre los teoremas 4.23 y 4.24.

12. Demuestre que ρ(A) = ρ(At ) para toda matriz A de m × n.

13. Sea Ax = b un sistema lineal de 400 ecuaciones y 480 incógnitas. Si el conjunto solución del
sistema lineal homogéneo Ax = 0 está generado por 80 vectores linealmente independiente, ¿es
consistente el sistema Ax = b, para todo vector b ∈ R400 ?

Material de uso interno Mateu-Semitiel 185


Capı́tulo 5

ESPACIOS VECTORIALES CON


PRODUCTO INTERNO

5.1. El espacio euclidiano Rn


Se usan pares ordenados de números reales para localizar puntos en el plano y ternas de números
reales para localizar puntos en el espacio de tres dimensiones. Aún cuando la concepción geométrica
no se extiende más allá del espacio tridimensional, es posible extender muchas ideas conocidas más
allá de tal espacio trabajando con propiedades analı́ticas o numéricas de puntos y vectores en lugar
de las propiedades geométricas.

Figura 5.1: Punto P (a1 , a2 , a3 ) y vector u = (a1 , a2 , a3 ) en R3

Recordemos que una n-upla ordenada de números reales es una sucesión (a1 , a2 , ..., an ) de n núme-
ros reales. El conjunto de todas las n-uplas ordenadas de números reales se conocen como el espacio
n dimensional y se denota por Rn .
Si n = 2 ó n = 3, las n-uplas son pares ordenados o ternas ordenadas, respectivamente. Si n = 1
cada n-upla es un número real y por lo tanto R1 se concibe como el conjunto R de los números reales

Material de uso interno Mateu-Semitiel 186


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

y se escribe R en lugar de R1 .
En el estudio del espacio de dos dimensiones y de tres dimensiones, los sı́mbolos (a1 , a2 ) y (a1 , a2 , a3 )
tienen dos interpretaciones geométricas. Pueden interpretarse como puntos en el plano y en el espacio,
respectivamente, en cuyo caso (a1 , a2 ) y (a1 , a2 , a3 ) son las coordenadas de dichos puntos. También
pueden considerarse como vectores (o segmentos de recta dirigidos) en cuyo caso (a1 , a2 ) y (a1 , a2 , a3 )
son las componentes de dichos vectores (Figura 5.1).
Por lo tanto una n-upla de números reales (a1 , a2 , ..., an ) se puede concebir como un “vector
generalizado” o como un “punto generalizado”. Se tiene la libertad de describir a una n-upla de
números reales como un punto en Rn donde sus coordenadas son ai con i = 1, 2, ..., n o como un vector
donde las ai con i = 1, 2, ..., n son sus componentes.
Recordemos que el producto punto o producto escalar entre dos vectores u = (u1 , u2 , ..., un ) y
v = (v1 , v2 , ..., vn ) de Rn , es el número real dado por

u · v = u1 v1 + u2 v2 + ... + un vn ,

que es la generalización del producto escalar en R2 y R3 . Las propiedades fundamentales del producto
punto son:

Teorema 5.1. Si u, v y w son vectores de Rn y c es un escalar, entonces se cumplen las


siguientes propiedades:

1. u · v = v · u

2. u · (v + w) = u · v + u · w

3. c (u · v) = (cu) · v

4. u · u ≥ 0 y u · u = 0 si sólo si u = 0

Demostración. Se probarán aquı́ las propiedades 1. y 4. dejando las restantes como ejercicio.
Sean u = (u1 , u2 , ..., un ) y v = (v1 , v2 , ..., vn ) entonces

1. u · v = u1 v1 + u2 v2 + ... + un vn = v1 u1 + v2 u2 + ... + vn un = v · u.

4. Dado que u2i ≥ 0 para todo i = 1, 2, ..., n entonces u · u = u21 + u22 + ... + u2n ≥ 0.

Además esta última expresión es cero si y sólo si u1 = u2 = ... = un = 0 lo que equivale a decir
que u = 0.

Definición (Espacio euclidiano Rn ). El espacio vectorial Rn con el producto punto es el


espacio euclidiano Rn .

Los vectores de R2 o R3 pueden caracterizarse como segmentos de recta dirigidos con cierta longitud y
dirección. Se usará R2 (o R3 ) como modelo para extender a Rn los conceptos de longitud de un vector,
distancia y ángulo entre vectores.

Material de uso interno Mateu-Semitiel 187


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

Longitud o norma euclidiana


Recordemos la definición de longitud de un vector en R2 . p Sea u = (u1 , u2 ) un vector en el plano,
la longitud de u denotada por kuk se define como kuk = u21 + u22 . Esta definición corresponde al
concepto de longitud de la geometrı́a euclidiana. El vector u es considerado como la hipotenusa de un
triángulo rectángulo cuyos catetos tienen longitudes |u1 | y |u2 | como se ve en la Figura 5.2.

Figura 5.2: Longitud o norma del vector u

Similarmenteppara vectores en R3 , aplicando el Teorema de Pitágoras dos veces, si u = (u1 , u2 , u3 )


entonces kuk = u21 + u22 + u23 .
Nótese que la longitud o norma de un vector u de R2 ó R3 puede expresarse en términos del
producto punto del siguiente modo: √
kuk = u · u,
o en forma equivalente
u · u = kuk2 .

Tomando R2 y R3 como modelos, se define la longitud euclidiana o norma euclidiana de un vector


u de Rn de la siguiente manera:

Definición (Norma euclidiana). La norma euclidiana o longitud euclidiana de un vector


u = (u1 , u2 , ..., un ) de Rn está dada por
q √
kuk = u21 + u22 + ... + u2n = u · u

1 1 1 1

Ejemplo 5.1. Las normas euclidianas de los vectores u = (2, −3, 0, 4, −1) y v = 2, −2, −2, −2 son:
p √
kuk = 22 + (−2)2 + 02 + 42 + (−1)2 = 30,

Material de uso interno Mateu-Semitiel 188


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

y s 
1 2
 2  2  2
1 1 1
kvk = + − + − + − = 1,
2 2 2 2
respectivamente. J

Los vectores que tienen norma euclidiana igual a 1, como el vector v del ejemplo anterior, se denominan
vectores unitarios.

Distancia euclidiana
En la Geometrı́a euclidiana la distancia d entre dos puntos en el plano (u1 , u2 ) y (v1 , v2 ) es
p
d = (u1 − v1 )2 + (u2 − v2 )2 .

En término de vectores esta distancia es la norma o longitud del vector u − v siendo u = (u1 , u2 )
y v = (v1 , v2 ) como se observa en la Figura 5.3.

Figura 5.3: Distancia entre u y v

En efecto: dado que u − v = (u1 − v1 , u2 − v2 ) entonces


p
(u1 − v1 )2 + (u2 − v2 )2 = ku − vk .

Por lo tanto, la distancia entre u y v, d (u, v), es


p
d (u, v) = ku − vk = (u1 − v1 )2 + (u2 − v2 )2 .

Similarmente la distancia entre dos vectores u = (u1 , u2 , u3 ) y v = (v1 , v2 , v3 ) de R3 ,


p
d (u, v) = ku − vk = (u1 − v1 )2 + (u2 − v2 )2 + (u3 − v3 )2 .

Material de uso interno Mateu-Semitiel 189


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

Se generaliza este concepto para vectores de Rn :

Definición (Distancia euclidiana). La distancia euclidiana entre los vectores de Rn ,


u = (u1 , u2 , ..., un ) y v = (v1 , v2 , ..., vn ), está dada por
p
d (u, v) = ku − vk = (u1 − v1 )2 + (u2 − v2 )2 + ... + (un − vn )2 .

Ejemplo 5.2. La distancia entre los vectores u = (1, 3, −2, 7) y v = (0, 7, 2, 2) es


p √
d (u, v) = ku − vk = (1 − 0)2 + (3 − 7)2 + (−2 − 2)2 + (7 − 2)2 = 58. J

Nota: Es fácil comprobar que la norma satisface las siguientes propiedades, para cualesquiera vectores
u y v de Rn y cualquier número real c:

1. kuk ≥ 0 y kuk = 0 ⇔ u = 0.

2. kcuk = |c| kuk.

A partir de éstas, dado que d (u, v) = ku − vk, se deducen las siguientes propiedades de la distancia
en el espacio euclidiano Rn :

1. d (u, v) ≥ 0 y d (u, v) = 0 ⇔ u = v.

2. d (u, v) = d (v, u) .

Actividad 5.1. Demuestre las propiedades de la norma y la distancia enunciadas, a partir de las
propiedades del producto punto en Rn .

Ángulo entre dos vectores


Recordemos que en R2 y en R3 , el ángulo entre dos vectores u y v diferentes de cero, es el único ángulo
θ tal que
u·v
cos θ = y 0 ≤ θ ≤ π.
kuk kvk
Para extender la noción de ángulo entre vectores de Rn , es decir usar la misma fórmula para el
u·v
cos θ que en R2 y R3 , debe mostrarse que está bien definida, vale decir que el cociente kukkvk es un
número entre −1 y 1.
u·v
El siguiente teorema nos permite probar la desigualdad −1 ≤ kukkvk ≤ 1, necesaria para extender
la noción de ángulo entre vectores de Rn .

Teorema 5.2 (Desigualdad de Cauchy-Schwartz). Si u y v son vectores del espacio euclidiano


Rn entonces
|u · v| ≤ kuk kvk .
donde |u · v| es el valor absoluto de u · v. Además, la igualdad es válida si y sólo si uno de
los vectores es un múltiplo escalar del otro.

Material de uso interno Mateu-Semitiel 190


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

Demostración. Si u = 0 entonces u · v = 0 · v = 0 y kuk = 0 por lo tanto ambos miembros son ceros


y se cumple la igualdad. Ası́ el teorema se verifica si u = 0.
Supongamos ahora que u 6= 0 y consideremos el vector xu+v donde x es un número real cualquiera.
Por la propiedad 4. del Teorema 5.1

(xu + v) · (xu + v) ≥ 0. (5.1)

Por otra parte:

(xu + v) · (xu + v) = x2 (u · u) + 2x (u · v) + (v · v) = (u · u) x2 + 2 (u · v) x + (v · v) . (5.2)

De (5.1) y (5.2) se obtiene la siguiente desigualdad para todo x ∈ R:

(u · u) x2 + 2 (u · v) x + (v · v) ≥ 0.

u · u 6= 0 ya que u 6= 0, y por lo tanto el lado izquierdo de esta última desigualdad es un


polinomio de segundo grado en x: p(x) = ax2 + bx + c con a = u · u, b = 2 (u · v) y c = v · v. Como
a = u · u > 0, la gráfica de p(x) es una parábola con las ramas hacia arriba y dado que p(x) ≥ 0
para todo x ∈ R, entonces p(x) no tiene raı́ces reales, o tiene una raı́z real doble. Recordando que un
polinomio cuadrático tiene una raı́z real doble o no tiene raı́ces reales si y sólo si ∆ = b2 − 4ac ≤ 0.
Entonces:
si u 6= 0, 4 (u · v)2 − 4 (u · u) (v · v) ≤ 0,
o
(u · v)2 ≤ (u · u) (v · v) ,
que en términos de norma es
(u · v)2 ≤ kuk2 kvk2 .
Tomando raı́z cuadrada a ambos miembros que son no negativos queda probado:

|u · v| ≤ kuk kvk .

Se deja como ejercicio probar que vale la igualdad en la desigualdad de Cauchy-Schwartz si y sólo
si uno de los vectores es un múltiplo escalar del otro.

Actividad 5.2. Verifique la desigualdad de Cauchy-Schwartz para u = (1, −2, 3, 0) y v = (0, 4, −2, 5).

Utilizaremos la desigualdad de Cauchy-Schwartz para definir el ángulo entre dos vectores no cero del
espacio euclidiano Rn . Si u y v son vectores no cero de Rn , de acuerdo a la desigualdad de Cauchy-
Schwartz
|u · v| ≤ kuk kvk ,
y por lo tanto
− kuk kvk ≤ u · v ≤ kuk kvk .
Ya que kuk kvk > 0, dado que u 6= 0 y v 6= 0, dividiendo entre kuk kvk se tiene
u·v
−1 ≤ ≤ 1.
kuk kvk

Material de uso interno Mateu-Semitiel 191


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

La desigualdad de Cauchy-Schwartz nos permite entonces dar por bien definida la noción de ángulo
entre dos vectores no cero de Rn como una extensión de la ya conocida noción de ángulo entre vectores
de R2 y R3 :

Definición (Ángulo entre vectores). Sean u y v vectores no cero del espacio euclidiano
Rn . El ángulo θ entre u y v es el único ángulo tal que
u·v
cos θ = y 0 ≤ θ ≤ π.
kuk kvk

Actividad 5.3. Encuentre el ángulo entre los vectores u y v de la actividad anterior.

Si u y v son vectores de Rn diferentes de cero tales que u · v = 0, de acuerdo a la definición de


ángulo entre vectores, cos θ = 0 y por lo tanto θ = π2 . En este caso decimos que los vectores son
perpendiculares u ortogonales. En base a esta terminologı́a daremos la siguiente definición:

Definición (Vectores ortogonales). Dos vectores u y v del espacio euclidiano Rn son


ortogonales si u · v = 0.

Aunque el ángulo entre el vector cero y otro vector no está definido, se conviene en extender la definición
de vectores ortogonales para incluir al vector cero. Ası́, el vector cero es ortogonal a cualquier otro
vector.

Ejemplo 5.3. Los vectores u = (3, 2, −1, 4) y v = (1, −1, 1, 0) son ortogonales ya que u · v = 0. J

La desigualdad de Cauchy-Schwartz se utiliza también para demostrar una conocida desigualdad, la


desigualdad triangular. Este nombre se deriva de la interpretación del teorema en R2 ilustrado en la
Figura 5.4 para los vectores u y v. Se considera que kuk y kvk son las longitudes de dos lados de un
triángulo y por lo tanto la longitud del tercer lado es ku + vk.

Figura 5.4: Interpretación geométrica de la desigualdad triangular

Material de uso interno Mateu-Semitiel 192


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

La longitud de cualquier lado de un triángulo es menor que la suma de las longitudes de los otros
lados. En el siguiente teorema se muestra que esta desigualdad se puede generalizar para cualquier
par de vectores en el espacio euclidiano Rn :

Teorema 5.3 (Desigualdad triangular). Si u y v son vectores del espacio euclidiano Rn


entonces
ku + vk ≤ kuk + kvk .

Demostración. Aplicando propiedades del producto punto:

ku + vk2 = (u + v) · (u + v)
= u·u+v·u+u·v+v·v
= kuk2 + 2 (u · v) + kvk2
≤ kuk2 + 2 |u · v| + kvk2 (ya que x ≤ |x|, para todo x ∈ R)
2 2
≤ kuk + 2 kuk kvk + kvk (desigualdad de Cauchy-Schwartz |u · v| ≤ kuk kvk)
2
= (kuk + kvk) .

Entonces para todo u y v en Rn

ku + vk2 ≤ (kuk + kvk)2 ,

y tomando raı́z cuadrada en ambos miembros que son no negativos:

ku + vk ≤ kuk + kvk .

Nota: En la desigualdad triangular vale el igual si y sólo u = cv con c ≥ 0 (o v = ku con k ≥ 0).


(Ejercicio 5).

Concluiremos esta sección con la generalización de un conocido resultado, el llamado teorema de


Pitágoras.

Teorema 5.4 (de Pitágoras). Los vectores u y v del espacio euclidiano Rn son ortogonales
si y sólo si
ku + vk2 = kuk2 + kvk2 .

Demostración. Ejercicio 6.

El nombre de teorema de Pitágoras se deriva de la interpretación del teorema para vectores de R2 . Se


considera que kuk y kvk son las longitudes de los catetos de un triángulo rectángulo y la longitud del
otro lado, la hipotenusa, es ku + vk. Véase Figura 5.5.
El Teorema de Pitágoras asegura que el cuadrado de la longitud de la hipotenusa es igual a la suma
de los cuadrados de las longitudes de los catetos.

Material de uso interno Mateu-Semitiel 193


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

Figura 5.5: Interpretación geométrica del teorema de Pitágoras

Ejercicios

1. Sean los vectores


   
    2 0
−1 3  −2   −1 
a =  2 , b =  −5  , c=  3 
 y  2 .
d= 
2 1
0 1
 
c·d
Calcule: kak, kck, d (c, d), a · b, c · d y d.
d·d
2. Demuestre las restantes propiedades enunciadas en el Teorema 5.1.
3. Encuentre el ángulo que forman los vectores a y b, y, c y d del Ejercicio 1.
4. Determine qué pares de vectores son ortogonales:
a) u = (−1, 2, 3, 0), v = (0, −3, 2, 4)
b) u = (1, 1, 1), v = (−1, −1, 0)
c) u = (0, 0, 1, −1, 5), v = (1, 2, −1, −1, 0)
5. Demuestre que se verifica el igual en la desigualdad triangular si y sólo si u = cv, c ≥ 0.
6. Demuestre el Teorema 5.4 (teorema de Pitágoras).
7. Demuestre la ley del paralelogramo:
ku + vk2 + ku − vk2 = 2 kuk2 + 2 kvk2 ,
para todo u y v del espacio euclidiano Rn .

Material de uso interno Mateu-Semitiel 194


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

8. Sean u, v y w vectores del espacio euclidiano Rn . Determine la veracidad o falsedad de las


siguientes proposiciones, justifique.

a) Si la distancia de u a v es igual a la distancia de u a −v, entonces u y v son ortogonales.


u
b) Si u 6= 0 entonces es un vector unitario.
kuk

c) Si u y v forman un ángulo θ = π4 , u y u−v son ortogonales y kuk = 2, entonces kvk = 2 2.
d ) Si θ es el ángulo que forman los vectores u y v, entonces θ es también el ángulo que forman
los vectores cu y dv (c y d constantes no nulas).

5.2. Producto interno


En la sección anterior se estudió el producto punto o producto interior euclidiano sobre el espacio
vectorial Rn . En esta sección se introduce la noción de un producto interior sobre un espacio vectorial
arbitrario. Como consecuencia se podrá definir con todo significado las nociones de longitud, distancia
y ángulo en espacios vectoriales más generales.
En el Teorema 5.1 se mostraron las propiedades más importantes del producto punto. En un espacio
vectorial general, un producto interior se define aplicando estas propiedades como axiomas.

Definición (Producto interior o interno). Un producto interior, o producto interno, sobre


un espacio vectorial real V es una función que asigna a cada par de vectores u y v de V, un
número real que simbolizaremos hu, vi de tal manera que satisface los axiomas siguientes.
Para todos los vectores u, v y w en V y cualquier escalar c,

1. hu, vi = hv, ui (axioma de simetrı́a)

2. hu + v, wi = hu, wi + hv, wi (axioma de aditividad)

3. hcu, vi = c hu, vi (axioma de homogeneidad)

4. hu, ui ≥ 0, y hu, ui = 0 si y sólo si u = 0 (axioma de positividad)

Todo espacio vectorial con un producto interior se llama espacio con producto interior o
espacio con producto interno.

Ejemplo 5.4. El espacio vectorial Rn con hu, vi = u · v satisface todos los axiomas de un producto
interior (Teorema 5.1). Por lo tanto el espacio euclidiano Rn es un espacio con producto interno. J

Las siguientes propiedades se deducen a partir de los cuatro axiomas del producto interno:

Material de uso interno Mateu-Semitiel 195


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

Teorema 5.5 (Propiedades del producto interno). Sean u, v y w vectores en un espacio


vectorial con producto interno y c cualquier escalar. Entonces:

1. hu, 0i = h0, ui = 0.

2. hu, v + wi = hu, vi + hu, wi.

3. hu, cvi = c hu, vi.

4. hu − v, wi = hu, wi − hv, wi.

Demostración. Probaremos la propiedad 2. Se dejan las restantes como ejercicio (Ejercicio 4).

hu, v + wi = hv + w, ui (por el axioma de simetrı́a)


= hv, ui + hw, ui (por el axioma de aditividad)
= hu, vi + hu, wi (por el axioma de simetrı́a)

Actividad 5.4. Verifique que en un espacio vectorial V con producto interno:


2 X
X 3
hc1 u1 + c2 u2 , d1 v1 + d2 v2 + d3 v3 i = ci dj hui , vj i ,
i=1 j=1

para cualesquiera u1 , u2 , v1 , v2 y v3 en V y c1 , c2 , d1 , d2 y d3 escalares.

Ejemplo 5.5. En el espacio vectorial R2 , si u = (u1 , u2 ) y v = (v1 , v2 ), la asignación

hu, vi = 3u1 v1 + 2u2 v2 ,

define un producto interno. En efecto:

1. Como el producto en R es conmutativo,

hu, vi = 3u1 v1 + 2u2 v2 = 3v1 u1 + 2v2 u2 = hv, ui ,

y se verifica entonces la simetrı́a.

2. Si w = (w1 , w2 ), entonces

hu + v, wi = 3(u1 + v1 )w1 + 2(u2 + v2 )w2


= 3u1 w1 + 3v1 w1 + 2u2 w2 + 2v2 w2
= (3u1 w1 + 2u2 w2 ) + (3v1 w1 + 2v2 w2 )
= hu, wi + hv, wi

lo cual establece el axioma de aditividad.

Material de uso interno Mateu-Semitiel 196


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

3. Si c es cualquier número real, entonces

hcu, vi = 3(cu1 )v1 + 2(cu2 )v2


= c(3u1 v1 + 2u2 v2 )
= c hu, vi ,

y se probó entonces el axioma de homogeneidad.

4. Ya que el cuadrado de un número real es no negativo:

hu, ui = 3u1 u1 + 2u2 u2 = 3u21 + 2u22 ≥ 0.

Además hu, ui = 3u21 + 2u22 = 0 si y sólo si u1 = u2 = 0, es decir, si y sólo u = (u1 , u2 ) = 0. Se


verifica entonces el axioma de positividad.J

Ejemplo 5.6. El ejemplo anterior puede generalizarse al espacio vectorial Rn para demostrar que:
dados u = (u1 , u2 , ..., un ) y v = (v1 , v2 , ..., vn ) entonces

hu, vi = c1 u1 v1 + c2 u2 v2 + ... + cn un vn

define un producto interno en Rn si y sólo si ci > 0 para todo i = 1, 2, ..., n. (Ejercicio 1).J

Ejemplo 5.7. La siguiente función no define un producto interno en R3 . Sean u = (u1 , u2 , u3 ),


v = (v1 , v2 , v3 ) y la asignación
hu, vi = u1 v1 − 2u2 v2 + u3 v3 .
Observe que el axioma de positividad no se satisface. En efecto,

hu, ui = u21 − 2u22 + u23 = (u21 + u23 ) − 2u22 ,

el cual se hace negativo para aquellos vectores u cuyas componentes son tales que u21 + u23 < 2u22 . Por
ejemplo, tomando u = (0, 1, 0) entonces hu, ui = −2 < 0.J

Ejemplo 5.8. En el espacio vectorial P2 , si p = a0 + a1 x + a2 x2 y q = b0 + b1 x + b2 x2 , la asignación

hp, qi = a0 b0 + a1 b1 + a2 b2 ,

define un producto interno (Ejercicio 2).J

Ejemplo 5.9. El ejemplo anterior puede generalizarse al espacio vectorial Pn para demostrar que:
dados p = a0 + a1 x + ... + an xn y q = b0 + b1 x + ... + bn xn , entonces

hp, qi = a0 b0 + a1 b1 + ... + an bn ,

define un producto interno que denominamos producto interno estándar o canónico en Pn .


Obsérvese que dicho producto interno es el producto punto entre los vectores de coordenadas de p
y q con respecto a la base estándar de Pn .J

Material de uso interno Mateu-Semitiel 197


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

   
a11 a12 b11 b12
Ejemplo 5.10. En el espacio vectorial M2 , si A = yB= , la asignación
a21 a22 b21 b22
hA, Bi = a11 b11 + a12 b12 + a21 b21 + a22 b22 ,
define un producto interno (Ejercicio 3).J

Ejemplo 5.11. En el espacio vectorial Mmn , si A = [aij ] y B = [bij ] entonces hA, Bi definida como
la suma de los productos de los elementos de A por los homólogos de B, es un producto interno que
denominaremos producto interno estándar o canónico en Mmn .
Nótese que este producto interno es el producto punto entre los vectores de coordenadas de A y
B con respecto a la base estándar de Mmn .J

Ejemplo 5.12. Sean f y g funciones del espacio vectorial C [a, b] que consta de las funciones reales
continuas en el intervalo cerrado [a, b], la asignación
Z b
hf, gi = f (x)g(x) dx,
a
define un producto interno en dicho espacio. En efecto utilizando propiedades del Cálculo se verifican
los cuatro axiomas de la definición de producto interno.
Z b Z b
1. hf, gi = f (x)g(x) dx = g(x)f (x) dx = hg, f i
a a
b Z Z b
2. hf + g, hi = (f (x) + g(x)) h(x) dx = (f (x)h(x) + g(x)h(x)) dx =
Z b a Z b a

= f (x)h(x) dx + g(x)h(x) dx = hf, hi + hg, hi


a a
Z b Z b
3. hcf, gi = cf (x)g(x) dx = c f (x)g(x) dx = c hf, gi
a a

4. Ya que f 2 (x) = f (x)f (x) ≥ 0 para toda x ∈ [a, b] y la integral definida de una función continua
no negativa es no negativa:
Z b Z b
hf, f i = f (x)f (x) dx = f 2 (x) dx ≥ 0.
a a
Z b
Además hf, f i = f 2 (x) dx = 0 si y sólo si f 2 (x) = 0 para toda x ∈ [a, b] y esto es si y sólo si
a
f (x) = 0 en [a, b] y por lo tanto f es la función cero en C [a, b].J

La desigualdad de Cauchy-Schwartz permite introducir las nociones de norma (o longitud), distancia


y ángulo en cualquier espacio con producto interno:

Teorema 5.6 (Desigualdad de Cauchy-Schwartz). Si u y v son vectores de un espacio con


producto interno V, entonces
p p
|hu, vi| ≤ hu, ui hv, vi

Material de uso interno Mateu-Semitiel 198


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

Demostración. Es análoga a la del Teorema 5.2.

Nota: La igualdad en la desigualdad de Cauchy-Schwartz se verifica si y sólo si u y v son vectores


linealmente dependientes.

Longitud y ángulo en espacios con producto interno

Definición (Norma y distancia). Si V es un espacio con producto interno entonces la


norma o longitud de un vector u, se denota por kuk, y es
p
kuk = hu, ui.

La distancia entre los vectores u y v, se denota por d (u, v), y está dada por
p
d (u, v) = ku − vk = hu − v, u − vi.

Observación 5.1. Nótese que en términos de norma, la desigualdad de Cauchy-Schwartz puede


expresarse como:
|hu, vi| ≤ kuk kvk ,
para cualesquiera vectores u y v de un espacio V con producto interno.

   
1 −2 1 1
Ejemplo 5.13. Sean A = y B = matrices del espacio M2 con el producto
0 3 −1 2
interno estándar. Entonces, la norma de la matriz A es
p p √
kAk = hA, Ai = 1(1) + (−2)(−2) + 0(0) + 3(3) = 14,
y la distancia entre las matrices A y B es
p p √
d (A, B) = kA − Bk = hA − B, A − Bi = 0(0) + (−3)(−3) + 1(1) + 1(1) = 11. J

Ejemplo 5.14. Sea el espacio R2 con el producto interno hu, vi = 3u1 v1 + 2u2 v2 , analizado en el
Ejemplo 5.5. Si u = (1, 0) y v = (0, 1) entonces
p p √
kuk = hu, ui = 3(12 ) + 2(02 ) = 3,
p √
kvk = 3(02 ) + 2(12 ) = 2,
y p √
d (u, v) = ku − vk = k(1, −1k = 3(12 ) + 2(−1)2 = 5. J

Observación 5.2. Debe tenerse presente que la norma y la distancia definidas están inducidas por
un producto interior. Si se cambia el producto interior, las normas y distancias también cambian.
Por ejemplo, si en R2 se considera el producto punto,
√ la norma de u = (1, 0) es igual a la norma de
v = (0, 1), igual a 1, y la distancia entre u y v es 2 (véase ejemplo anterior).

Material de uso interno Mateu-Semitiel 199


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

Aunque las fórmulas con que se definen la norma y la distancia son imitaciones de las dadas en el
espacio euclidiano Rn , los resultados que se obtienen en el Ejemplo 5.14 pueden dar a lugar a dudas
acerca de lo adecuado
√ de estas definiciones, se√requiere mucha imaginación para afirmar que la longitud
del vector (1, 0) es 3 (y que la de (0, 1) es 2).
El argumento en apoyo de estas definiciones es que las fórmulas con que se definen norma y
distancia en un espacio con producto interno satisfacen las mismas propiedades que la longitud y
distancia euclidianas en Rn .

p
Teorema 5.7. Si V es un espacio con producto interno, entonces la norma kuk = hu, ui, y
la distancia d (u, v) = ku − vk, satisfacen las propiedades básicas de la norma y la distancia
euclidiana en Rn :

Propiedades básicas de la norma Propiedades básicas de la distancia


Para cualesquiera vectores u y v, c ∈ R: Para cualesquiera vectores u, v y w:
1. kuk ≥ 0 y kuk = 0 ⇔ u = 0. 1. d (u, v) ≥ 0 y d (u, v) = 0 ⇔ u = v.
2. kcuk = |c| kuk.
2. d (u, v) = d (v, u) .
3. ku + vk ≤ kuk + kvk .
(desigualdad triangular)
3. d (u, v) ≤ d (u, w) + d (w, v).

Demostración. Son análogas a las demostraciones de las mismas propiedades en el espacio euclidiano
Rn de la sección anterior.

Definición (Ángulo entre dos vectores). Sea V un espacio con producto interno, sean u
y v vectores no cero de V. El ángulo θ entre u y v, es el único ángulo tal que

hu, vi
cos θ = , y 0 ≤ θ ≤ π.
kuk kvk
hu,vi
La desigualdad de Cauchy-Schwartz garantiza que el cociente kukkvk toma valores entre −1 y 1, y por
hu,vi
lo tanto θ = arc cos kukkvk está bien definido.

Ejemplo 5.15. Para los vectores u = (1, −1) y v = (1, 1) de R2 con el producto punto, el coseno del
ángulo θ que forman los vectores u y v es

(1, −1) · (1, 1)


cos θ = = 0,
k(1, −1)k k(1, 1)k

por lo tanto θ = π2 .
En cambio, si se considera el producto interno hu, vi = 3u1 v1 + 2u2 v2 entonces el coseno del ángulo
θ entre ellos es
h(1, −1), (0, 1)i 1 1
cos θ = =√ √ = ,
k(1, −1)k k(1, 1)k 5 5 5
y por lo tanto θ = arc cos 51 ' 78, 5◦ .J

Material de uso interno Mateu-Semitiel 200


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

Si u y v son vectores diferentes de cero tales que hu, vi = 0, se deduce de la definición de ángulo entre
vectores que cos θ = 0 y θ = π2 . Esto sugiere la siguiente definición:

Definición (Vectores ortogonales). En un espacio V con producto interno, dos vectores


u y v son ortogonales si hu, vi = 0.
Además si u es ortogonal a cada vector de un conjunto W de V se dice que u es ortogonal al
conjunto W .

Debe notarse que la ortogonalidad depende del producto interior. Dos vectores pueden ser ortogonales
con respecto a un producto interior y no con respecto a otro (véase Ejemplo 5.15).

Ejemplo 5.16. En el espacio C [−1, 1] de las funciones continuas en el intervalo cerrado [−1, 1], sea
Z 1
el producto interior hf, gi = f (x)g(x) dx analizado en el Ejemplo 5.12. Las funciones f y g tales
−1
que f (x) = x y g(x) = x2 son ortogonales. En efecto:
Z 1 Z 1
2
hf, gi = xx dx = x3 dx = 0. J
−1 −1

El siguiente teorema es una generalización de un conocido resultado:

Teorema 5.8 (de Pitágoras generalizado). Sea V un espacio con producto interno y u y v
vectores de V. Entonces u y v son ortogonales si y sólo si ku + vk2 = kuk2 + kvk2 .

Demostración. Es análoga a la del Teorema 5.4.

Proyecciones ortogonales en espacios con producto interno


−−→ −−→
Recordemos que geométricamente para vectores u = OP y v = OQ, v 6= 0, del espacio euclidiano R2
(similarmente para vectores del espacio euclidiano R3 ), el vector proyección ortogonal de u sobre
−−→
v, es el vector OP 0 , que simbolizamos proyv u, donde P 0 es el punto de intersección de la recta sostén
de v y la perpendicular a ella que contiene al punto P (véase Figura 5.6).
En Álgebra y Geometrı́a Analı́tica, se vió que este vector está dado por
 
v v
proyv u = u · ,
kvk kvk
o bien
u·v
proyv u = v.
v·v
El concepto de proyección ortogonal se extiende de manera natural a un espacio general con
producto interno.

Definición (Proyección ortogonal sobre un vector). Sea V un espacio con producto


interno, la proyección ortogonal de un vector u sobre un vector v no cero, es el vector

hu, vi
proyv u = v.
hv, vi

Material de uso interno Mateu-Semitiel 201


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

Figura 5.6: Proyección ortogonal de un vector sobre otro en R2

El vector proyección proyv u es un múltiplo escalar de v, por lo tanto es un vector del subespacio
gen {v}. Ası́, a este vector, se lo puede considerar como la proyección de u sobre el subespacio generado
por v. La proyección ortogonal de u sobre v goza de las siguientes propiedades:

1. Es el único vector w en gen {v} tal que u − w es ortogonal al espacio gen {v}.

2. Es el vector de gen {v} “más próximo” al vector u.

Estas ideas se visualizan en la Figura 5.7 y se prueban en el siguiente teorema:

Figura 5.7: Proyección ortogonal sobre un vector

Material de uso interno Mateu-Semitiel 202


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

Teorema 5.9. Sea V un espacio con producto interno y u y v vectores de V con v 6= 0.


Entonces:

1. hu − proyv u, cvi = 0, para todo c ∈ R.

2. Si w ∈ gen {v} y w 6= proyv u, entonces d (u, proyv u) < d (u, w).


  
hu, vi
Demostración. 1. hu − proyv u, cvi = c hu, vi − c hproyv u, vi = c hu, vi − v, v=
hv, vi
 
hu, vi
= c hu, vi − hv, vi = c (hu, vi − hu, vi) = 0. Es fácil probar que no existe otro vector
hv, vi
en gen {v} que satisface esta propiedad.

2. La justificación de este hecho la proporciona el teorema generalizado de Pitágoras.

Sea w ∈ gen {v} y w 6= proyv u. Para probar que d (u, proyv u) < d (u, w), por definición de
distancia debe probarse que
ku − proyv uk < ku − wk .
Para ello, sumando y restando proyv u se tiene

u − w = (u − proyv u) + (proyv u − w) .

El vector proyv u − w es un vector de gen {v} por ser resta de dos vectores de gen {v}. Por otro
lado, el vector u−proyv u es ortogonal a todo vector de gen {v}. Luego, los vectores (u − proyv u)
y (proyv u − w) son ortogonales.

En consecuencia, puede aplicarse el teorema generalizado de Pitágoras para obtener:

ku − wk2 = k(u − proyv u) + (proyv u − w)k2 = k(u − proyv u)k2 + k(proyv u − w)k2 .

Como w 6= proyv u, entonces kproyv u − wk2 > 0 y por lo tanto

ku − wk2 > ku − proyv uk2 ,

y tomando raı́z cuadrada a ambos miembros

ku − wk > ku − proyv uk ,

es decir
d (u, w) > d (u, proyv u) .

Ejercicios

1. Demuestre lo enunciado en el Ejemplo 5.6.

2. Demuestre lo enunciado en el Ejemplo 5.8

Material de uso interno Mateu-Semitiel 203


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

3. Demuestre lo enunciado en el Ejemplo 5.10.

4. Demuestre las restantes propiedades del Teorema 5.5.

5. Suponga que el espacio R2 tiene el producto interno definido en el Ejemplo 5.5, y sean los vectores
u = (1, 1) y v = (5, −1).

a) Calcule kuk, kvk, hu, vi, la distancia entre u y v y el ángulo entre u y v.


b) Verifique la desigualdad de Cauchy-Schwartz para los vectores u y v.
c) Describa todos los vectores w = (w1 , w2 ) de R2 que son ortogonales a v.
d ) Determine la proyección ortogonal de u sobre v.

6. En el espacio P2 considere el producto interno estándar, y sean los polinomios p y q dados por
p(x) = 4 + x y q(x) = 3 − 2x + x2 .

a) Calcule hp, qi, kpk y kqk.


b) Halle el ángulo entre los polinomios p y q.
c) ¿Cuáles de los polinomios p y/o q es ortogonal al polinomio r? siendo r(x) = −1 + 4x + 5x2 .
d ) Determine la proyección ortogonal de q sobre p.
e) Halle el polinomio de gen {p} “más próximo” al polinomio q.

7. Sean x0 , x1 ,..., xn números reales distintos. En el espacio vectorial Pn , considere la función


definida por
hp, qi = p(x0 )q(x0 ) + p(x1 )q(x1 ) + ... + p(xn )q(xn ),
donde p y q son polinomios de Pn .

a) Demuestre que dicha función es un producto interno en Pn .


b) Considere el espacio vectorial P2 con el producto interno definido, x0 = 1, x1 = 2 y x3 = −1.
Sean además los polinomios p = 12x2 y q = −1 + 2x.
i) Calcule hp, qi, hq, qi, kpk y kqk.
ii) Halle el ángulo entre p y q.
iii) Obtenga la proyección ortogonal de p sobre q.
iv) Encuentre un polinomio r que sea ortogonal a p.

8. En el espacio vectorial C [0, π], considere el producto interno definido en el Ejemplo 5.12, y sean
las funciones f , g y h dadas por f (x) = x, g(x) = ex y h(x) = sen x.

a) Obtenga las normas de las funciones f , g y h.


b) Calcule la distancia entre f y h.
c) Halle la proyección de f sobre g.
d ) ¿Es la función f ortgonal a la función g y/o h?, justifique su respuesta.

9. Sea V un espacio con producto interno. Demuestre que u es ortogonal al espacio gen {u1 , u2 , ..., uk }
si y sólo si es ortogonal a cada uno de los vectores u1 , u2 , ..., uk .

10. Sea V un espacio con producto interno. Pruebe que el único vector de V que es ortogonal a cada
vector de V es el vector cero.

Material de uso interno Mateu-Semitiel 204


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

√producto interno, demuestre que si u y v son ortogonales y kuk = kvk = 1,


11. Sea V un espacio con
entonces d (u, v) = 2.

12. Sea u un vector de un espacio con producto interno V y sea W el conjunto de todos los vectores
de V que son ortogonales a u.

a) Pruebe W es un subespacio de V.
b) Describa geométricamente el subespacio W en el caso en que V es el espacio euclidiano R2
o R3 .

13. Sean u y v vectores de un espacio con producto interno. Demuestre que


1 1
hu, vi = ku + vk − ku − vk .
4 4

5.3. Bases ortogonales y ortonormales. Proceso de Gram-Schmidt


En muchos problemas referentes a espacios vectoriales la selección de una base se hace según la con-
veniencia. La mejor estrategia es elegir una base que simplifique la solución del problema en cuestión.
En los espacios con productos interiores el mejor procedimiento, a menudo, es elegir una base en
la que todos los vectores sean ortogonales entre sı́. En esta sección se verá cómo contruir tales bases.

Definición (Conjuntos ortogonales y ortonormales). Un conjunto de vectores en un


espacio V con producto interno es un conjunto ortogonal si todos los pares de vectores distintos
son ortogonales. Un conjunto ortogonal en el que cada vector tiene norma uno se conoce como
conjunto ortonormal.
Ası́ el conjunto {u1 , u2 , ..., uk } es ortogonal si hui , uj i = 0 para i 6= j; y es ortonormal si
además hui , ui i = 1 para todo i = 1, 2, ..., k.

Ejemplo 5.17. En el espacio euclidiano R3 , el conjunto S = {u1 , u2 , u3 } donde u1 = (0, 1, 0),


u2 = ( √12 , 0, √12 ), u3 = ( √12 , 0, − √12 ) es un conjunto ortonormal ya que:

hu1 , u2 i = u1 · u2 = 0,

hu1 , u3 i = u1 · u3 = 0,
hu2 , u3 i = u2 · u3 = 0,
y además ku1 k = ku2 k = ku3 k = 1.J

Ejemplo 5.18. En el espacio M2 con el producto interno estándar, el conjunto S = {A, B, C} donde
     
1 −1 −2 −2 1 −1
A= , B= y C= ,
2 0 0 1 0 0

no es un conjunto ortogonal. En efecto: hA, Bi = 0, hB, Ci = 0 pero hA, Ci = 2 6= 0.J

Material de uso interno Mateu-Semitiel 205


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

Nota: Debe observarse que todo conjunto unitario, S = {v}, en un espacio con producto interno es
un conjunto ortogonal dado que no existen dos vectores distintos en S cuyo producto interno no sea
cero.

1
Ejemplo 5.19. En un espacio con producto interior, si v 6= 0, entonces kvk v es un vector de norma
uno dado que
1 1
v = kvk = 1. J
kvk kvk

El proceso de multiplicar un vector v no cero por el recı́proco de su longitud para obtener un vector de
norma uno, se denomina normalización del vector v. Es claro que cualquier conjunto ortogonal de
vectores no ceros se transforma en un conjunto ortonormal si se normaliza cada vector del conjunto.
Los vectores ortogonales tienen muchas propiedades, la principal se dá en el siguiente teorema:

Teorema 5.10. Si S = {u1 , u2 , ..., uk } es un conjunto ortogonal de vectores no cero en un


espacio V con producto interno, entonces S es linealmente independiente.
En particular, todo conjunto ortonormal es linealmente independiente.

Demostración. Suponga que c1 , c2 ,..., ck son escalares tales que

c1 u1 + c2 u2 + ... + ck uk = 0. (5.3)

Para demostrar que S es linealmente independiente, debe probarse que c1 = c2 = ... = ck = 0.


Para cada ui de S, de acuerdo a (5.3):

hc1 u1 + c2 u2 + ... + ck uk , ui i = h0, ui i = 0.

Desarrollando el producto interno del primer miembro se obtiene

c1 hu1 , ui i + c2 hu2 , ui i + ... + ck huk , ui i = 0.

Dado que S es un conjunto ortogonal huj , ui i = 0 si j 6= i, por lo tanto la suma del primer miembro
se reduce al único término ci hui , ui i y la última igualdad se reduce a

ci hui , ui i = 0.

Dado que los vectores de S son no cero, por el axioma de positividad es hui , ui i > 0, y por lo
tanto ci = 0. Como esto se verifica para todo ui de S, entonces c1 = c2 = ... = ck = 0 y luego S es
linealmente independiente.
Se completa la prueba del teorema observando que todo conjunto ortonormal es un conjunto
ortogonal de vectores no cero y por lo tanto es linealmente independiente.

Corolario 5.1. Si V es un espacio con producto interno de dimensión n entonces todo


conjunto ortogonal de n vectores no cero es una base de V.

Actividad 5.5. Justifique la afirmación del corolario anterior.

Material de uso interno Mateu-Semitiel 206


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

Definición (Bases ortogonales y ortonormales). Una base ortogonal en un espacio V


con producto interno es un conjunto ortogonal que constituye una base del mismo. Si además
dichos vectores tienen norma uno, dicha base es una base ortonormal.

Ejemplo 5.20. El conjunto S del Ejemplo 5.17 es una base ortonormal del espacio euclidiano R3 ya
3

que dim R = 3 y S es un conjunto ortonormal que consta de 3 vectores.J

El interés en encontrar bases ortonormales para espacios con producto interno está en parte motivado
por el teorema que sigue, el cual muestra que puede ser sencillo expresar un vector en términos de una
base ortogonal.

Teorema 5.11. Si S = {u1 , u2 , ..., un } es una base ortogonal para un espacio V con producto
interno y v es cualquier vector de V entonces

hv, u1 i hv, u2 i hv, un i


v= u1 + u2 + ... + un .
hu1 , u1 i hu2 , u2 i hun , un i

Si la base S es ortonormal entonces la expresión anterior se reduce a

v = hv, u1 i u1 + hv, u2 i u2 + ... + hv, un i un .

Demostración. Sea v un vector de V. Dado que S es una base de V, existen únicos escalares c1 , c2 ,...,
cn tales que
v = c1 u1 + c2 u2 + ... + cn un . (5.4)
hv, ui i
Se demostrará que ci = para cada i = 1, 2, ..., n.
hui , ui i
De acuerdo a (5.4), para cada vector ui en S,

hv, ui i = hc1 u1 + c2 u2 + ... + cn un , ui i = c1 hu1 , ui i + c2 hu2 , ui i + ... + cn hun , ui i .

Dado que S es un conjunto ortogonal, huj , ui i = 0 si j 6= i. Por lo tanto la suma anterior se reduce
al único término ci hui , ui i. Ası́
hv, ui i = ci hui , ui i .
Por ser S una base, ui 6= 0, luego hui , ui i =
6 0 por lo cual

hv, ui i
ci = , para cada i = 1, 2, ..., n.
hui , ui i

Si S es una base ortonormal entonces hui , ui i = 1 y en este caso

ci = hv, ui i , para todo i = 1, 2, ..., n.

Material de uso interno Mateu-Semitiel 207


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

Ejemplo 5.21. Los vectores u1 = (0, 1, 0), u2 = − 45 , 0, 35 y u3 = 3 4


 
5 , 0, 5 forman una base ortonor-
mal para el espacio euclidiano R3 (verifı́quelo).
Consideremos el vector v = (1, 1, 1). Por el teorema anterior, el vector v expresado en términos de
la base ortonormal es
v = (v · u1 ) u1 + (v · u2 ) u2 + (v · u3 ) u3 .
Se verifica que v · u1 = 1, v · u2 = − 51 y v · u3 = 57 . Ası́,
   
1 4 3 7 3 4 1 7
v = (1, 1, 1) = 1 (0, 1, 0) − − , 0, + , 0, = 1u1 − u2 + u3 . J
5 5 5 5 5 5 5 5

Es evidente la utilidad del teorema si se tiene presente que por lo general es necesario resolver un
sistema de ecuaciones lineales para expresar un vector en términos de una base que no es ortogonal.
Ahora se considera el problema de construir bases ortonormales. Para ello se deben considerar los
siguientes resultados preliminares:

Teorema 5.12. Sea V un espacio con producto interno y S = {u1 , u2 , ..., uk } un conjunto
ortogonal de vectores no cero en V. Si W = gen(S) entonces todo vector v en V se puede
expresar en la forma
v = w1 + w2 ,
donde w1 está en W y w2 = v − w1 es ortogonal a W siendo

hv, u1 i hv, u2 i hv, uk i


w1 = u1 + u2 + ... + uk . (5.5)
hu1 , u1 i hu2 , u2 i huk , uk i

En particular w1 y w2 son ortogonales.

Demostración. Claramente w1 está en W ya que es una combinación lineal de vectores de S. Debe


probarse que w2 = v − w1 es ortogonal a W. Para ello, basta probar que w2 es ortogonal a cada uno
de los vectores de S (véase Ejercicio 9 de la sección anterior).
Sea ui un vector de S entonces

hv − w1 , ui i = hv, ui i − hw1 , ui i
 
hv, u1 i hv, u2 i hv, uk i
= hv, ui i − u1 + u2 + ... + uk , ui
hu1 , u1 i hu2 , u2 i huk , uk i
 
hv, u1 i hv, u2 i hv, uk i
= hv, ui i − hu1 , ui i + hu2 , ui i + ... + huk , ui i .
hu1 , u1 i hu2 , u2 i huk , uk i

Como S es un conjunto ortogonal, huj , ui i = 0 si j 6= i, y la expresión entre paréntesis se reduce a


hv,ui i
hui , ui i = hv, ui i. Por lo tanto:
hui ,ui i

hv − w1 , ui i = hv, ui i − hv, ui i = 0.

Queda probado que si w1 es la combinación lineal dada en la ecuación (5.5), entonces w2 = v − w1


es ortogonal a todo vector del espacio W. En particular w1 y w2 son ortogonales.

Material de uso interno Mateu-Semitiel 208


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

Figura 5.8: Interpretación geométrica en el espacio euclidiano R3 del Teorema 5.12

Con la motivación de la Figura 5.8, a w1 se le dá el nombre de proyección ortogonal de v sobre W y se


denota por proyW v. El vector w2 se conoce como componente de v ortogonal a W. Se tiene entonces
la siguiente definición:

Definición. Sean v un vector de un espacio V con producto interno y W un subespacio de


V con una base ortogonal S = {u1 , u2 , ..., uk }. La proyección ortogonal de v sobre W es el
vector
hv, u1 i hv, u2 i hv, uk i
proyW v = u1 + u2 + ... + uk .
hu1 , u1 i hu2 , u2 i huk , uk i
El vector diferencia v − proyW v se llama componente de v ortogonal a W.

Ejemplo 5.22. Sea el espacio euclidiano R3 y W el subespacio (el plano) generado por los vectores
ortonormales u1 = (0, 1, 0) y u2 = 45 , 0, 35 . La proyección ortogonal del vector v = (1, 1, 1) sobre W
es    
7 4 3 28 21
proyW v = (v · u1 ) u1 + (v · u2 ) u2 = 1 (0, 1, 0) + , 0, = , 1, .
5 5 5 25 25
La componente de v ortogonal a W es
   
28 21 3 4
v − proyW v = (1, 1, 1) − , 1, = − , 0, .
25 25 25 25

Obsérvese que v − proyW v es ortogonal tanto a u1 como a u2 , de manera que este vector es
ortogonal a cada vector en el espacio W, como debe ser.J

Material de uso interno Mateu-Semitiel 209


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

Actividad 5.6. Pruebe que el conjunto S = {v1 , v2 } donde v1 = (0, 2, 0) y v2 = (4, 0, 3) es una
base ortogonal del subespacio W del ejemplo anterior. Y muestre que si calcula el vector proyección
de v = (1, 1, 1) sobre W, usando la base S, se obtiene el mismo vector que el del ejemplo anterior que
fue calculado utilizando la base {u1 , u2 }.
Este no es casual, el cálculo de un vector proyección sobre un subespacio es independiente de la
base ortogonal considerada.

En la sección anterior se notó que el vector proyección de u sobre v es el vector del espacio gen {v}
más próximo al vector u (véase Figura 5.7). Similarmente, el vector proyW v tiene la misma interesante
propiedad. Es el vector en W más cercano a v, es decir, es la mejor aproximación de los vectores de
W al vector v (véase Figura 5.9).

Figura 5.9: La proyección ortogonal es el vector de W más cercano a v

Teorema 5.13. (de la mejor aproximación) Si W es un subespacio de dimensión finita de


un espacio V con producto interno, y si v es un vector en V, entonces proyW v es el vector de
W más cercano a v, esto es:
kv − proyW vk < kv − wk ,
para todo vector w en W distinto de proyW v.
Ası́, kv − proyW vk representa la distancia del vector v al subespacio W.

Demostración. Para cualquier vector w en W se puede escribir

v − w = (v − proyW v) + (proyW v − w) .

El vector proyW v − w es un vector de W ya que es resta de dos vectores de W. Por otra parte,
el vector v − proyW v es ortogonal a todo vector de W de modo que los dos términos del segundo

Material de uso interno Mateu-Semitiel 210


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

miembro son vectores ortogonales. Por el Teorema generalizado de Pitágoras:

kv − wk2 = kv − proyW vk2 + kproyW v − wk2 ,

o bien,
kv − proyW vk2 = kv − wk2 − kproyW v − wk2 .
Como kproyW v − wk2 > 0 para todo w 6= proyW v, entonces

kv − proyW vk2 < kv − wk2 ,

y tomando raı́z cuadrada a ambos miembros

kv − proyW vk < kv − wk .

El teorema de la mejor aproximación implica que la proyección ortogonal sobre un subespacio es única,
no depende de la base ortonormal que se usó para calcularla (Ejercicio 13).

Ahora se tienen los elementos necesarios para probar el resultado principal de esta sección: Todo
espacio con producto interno de dimensión finita tiene una base ortogonal. Este resultado se deduce co-
mo consecuencia de un teorema cuya demostración enseña a construir bases ortogonales para cualquier
espacio con producto interno de dimensión finita. Esta contrucción es el método de Gram-Schmidt, en
memoria de J. P. Gram (1850-1916) y E. Smith (1845-1921), que permite “ortogonalizar” cualquier
base S de un subespacio W finito dimensional de un espacio vectorial V con producto interno.

Teorema 5.14. (Proceso de Gram-Schmidt) Sea W un subespacio de dimensión finita de un


espacio vectorial V con producto interno. Si S = {v1 , v2 , ..., vk } es una base de W entonces
S 0 = {u1 , u2 , ..., uk } es una base ortogonal de W siendo

u1 = v1
hv2 , u1 i
u2 = v2 − u1
hu1 , u1 i
hv3 , u1 i hv3 , u2 i
u3 = v3 − u1 − u2
hu1 , u1 i hu2 , u2 i
..
.
hvk , u1 i hvk , u2 i hvk , uk−1 i
uk = vk − u1 − u2 − ... − uk−1 .
hu1 , u1 i hu2 , u2 i huk−1 , uk−1 i

Una base ortonormal S 00 de W se obtiene normalizando la base S 0 :


 
00 u1 u2 uk
S = , , ..., .
ku1 k ku2 k kuk k

Demostración. La prueba es constructiva, se construirá gradualmente la base S 0 deseada siguiendo los


siguientes pasos:
Paso 1. Se elige cualquier vector de S, podemos comenzar con v1 y hacemos

u1 = v 1 .

Material de uso interno Mateu-Semitiel 211


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

Claramente u1 6= 0 ya que v1 es parte de una base.


Paso 2. Seguidamente buscamos un vector u2 en W que sea ortogonal a u1 . Para ello, hacemos
que u2 sea la componente de v2 ortogonal al subespacio W1 = gen {u1 }. Ası́:

hv2 , u1 i
u2 = v2 − proyW1 v2 = v2 − u1 .
hu1 , u1 i

Claramente u2 es ortogonal a u1 y pertenece al subespacio W ya que es combinación lineal de los


vectores v2 y u1 = v1 del espacio W.
hv2 , u1 i
Debe notarse que u2 6= 0 ya que de otro modo se tendrı́a v2 = u1 y serı́a v2 un múltiplo
hu1 , u1 i
escalar de v1 contradiciendo la independencia lineal de los vectores de S.
Paso 3. Para construir un vector u3 que sea ortogonal tanto a u1 como a u2 , se toma u3 como la
componente de v3 ortogonal al subespacio W2 = gen {u1 , u2 }. Esto es:

hv3 , u1 i hv3 , u2 i
u3 = v3 − proyW2 v3 = v3 − u1 − u2 .
hu1 , u1 i hu2 , u2 i

El vector u3 pertenece a W ya que es combinación lineal de vectores de W. Además u3 6= 0 ya que


hv3 , u1 i hv3 , u2 i
en caso contrario se tendrı́a v3 = u1 + u2 y serı́a v3 una combinación lineal de v1 y
hu1 , u1 i hu2 , u2 i
v2 (a través de u1 y u2 ), contradiciendo la independencia lineal de los vectores de S.
Paso 4. De manera similar se obtiene el vector u4 de W que es ortogonal a u1 , u2 y u3 calculando
la componente de v4 ortogonal al subespacio W3 = gen {u1 , u2 , u3 }:

hv4 , u1 i hv4 , u2 i hv4 , u3 i


u4 = v4 − proyW3 v4 = v4 − u1 − u2 − u3 .
hu1 , u1 i hu2 , u2 i hu3 , u3 i

Otra vez la independencia lineal de S garantiza u4 6= 0.


Al continuar de esta manera se obtiene un conjunto ortogonal, S 0 = {u1 , u2 , ..., uk }, de k vectores
no cero en W. Dado que dim(W) = k y todo conjunto ortogonal de vectores no cero es linealmente
independiente, entonces S 0 es una base ortogonal de W.
Una base ortonormal S 00 de W se obtiene normalizando los vectores de S 0 .

Nota 1: Puede comprobarse que en cada paso de este proceso los vectores u1 , u2 ,..., ul forman una
base ortogonal para el subespacio generado por los vectores v1 , v2 ,..., vl de la base original S.
Nota 2: Si la base S ya es ortogonal, el proceso de Gram-Schmidt “devuelve” la misma base S; esto
es u1 = v1 , u2 = v2 ,..., uk = vk .

En la Figura 5.10 se muestra una visualización geométrica del proceso de Gram-Schmidt en el es-
pacio euclidiano R3 . En https://es.wikipedia.org/wiki/Archivo:Gram-Schmidt_orthonormalization_
process.gif puede verse una construcción dinámica del mismo en dicho espacio.

Ejemplo 5.23. Sea el subespacio W = gen {v1 , v2 , v3 } donde v1 = (1, 1, 1, 1), v2 = (0, 1, 1, 1) y
v3 = (0, 0, 1, 1) del espacio euclidiano R4 .

Material de uso interno Mateu-Semitiel 212


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

Figura 5.10: Proceso de Gram-Schmidt en el espacio euclidiano R3

El conjunto S = {v1 , v2 , v3 } es linealmente independiente (y generador de W) por lo que constituye


una base para W. Claramente S no es una base ortogonal de W por lo que para hallar una base
ortonormal del mismo se aplica el proceso de Gram-Schmidt a la base S.
Primero, se obtendrá, a partir de la base (no ortogonal) S, la base ortogonal S 0 = {u1 , u2 , u3 } de
la siguiente forma:

u1 = v1 = (1, 1, 1, 1) ,
 
v 2 · u1 3 3 1 1 1
u2 = v 2 − u1 = (0, 1, 1, 1) − (1, 1, 1, 1) = − , , , ,
u1 · u1 4 4 4 4 4
 
v 3 · u1 v 3 · u2 2 1/2 3 1 1 1
u3 = v 3 − u1 − u2 = (0, 0, 1, 1) − (1, 1, 1, 1) − − , , , =
u1 · u1 u2 · u2 4 3/4 4 4 4 4
     
1 1 1 1 1 1 1 1 2 1 1
= (0, 0, 1, 1) − , , , − − , , , = 0, − , , .
2 2 2 2 2 6 6 6 3 3 3
√ √
 
3 6 00 u1 u2 u3
Dado que ku1 k = 2, ku2 k = 2 y ku3 k = 3 , el conjunto S = , , donde
ku1 k ku2 k ku3 k
 
u1 1 1 1 1 1
= (1, 1, 1, 1) = , , , ,
ku1 k 2 2 2 2 2
   
u2 2 3 1 1 1 3 1 1 1
= √ − , , , = − √ , √ , √ , √ ,
ku2 k 3 4 4 4 4 2 3 2 3 2 3 2 3
   
u3 3 2 1 1 2 1 1
= √ 0, − , , = 0, − √ , √ , √ ,
ku3 k 6 3 3 3 6 6 6

es una base ortonormal para el subespacio W.J

Material de uso interno Mateu-Semitiel 213


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

Ejemplo 5.24. Sea el subespacio W = gen {f1 , f2 , f3 } siendo f1 (x) = 1, f2 (x) = x y f3 (x) = x2 ,
del espacio C [−1, 1] de las funciones continuas en el intervalo cerrado [−1, 1], con el producto interno
Z 1
dado por hf, gi = f (x)g(x) dx, donde f y g son funciones de C [−1, 1].
−1
El conjunto S = {f1 , f2 .f3 } es linealmente independiente y por lo tanto constituye una base para
W pero no es un conjunto ortogonal. En efecto:
Z 1 Z 1
2 2
hf1 , f3 i = 1(x ) dx = x2 dx = 6= 0.
−1 −1 3
Se obtendrá, aplicando el proceso de Gram-Schmidt, una base ortogonal para W a partir de la
base S:
g1 = f1 ,
Z 1
x dx  
hf2 , g1 i 0
g2 = f2 − g1 = f2 − Z−11 g1 = f2 − g1 = f2 ,
hg1 , g1 i 2
dx
−1
Z 1 Z 1
2
x dx x3 dx
hf3 , g1 i hf3 , g2 i −1
g3 = f3 − g1 − g2 = f3 − Z 1 g1 − Z−1
1 g2 =
hg1 , g1 i hg2 , g2 i 2
dx x dx
−1 −1
   
2/3 0 1
= f3 − g1 − g2 = f3 − g1 .
2 2/3 3
Por lo tanto el conjunto S 0 = {g1 , g2 , g3 } donde g1 (x) = 1, g2 (x) = x y g3 (x) = x2 − 31 , es una base
ortogonal para W.J

Ejemplo 5.25. En el espacio euclidiano R4 , sea W = gen {w1 , w2 , w3 , w4 , w5 } donde w1 = (1, 1, 0, 2),
w2 = (0, 1, 1, −1), w3 = (2, 3, 1, 3), w4 = (−1, 0, 1, −3) y w5 = (1, 1, 1, 1). Se desea hallar el vector
proyección de v = (0, −1, 0, 1) sobre el subespacio W, la componente de v ortogonal a W y la distancia
del vector v al subespacio W.
Se debe obtener una base ortogonal para el subespacio W. Claramente {w1 , w2 , w3 , w4 , w5 } no es
una base de W (¿por qué?).
Para hallar una base de W, se forma la matriz A cuyos renglones son los vectores w1 , w2 , w3 , w4
y w5 :  
1 1 0 2
 0 1 1 −1 
 
A=  2 3 1 3 .

 −1 0 1 −3 
1 1 1 1
Los renglones no cero de cualquier forma escalonada de A forman una base para ren(A) = W. Una
forma escalonada de A es  
1 1 0 2
 0 1 1 −1 
 
B=  0 0 1 −1  .

 0 0 0 0 
0 0 0 0

Material de uso interno Mateu-Semitiel 214


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

Ası́, el conjunto S = {v1 , v2 , v3 } donde v1 = (1, 1, 0, 2), v2 = (0, 1, 1, −1) y v3 = (0, 0, 1, −1) es
una base para W. S no es una base ortogonal, aplicando el proceso de Gram-Schmidt a S se obtiene
una base ortogonal para W:

u1 = v1 = (1, 1, 0, 2) ,
   
v 2 · u1 −1 1 7 2
u2 = v 2 − u1 = (0, 1, 1, −1) − (1, 1, 0, 2) = , , 1, − ,
u1 · u1 6 6 6 3
   
v 3 · u1 v 3 · u2 −2 5/3 1 7 2
u3 = v 3 − u1 − u2 = (0, 0, 1, −1) − (1, 1, 0, 2) − , , 1, − =
u1 · u1 u2 · u2 6 17/6 6 6 3
 
4 6 7 1
= ,− , , ,
17 17 17 17

resultando S 0 = {u1 , u2 , u3 } una base ortogonal para W.


La proyección del vector v sobre el subespacio W es el vector
v · u1 v · u2 v · u3
proyW v = u1 + u2 + u3 =
u1 · u1 u2 · u2 u3 · u3
   
1 11 1 7 2 7 4 6 7 1
= (1, 1, 0, 2) − , , 1, − + ,− , , =
6 17 6 6 3 6 17 17 17 17
 
1 1 5
= , −1, − , .
3 6 6

La componente de v ortogonal a W es el vector

w = v − proyW v =
 
1 1 5
= (0, −1, 0, 1) − , −1, − , =
3 6 6
 
1 1 1
= − , 0, , .
3 6 6

La distancia del vector v al subespacio W es


r √
6 6
kv − proyW vk = = .J
36 6

Complemento ortogonal y teorema de la descomposición ortogonal


Se han visto vectores que son ortogonales a todo vector de un subespacio. Por ejemplo, para cada
vector v del espacio V, el vector v − proyW v es ortogonal al espacio W. El conjunto de todos los
vectores ortogonales a un espacio W es el llamado complemento ortogonal de W y se simboliza
W⊥ . Más precisamente:

Definición. (Complemento ortogonal) Sea W un subespacio de un espacio V con pro-


ducto interno. El conjunto de todos los vectores de V que son ortogonales a W, se designa
con W⊥ y se llama complemento ortogonal de W,

W⊥ = {v ∈ V : hv, wi = 0, para todo w ∈ W} .

Material de uso interno Mateu-Semitiel 215


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

Se deja como ejercicio la demostración del siguiente teorema:

Teorema 5.15. Sea W un subespacio de un espacio vectorial V con producto interno, en-
tonces:

1. W⊥ es un subespacio de V.

2. W ∩ W⊥ = {0}

Ejemplo 5.26. Complemento ortogonal de los subespacios triviales.


Si W = {0} entonces W⊥ = V ya que h0, vi = 0 para todo v ∈ V.
Si W = V entonces W⊥ = {0}. J

Ejemplo 5.27. Sea W el subespacio del espacio euclidiano R3 generado por los vectores linealmente
independientes u1 = (1, −2, 3) y u2 = (1, 2, 5). Geométricamente W es un plano que contiene al origen
de coordenadas.
Un vector v de R3 es ortogonal a W si y sólo si es ortogonal a cada uno de los vectores de un
conjunto generador de W (véase Ejercicio 9 de la sección anterior).
Ası́, v = (v1 , v2 , v3 ) es ortogonal a W si y sólo si u1 · v = 0 y u2 · v = 0. Esto es:

v1 − 2v2 + 3v3 = 0
v1 + 2v2 + 5v3 = 0

Por lo tanto W⊥ es el conjunto de soluciones del sistema homogéneo de matriz de coeficientes


 
1 −2 3
A= .
1 2 5

La solución general del sistema es



 v1 = −4t
v2 = − 12 t , t∈R
v3 = t

por lo cual el complemento ortogonal de W es


   
⊥ 1 1
W = (−4t, − t, t) : t ∈ R = gen −4, − , 1 ,
2 2

que geométricamente es una recta que contiene al origen de coordenadas.


Observe que dim(W) = 2, dim(W⊥ ) = 1 y dim(W) + dim(W⊥ ) = 3 = dim(R3 ).J

El teorema de Gram-Schmidt asegura la existencia de bases ortogonales para un subespacio no cero


finito dimensional en un espacio con producto interno. Es posible ahora reenunciar el Teorema 5.12 y
“hacerlo más fuerte” ya que se puede aplicar a cualquier subespacio finito dimensional de un espacio
con producto interno.

Material de uso interno Mateu-Semitiel 216


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

Teorema 5.16. (Descomposición ortogonal) Si W es un subespacio de dimensión finita de


un espacio vectorial V con producto interno entonces todo vector v de V se puede expresar
de manera única como
v = w1 + w2 ,
donde w1 ∈ W y w2 ∈ W⊥ .

Demostración. Si W = {0} entonces W⊥ = V. En este caso, para todo v ∈ V:

v = 0 + v,

donde 0 ∈ W y v ∈ W⊥ , y ésta es la única manera de descomponer a v como suma de un vector de


W y otro de W⊥ .
Suṕongase ahora que W 6= {0} y W es finito dimensional. La demostración se realiza en dos etapas.
La primera consiste en probar que existen tales vectores, w1 y w2 , con las propiedades enunciadas.
Por el proceso de Gram-Schmidt se sabe que existe una base ortogonal para W, entonces los vectores
w1 = proyW v y w2 = v − proyW v tienen las propiedades requeridas puesto que w1 ∈ W y, por el
Teorema 5.12, w2 es ortogonal a todo vector de W. Ası́:

v = w1 + w2 .

Para hacer ver que éstos son los únicos vectores con estas propiedades supóngase que también v
se puede descomponer:
v = w01 + w02 ,
donde w01 ∈ W y w02 ∈ W⊥ .
Ası́,
w1 + w2 = w01 + w02 ,
por lo tanto
w1 − w01 = w02 − w2 .
El vector w1 − w01 ∈ W ya que es resta de dos vectores de W y éste es un subespacio. El vector
w02 − w2 ∈ W⊥ ya que es resta de dos vectores de W⊥ y éste es un subespacio. Luego:

u = w1 − w01 = w02 − w2 ,

es un vector que está tanto en W como en W⊥ por lo cual, del Teorema 5.15 parte 2, u = 0 esto es
w1 = w01 y w2 = w02 .

Ejercicios

1. Halle el vector de coordenadas del vector v = (8, 2, −3) del espacio euclidiano R3 con respecto a
la base ortogonal B = {u1 , u2 , u3 } donde u1 = (4, −1, 1), u2 = (0, 1, 1) y u3 = − 21 , −1, 1 . (No


hay que resolver ningún sistema).

Material de uso interno Mateu-Semitiel 217


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

2. Compruebe que el conjunto formado por los vectores u1 y u2 es un conjunto ortogonal del espacio
euclidiano R3 . Luego encuentre la proyección de v sobre gen {u1 , u2 }, siendo:

a) v = (−1, 4, 3); u1 = (1, 1, 0) y u2 = (−1, 1, 0).


b) v = (6, 4, 1); u1 = (−4, −1, 1) y u2 = (0, 1, 1).

3. Sea W el subespacio del espacio euclidiano R4 generado por los vectores u1 , u2 y u3 . Escriba
el vector v como la suma de un vector de W y un vector ortogonal a W. Calcule además la
distancia del vector v al subespacio W:

a) u1 = (1, 1, 0, 1), u2 = (−1, 3, 1, −2), u3 = (−1, 0, 1, 1) y v = (4, 3, 3, −1).


b) u1 = (1, 1, 0, −1), u2 = (1, 0, 1, 1), u3 = (0, −1, 1, −1) y v = (3, 4, 5, 6).

4. Sea el subespacio W = gen {u1 , u2 } del espacio euclidiano R4 . Determine el vector más cercano
a v en el subespacio W y calcule dicha distancia:

a) u1 = (3, 1, −1, 1), u2 = (1, −1, 1, −1) y v = (3, 1, 5, 1).


b) u1 = (1, −2, −1, 2), u2 = (−4, 1, 0, 3) y v = (3, −1, 1, 13).

5. Halle, en cada caso, una base ortonormal para el subespacio W del espacio euclidiano Rn corres-
pondiente:

a) W = gen {v1 , v2 }; v1 = (0, 4, 2), v2 = (8, 5, −6).


b) W = gen {v1 , v2 , v3 }; v1 = (3, 1, −1, 3), v2 = (−5, 1, 5, −7), v3 = (1, 1, −2, 8).
c) W = (a, a + b, −b) ∈ R3 : a, b ∈ R

 
1 3 5
 −1 −3 1 
d ) W = N (A) donde A =   2
.
6 16 
1 3 2
e) W = ren(A) donde A es la matriz del ı́tem d ).
f ) W = col(A) donde A es la matriz del ı́tem d ).
g) W es el espacio solución de la ecuación x1 − 2x2 + 3x3 − x4 = 0.

6. Halle una base ortonormal para el subespacio W del espacio V = Pn con el producto interno
estándar.

a) W = gen {p1 , p2 , p3 }; V = P3 ; p1 = 1 + x − x2 , p2 = 1 + x + x2 − x3 , p3 = 1 + x3 .
b) W = a + (a − b)x + bx2 ∈ P2 : a, b ∈ R ; V = P2 .


7. Halle una base ortonormal para el subespacio W del espacio Mmn correspondiente con el producto
interno estándar.
     
1 1 0 2 2 1 0 0 −1
a) W = gen {A1 , A2 , A3 }; A1 = , A2 = , A3 =
0 1 −1 1 1 1 1 1 1
  
 a b −b 
b) W =  0 a + b 0  ∈ M3 : a, b ∈ R .
0 0 −a
 

Material de uso interno Mateu-Semitiel 218


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

8. Halle una base ortonormal para el subespacio W del espacio C [0, 1] con el producto interno dado
Z 1
por hf, gi = f (x)g(x) dx, donde f y g son funciones continuas en el intervalo cerrado [0, 1].
0

a) W = gen {f1 , f2 }; f1 (x) = x, f2 (x) = ex .


b) W = gen {f1 , f2 , f3 }; f1 (x) = x, f2 (x) = 1 + 2x, f3 (x) = x5 .
c) W = {a sen x + b cos x : a, b ∈ R}.

9. Calcule la proyección del vector v sobre el subespacio W indicado en cada caso y la componente
de v ortogonal a W.

a) v = (1, 1, 1) y el subespacio W del Ejercicio 5.a.


b) v = (1, −1, 1, 1) y el subespacio W = (a, −b, a + b + c, c) ∈ R4 : a, b, c ∈ R

del espacio
euclidiano R4 .

10. Descomponga el polinomio p como suma de un polinomio en W y otro en W⊥ .

a) p = 1 + x + x2 + x3 y el subespacio W del Ejercicio 6.b.


b) p = x−x2 y el subespacio W = a − bx + ax2 ∈ P2 : a, b ∈ R del espacio P2 con el producto


interno estándar.

11. Halle la matriz del subespacio W más cercana a la matriz A:

a) A = I2 ; W el subespacio del Ejercicio 7.a.


 
1 −1 1
b) A =  1 0 0 ; W el subespacio del Ejercicio 7.b.
1 1 1
12. Obtenga la proyección de f (x) = 1 + x sobre el subespacio W del Ejercicio 8.a.

13. Sea V un espacio vectorial con producto interno y W un subespacio de dimensión finita. De-
muestre que la proyección ortogonal de un vector v sobre W es única.
Sugerencia: Utilice el teorema de la mejor aproximación para probar que no hay dos vectores
proyección de v sobre W distintos.

14. Demuestre el Teorema 5.15.

15. Sea A una matriz de m × n. Para los subespacios ren(A) y col(A) de los espacios euclidianos
Rn y Rm , respectivamente, se tienen las siguientes relaciones con respecto a sus complementos
ortogonales:
(ren(A))⊥ = N (A),
y dado que col(A) = ren(At ), resulta

(col(A))⊥ = N (At ).

a) Demuestre que (ren(A))⊥ = N (A). Sugerencia: Basta probar que un vector de Rn es orto-
gonal a cada uno de los renglones de A si y sólo si es un vector de N (A).
b) Utilice el resultado del ı́tem anterior para probar que para todo subespacio W en el espacio
euclidiano Rn , dim(W) + dim(W⊥ ) = n.
c) Halle el complemento ortogonal y una base del mismo para los siguientes subespacios W
del espacio euclidiano V.

Material de uso interno Mateu-Semitiel 219


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

i) W = gen {(1, 1, 1), (2, 1, 3), (3, 2, 4)}; V = R3 .


ii) W = gen {(1, 0, 0, 1), (0, 1, 1, 1), (1, 1, 1, 2), (1, 2, 2, 3)}; V = R4 .
iii) W = gen {(1, 0, 0, 1), (0, 1, 1, 1), (1, 1, 1, 2), (1, 2, 2, 2)}; V = R4 .

16. Sea W un subespacio de dimensión finita de un espacio vectorial V con producto interno y v un
vector de V. Demuestre:

a) proyW v = v ⇔ v ∈ W.
b) proyW v = 0 ⇔ v ∈ W⊥ .

17. (Polinomios y series de Fourier) Con frecuencia las funciones continuas se aproximan me-
diante combinaciones lineales de funciones seno y coseno. Por ejemplo, una función continua
podrı́a representar una onda sonora, una señal eléctrica de algún tipo, el movimiento de un
sistema mecánico vibratorio, etc. Esta idea data de Euler, sin embargo, floreció con el trabajo
de Fourier (1768-1830).

Sea B el conjunto de las siguientes funciones trigonométricas definidas en el intervalo [−π, π].

B = {1, cos x, cos(2x), ..., cos(nx), sen x, sen(2x), ..., sen(nx)} .

Un polinomio trigonométrico de orden n es una combinación lineal de los elementos de B:

a0 + a1 cos x + a2 cos(2x) + ... + an cos(nx) + b1 sen x + b2 sen(2x) + ... + bn sen(nx), (5.6)

si an y bn no son cero simultáneamente.

Cualquier función f en C [−π, π] puede aproximarse mediante un polinomio trigonométrico. Por


aproximar queremos decir que f y algún polinomio trigonométrico “están cerca” con la norma
inducida por el producto interno integral definido en el Ejemplo 5.12 de la sección anterior.

Sea el subespacio gen(B) de C [−π, π] formado por todos los polinomios trigonométricos cuyo
orden es a lo sumo n.

a) Demuestre que B es una base ortogonal de gen(B). Para ello, pruebe que:
h1, cos(nx)i = 0; n = 1, 2, 3, ...
h1, sen(nx)i = 0; n = 1, 2, 3, ...
hcos(mx), cos(nx)i = 0; si m 6= n
hcos(mx), sen(nx)i = 0; m, n = 1, 2, 3, ...
hsen(mx), sen(nx)i = 0; si m 6= n
√ √ √
b) Pruebe que k1k = 2π, kcos(kx)k = π y ksen(kx)k = π, k ≥ 1.

Sea f una función de C [−π, π]. Una aproximación de la función f mediante un polinomio
trigonométrico pn es
hf, 1i hf, cos xi hf, cos 2xi
f (x) ' pn (x) = proygen(B) f = 1+ cos x + cos 2x + ...
h1, 1i hcos x, cos xi hcos 2x, cos 2xi
hf, cos nxi hf, sen xi
+ cos nx + ... + sen x +
hcos nx, cos nxi hsen x, sen xi
hf, sen 2xi hf, sen nxi
+ sen 2x + ... + sen nx.
hsen 2x, sen 2xi hsen nx, sen nxi

Material de uso interno Mateu-Semitiel 220


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

c) Demuestre que los coeficientes de la aproximación anterior son:


Z π
hf, 1i 1
a0 = = f (x) dx
h1, 1i 2π −π
hf, cos kxi 1 π
Z
ak = = f (x) cos kx dx k = 1, 2, ..., n
hcos kx, cos kxi π −π
Z π
hf, sen kxi 1
bk = = f (x) sen kx dx k = 1, 2, ..., n
hsen kx, sen kxi π −π

Las fórmulas dadas en el ı́tem anterior se conocen como fórmulas de Euler que utilizó Fourier
para resolver la ecuación del calor.

Figura 5.11: Polinomios de Fourier p4 y p7 de f (x) = x, −π ≤ x ≤ π

El polinomio trigonométrico pn que aproxima a la función f definido por (5.6) y cuyos coeficientes
se obtienen de las fórmulas de Euler, se llama polinomio o aproximación de Fourier de orden n
de f en [−π, π].

d ) Pruebe que el polinomio de Fourier de orden n de la función dada por f (x) = x, x ∈ [−π, π]
está dado por:

2 2(−1)n+1
pn (x) = sen x − sen 2x + sen 3x + ... + sen nx.
3 n
En la Figura 5.11 se representan la función f y los polinomios de Fourier de orden 4, p4 y de
orden 7, p7 de f .

A medida que n crece, los polinomios pn se acercan cada vez más a la función f . Tomando el
lı́mite cuando n → +∞ se obtiene la serie

X
f (x) = a0 + (an cos(nx) + bn sen(nx)) ,
n=1

llamada serie de Fourier de la función f en el intervalo [−π, π].

Material de uso interno Mateu-Semitiel 221

También podría gustarte