Algebra Lineal Cap 1 Al 5
Algebra Lineal Cap 1 Al 5
Algebra Lineal Cap 1 Al 5
ÁLGEBRA LINEAL
2. MATRICES 38
2.1. Vectores de Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.2. Operaciones matriciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.3. Matriz inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3. DETERMINANTES 77
3.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.2. Propiedades de los determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
3.3. La inversa a través de la adjunta. La regla de Cramer . . . . . . . . . . . . . . . . . . 93
SISTEMAS DE ECUACIONES
LINEALES
Definición (Ecuación lineal). Una ecuación lineal en las n variables o incógnitas x1 , x2 ,...,
xn es una ecuación que puede escribirse en la forma
a1 x1 + a2 x2 + ... + an xn = b, (1.1)
llamada forma canónica o estándar de la ecuación lineal, donde a1 ,a2 ,...,an y b son constantes
reales. Los ai con i = 1, 2, ..., n son los coeficientes de la ecuación y b es el término constante.
Si b = 0 la ecuación se denomina homogénea.
Considerando las variables ordenadas de izquierda a derecha, la primer variable cuyo co-
eficiente es distinto de cero, recibe el nombre de variable delantera o principal. Las demás
variables se llaman variables libres.
no son lineales.J
ax + by + cz = d,
ax + by = c,
con al menos uno de los coeficientes no nulos, es la ecuación de una recta en el plano.J
Las variables libres pueden tomar cualquier valor real, ası́ podemos considerar x1 = t, x3 = s y
x4 = r. Por consiguiente la solución general se expresa como:
o en forma de 4-upla
(t, 1 + 2s − 3r, s, r)
El conjunto solución es
{(t, 1 + 2s − 3r, s, r) : t, s, r ∈ R} . J
La ecuación del Ejemplo 1.1 es consistente. La ecuación del ejemplo que sigue es inconsistente:
Ejemplo 1.6. Claramente, la ecuaciń x1 + 2x2 − 5x3 = 8 + x1 + 2x2 − 5x3 es inconsistente. Su forma
canónica es
0x1 + 0x2 + 0x3 = 8.
Ninguna terna de números reales la satisface y por lo tanto su conjunto solución es vacı́o.J
a1 x1 + a2 x2 + ... + an xn = 0,
Ejemplo 1.8. La ecuación lineal 73 x1 +2x2 −5 = 37 x1 +2x2 −5 se satisface para cualquier par ordenado
de números reales. Su forma canónica es
0x1 + 0x2 = 0,
Teorema 1.1 (Inconsistencia de una ecuación lineal). Una ecuación lineal en n variables
a1 x1 + a2 x2 + ... + an xn = b,
Si algún coeficiente es distinto de cero, la ecuación es consistente cualquiera sea b puesto que
habrá una variable delantera que podrá “despejarse”.
Nota: Una ecuación lineal en una variable ax = b tiene una única solución, infinitas soluciones o es
inconsistente. Si la ecuación lineal tiene dos o mas variables, es inconsistente o tiene un número infinito
de soluciones.
Actividad 1.2. Encuentre para qué valores de a y b, la ecuación lineal en una variable ax = b, tiene
una única solución, infinitas soluciones o ninguna solución.
Ejercicios
a) 2x − 5 = x − 3y + z c) x1 − 2x2 + 3 = x2 + 5x3 − x4 + 3
b) xy − 4x + y = 0 d ) x1 + x2 − x3 = x1 + x2 − x3 + 9
2. Determine todos los valores de a de modo que cada una de las ecuaciones: (i) tenga única
solución, (ii) tenga infinitas soluciones, (iii) no tenga solución.
a) a2 x − 4 = 16x + a c) a2 (x + y) − x − y = a − 1
b) ax1 − a2 x2 = 2a d ) a(x + y) − x − y − a + 1 = 0
x + y = 45
110x + 135y = 5575
El conjunto formado por estas dos ecuaciones lineales recibe el nombre de ssistema lineal. Más
precisamente:
llamada forma canónica o estándar del sistema lineal. Los números aij con i = 1, 2, .., m
y j = 1, 2, ..., n son los coeficientes del sistema y bi con i = 1, 2, ..., m son los términos
constantes.
Si bi = 0 para todo i = 1, 2, ..., m el sistema lineal se denomina homogéneo.
Una única ecuación lineal es un sistema lineal (m = 1).
Los coeficientes son: a11 = 1, a12 = −2, a13 = 1, a14 = −1, a21 = 2, a22 = 0, a23 = −1, a24 = 2,
a31 = 0, a32 = −1, a33 = 1 y a34 = −1. Los términos constantes son b1 = 2, b2 = 0 y b3 = 1.J
Definición (Solución de un sistema lineal). Una solución (particular) del sistema lineal
(1.2) es una n−upla ordenada de números reales (c1 , c2 , ..., cn ) que es solución de todas las
ecuaciones del sistema.
El conjunto de todas las soluciones del sistema lineal (1.2) se llama conjunto solución.
Resolver un sistema lineal es hallar su conjunto solución. Un elemento genérico del conjunto
solución es una solución general del sistema.
Ejemplo 1.10. La 4-upla (−3, −4, 0, 3) es una solución del sistema del Ejemplo 1.9. En efecto,
−3 − 2(−4) + 0 − 3 = 2
2(−3) + 0 + 0 + 2(3) = 0
0 − (−4) + 0 − 3 = 1
Entonces este sistema tiene al menos una solución, ¿será la única solución o admitirá más solucio-
nes?. Para cualquier t ∈ R, la 4-upla
(−t, −1 − t, 0, t)
es también una solución del sistema (verifı́quelo). Si t = 3 se obtiene la solución particular previamente
considerada. Puede observarse que el sistema del Ejemplo 1.9 tiene infinitas soluciones.J
Nota: Se puede probar que un sistema lineal puede tener una, infinitas o ninguna solución. En la
sección 1.4 se profundizarán estas ideas.
Ejemplo 1.11 (Sistemas lineales de dos ecuaciones con dos incógnitas). Los sistemas lineales:
x+y =2 x+y =2 x+y =2
y
−x + y = 0 2x + 2y = 4 x+y =4
son: consistente con única solución, consistente con infinitas soluciones e inconsistente, respectivamen-
te. En efecto, si se recurre a la Geometrı́a Analı́tica, gráficamente el conjunto solución de cada uno de
estos sistemas es el conjunto de puntos del plano que pertenecen a ambas rectas como se observa en
la Figura 1.1J
no es escalonado.
Los sistemas escalonados se resuelven comenzando en la última ecuación y avanzando hacia arriba.
Se comienza despejando la variable delantera de la última ecuación en término de las libres (si las
hay) y las constantes. Luego se sustituye la expresión encontrada para dicha variable en la ecuación
anterior y se despeja la variable delantera de dicha ecuación. Ası́, continuando de este modo, hasta
despejar la variable delantera de la primera ecuación. Este método se le llama sustitución hacia
atrás.
Ejemplo 1.12. En el sistema escalonado (1.3) de la última ecuación se observa que necesariamente
x3 = 0.
Sustituyendo este valor en la ecuación anterior se obtiene 4x2 +4x4 = −4 por lo cual necesariamente
es x2 = −1 − x4 pudiendo tomar x4 cualquier valor real. Ası́
x4 = t, t ∈ R,
y
x2 = −1 − t.
Sustituyendo en la primera ecuación x2 = −1−t, x3 = 0 y x4 = t, se tiene que x1 −2(−1−t)−t = 2
es decir
x1 = −t.
Por consiguiente la solución general del sistema lineal (1.3) se expresa como:
x1 = −t, x2 = −1 − t, x3 = 0 y x4 = t para todo t ∈ R,
o en forma de 4-upla
(−t, −1 − t, 0, t) para todo t ∈ R,
por lo cual el sistema es consistente con infinitas soluciones.
El conjunto solución
{(−t, −1 − t, 0, t) : t ∈ R} ,
es uniparamétrico infinito. J
2x1 − x2 + x3 = 0
Actividad 1.3. Resuelva el sistema lineal escalonado: 3x2 − x3 = 1 .
2x3 = 4
El sistema lineal del Ejemplo 1.9 no es escalonado. Si bien es posible resolverlo haciendo apropiadas
sustituciones, es más sencilla su resolución hallando un sistema escalonado que sea equivalente a él.
Un sistema lineal puede transformarse en un sistema equivalente mediante ciertas operaciones entre
ecuaciones:
Una apropiada aplicación de estas operaciones permite encontrar un sistema escalonado equiva-
lente a uno dado. En la sección siguiente se justificará la existencia de un sistema lineal escalonado
equivalente a uno dado.
Ejemplo 1.13. Para resolver el sistema lineal (no escalonado) del Ejemplo 1.9 usamos la técnica de
eliminación. Esto es, se eliminan algunas de las incógnitas sumando un múltiplo de una ecuación a
otra ecuación.
x1 −2x2 +x3 −x4 = 2 (E1 )
2x1 −x3 +2x4 = 0 (E2 )
−x2 +x3 −x4 = 1 (E3 )
Para eliminar la variable x2 de la tercera ecuación, se sustituye la ecuación E3 por E3 más 41 la
ecuación E2 E3 + 14 E2 → E3 . Se obtiene el sistema escalonado equivalente que es el del Ejemplo
1.12:
x1 −2x2 +x3 −x4 = 2
4x2 −3x3 +4x4 = −4
1
4 x3 = 0
Trivialmente, un sistema con una ecuación sin solución es un sistema que no tiene solución (inconsis-
tente), pero ésta no es la forma en que se presenta, por lo general, un sistema inconsistente. En un
sistema lineal cualquiera, usualmente todas las ecuaciones tienen solución y no se descubre a simple
vista si el sistema es o no consistente. En cambio en un sistema lineal escalonado se hace evidente la
consistencia o inconsistencia del mismo como se mostrará en lo que sigue.
Observemos que todas las ecuaciones tanto del sistema original como las del que le sigue, son
consistentes pero el sistema no lo es, con algo de atención, en el segundo sistema se ve la inconsistencia
ya que las ecuaciones E2 y E3 no tienen una solución común. La inconsistencia es evidente en el último
sistema equivalente, que es escalonado, pues su última ecuación no tiene solución.J
Teorema 1.3. Un sistema escalonado es consistente si y sólo si todas sus ecuaciones son
consistentes, es decir si y sólo si no tiene una ecuación de la forma
Demostración. Si el sistema tiene una ecuación de la forma 0x1 + 0x2 + ... + 0xn = b con b 6= 0
claramente el sistema es inconsistente puesto que esta ecuación no tiene solución.
Recı́procamente: si no hay ecuaciones de la forma 0x1 + 0x2 + ... + 0xn = b con b 6= 0, y dado que
en un sistema escalonado las ecuaciones que tienen todos sus coeficientes ceros (si las hay) ocupan las
últimas posiciones, entonces la última ecuación es de la forma 0x1 + 0x2 + ... + 0xn = 0 o bien tiene una
variable delantera. Las ecuaciones de la forma 0x1 + 0x2 + ... + 0xn = 0 pueden eliminarse ya que no
aportan nuevas soluciones (cualquier n−upla de números las satisfacen). Eliminando dichas ecuaciones,
el sistema escalonado resultante es equivalente y su última ecuación tiene un coeficiente distinto de cero
(tiene una variable delantera). El procedimiento de sustitución hacia atrás que comienza resolviendo
la última ecuación muestra que el sistema es consistente.
Ejercicios
en forma canónica (estándar) y verifique que la 4−upla (−3, 3, −6, 3) es una solución.
2. Obtenga los valores de a y b de manera que la terna (1, 1, 1) sea una solución del sistema lineal
ax − y + 2z = b
.
x + by + z = 3a
a11 x + a12 y = 0
3. Considere el sistema homogéneo
a21 x + a22 y = 0
a) Demuestre que si (x0 , y0 ) es una solución para tal sistema entonces también lo es (kx0 , ky0 )
para cualquier k constante.
b) Demuestre que si (x0 , y0 ) y (x1 , y1 ) son soluciones del sistema lineal homogéneo entonces
(x0 + x1 , y0 + y1 ) también es solución.
son equivalentes.
7. Indique cuáles son las operaciones elementales en ecuaciones realizadas que permiten obtener los
sucesivos sistemas equivalentes. Resuelva el sistema original.
2x −y +z = 4 x +y −2z = 0 x +y −2z = 0
x +y −2z = 0 → 2x −y +z = 4 → −3y +5z = 4 →
−x +y +z = 2 −x +y +z = 2 2y −z = 2
x +y −2z = 0 x +y −2z = 0
→ −3y +5z = 4 → −3y +5z = 4 .
7 14
3z = 7z = 14
3
8. Demuestre que el sistema lineal que se obtiene al reemplazar una ecuación por ella misma más
un múltiplo escalar de otra tiene las mismas soluciones que el sistema original (Teorema 1.2).
Si m = n la matriz es cuadrada de orden n, los elementos a11 , a22 ,...,ann son los elementos de la
diagonal principal.
En este texto los elementos aij serán números reales salvo otra indicación.
Se usan letras mayúsculas imprentas como A, B, C, etc. para denotar una matriz. También pueden
denotarse mediante un elemento genérico escrito entre corchetes, por ejemplo: [aij ], [bij ], etc. Ası́, para
abreviar la escritura, la matriz A puede denotarse simplemente por
A = [aij ]
Por ejemplo:
2 73
1 −2 5 1
A= , B= , C= −1 2 4 y D= .
3 1 6 3 3 8
A es una matriz 2 × 3, sus elementos son a11 = 1, a12 = −2, a13 = 5, a21 = 3, a22 = 1 y a23 = 6. B
es una matriz 2 × 1 y se dice que es una matriz columna o un vector columna. C es una matriz
de 1 × 3, es una matriz renglón. Se suelen utilizar letras minúsculas negritas para denotar matrices
columna o renglón. Por ejemplo:
1
b= .
3
Un renglón cero de una matriz sólo incluye ceros. Un renglón no cero tiene al menos un
elemento distinto de cero. El primer elemento no cero de un renglón no cero se denomina elemento
delantero o principal. Si el elemento delantero es un 1 se lo llama 1-delantero. Por ejemplo, la
matriz de 4 × 5:
1 2 4 0 1
0 0 3 1 1
−8 0 0 2 5
0 0 0 0 0
Mediante el uso de matrices, se puede abreviar la escritura de un sistema lineal anotando sólo sus
coeficientes y/o términos constantes, siempre que están especificados los nombres y el orden de las
variables. Consideremos el sistema lineal
a11 x1 + a12 x2 + a13 x3 + ... + a1n xn = b1
a21 x1 + a22 x2 + a23 x3 + ... + a2n xn = b2
..
.
am1 x1 + am2 x2 + am3 x3 + ...amn xn = bm
que podemos denotar como [A : b]. Para hacer énfasis de que se trata de la matriz aumentada del
sistema, se la suele representar de la siguiente manera:
a11 a12 a13 . . . a1n : b1
a21 a22 a23 . . . a2n : b2
[A : b] = . .
.. .. .. .. ..
.. . . . . .
am1 am2 am3 . . . amn : bm
la matriz de coeficientes es
1 −2 1 −1
A= 2 0 −1 2
0 −1 1 −1
y su matriz aumentada es
1 −2 1 −1 : 2
[A : b] = 2 0 −1 2 : 0 . J
0 −1 1 −1 : 1
1 −2 1
2 0 −1
Actividad 1.4. Escriba el sistema lineal cuya matriz aumentada es
0 −1
.
1
1 1 0
Como la matriz aumentada de un sistema lineal es una representación abreviada del mismo, se puede
ahorrar tiempo y trabajar en forma mas eficiente si se utiliza esta notación en el proceso de resolución
del mismo.
Las tres operaciones de ecuaciones que se pueden utilizar en un sistema lineal para generar un
sistema equivalente, se corresponden con ciertas operaciones entre renglones de la matriz aumentada
del sistema.
Ejemplo 1.16. Retomando el sistema lineal del Ejemplo 1.13 se muestra a la derecha su resolución
trabajando en forma abreviada con la matriz aumentada del sistema, haciendo uso de las operaciones
elementales de renglón correspondientes a las operaciones en ecuaciones realizadas:
x1 −2x2 +x3 −x4 = 2 1 −2 1 −1 : 2
2x1 −x3 +2x4 = 0 2 0 −1 2 : 0
−x2 +x3 −x4 = 1 0 −1 1 −1 : 1
E2 − 2E1 → E2 R2 − 2R1 → R2
x1 −2x2 +x3 −x4 = 2 1 −2 1 −1 : 2
4x2 −3x3 +4x4 = −4 0 4 −3 4 : −4
−x2 +x3 −x4 = 1 0 −1 1 −1 : 1
E3 + 41 E2 → E3 R3 + 14 R2 → R3
x1 −2x2 +x3 −x4 = 2 1 −2 1 −1 : 2
4x2 −3x3 +4x4 = −4 0 4 −3 4 : −4
1 1
4 x3 = 0 0 0 0 : 0
4
{(−t, −1 − t, 0, t) : t ∈ R} . J
Una operación elemental de renglón aplicada a la matriz aumentada de un sistema lineal produce
la matriz aumentada de un sistema lineal equivalente. Esto, y dado que toda matriz es la matriz
aumentada de un sistema lineal, da origen a la siguiente definición:
Por simplicidad a lo largo de este texto, llamaremos simplemente matrices equivalentes a las ma-
trices equivalentes por renglones.
Las operaciones elementales de renglón son revertibles, en el sentido de que cada operación elemental
tiene una operación elemental inversa que revierte el resultado.
Actividad 1.5. Verifique que la matriz A del ejemplo anterior puede obtenerse a partir de la matriz
B revirtiendo la sucesión de operaciones elementales.
Actividad 1.6. ¿Cuál es la operación elemental inversa de cRi → Ri (c 6= 0)?. ¿Y cuál es la operación
elemental inversa de Ri + cRj → Ri ?
Se han resuelto sistemas lineales llevándolos a uno escalonado equivalente. Los sistemas escalonados
son aquellos cuya matriz aumentada es de forma escalonada. Precisamente:
El elemento delantero de cada renglón no cero después del primero está a la derecha
del elemento delantero del renglón anterior.
La matriz está en forma escalonada por renglones reducida si además verifica las dos siguientes
condiciones:
Toda columna que contiene un 1-delantero, tiene ceros en sus restantes posiciones.
Por simplicidad diremos que una matriz está en “forma escalonada” o en “forma escalonada reducida”
para indicar que está en forma escalonada por renglones o en forma escalonada por renglones reducida,
respectivamente.
Por ejemplo, sean las matrices:
1 2 3 0 2 2 4
1 2 5 1 3
A= , B = 0 1 0 9 , C= 0 1 0 , D= ,
0 1 1 0 0
0 2 1 1 0 0 −1
1 0 3 0
0 1 0 0 0 2 5
1 2 0
E=
0
, F = 0 1 0 , G= 1 2 5 y H= 0
0 1 .
0 0 1
0 0 1 0 0 0
0 0 0 0
A, C, D E, F G y H están en forma escalonada y se han recuadrado sus elementos delanteros. La
matriz B no está en forma escalonada. Las matrices D, E, F y G están en forma escalonada reducida.
2. Si el primer renglón tiene un cero en la columna del paso 1, intercámbielo con uno que
tenga un elemento no cero en la misma columna. Se obtiene ası́ una matriz equivalente
con el primer renglón no cero cuyo elemento delantero está en la primera columna no
cero.
3. Obtenga ceros abajo del elemento delantero sumando múltiplos adecuados del primer
renglón a los renglones debajo de él.
4. Cubra (o ignore) el renglón superior y repita el mismo proceso comenzando con el paso
1 aplicado a la matriz restante.
Ejemplo 1.18. Para obtener una matriz en forma escalonada equivalente a la matriz
0 2 3 3 0
1 1 2 −1 1
A= 2 0 1
0 12
3 1 3 −1 13
0 2 3 3 0 1 1 2 −1 1 1 1 2 −1 1
1 1 2 −1 1 −−R−−−−−−−
→
0 2 3 3 0 −−−−−−−−−−−−−−→
R4 − 3R1 → R4 0 2 3 3 0
→
1 ↔ R2
2 R3 − 2R1 → R3
0 1 0 12 2 0 1 0 12 0 −2 −3 2 10
3 1 3 −1 13 3 1 3 −1 13 0 −2 −3 2 10
2 −1 1 2 −1 1
1 1 1 1
−−−−−−−−−−−−−→
R4 + R2 → R4 0 2 3 3 0 −−R−4−−−−R−−3−→
−−−−→ 0 2 3 3 0
.
R4
R3 + R2 → R3
0 0 0 5 10 0 0 0 5 10
0 0 0 5 10 0 0 0 0 0
La matriz obtenida
1 1 2 −1 1
0 2 3 3 0
E=
0
,
0 0 5 10
0 0 0 0 0
está en forma escalonada.J
Teorema 1.5. Toda matriz es equivalente a una matriz en forma escalonada reducida.
El algoritmo de Gauss-Jordan continúa el proceso de eliminación gaussiana hasta obtener una matriz
equivalente en forma escalonada reducida. Se procede de la siguiente manera:
Algoritmo de Gauss-Jordan
I. Si la matriz está en forma escalonada pase al paso II. Si la matriz no está en forma
escalonada aplique los pasos 1, 2, 3 y 4 del algoritmo de Gauss hasta obtener una forma
escalonada y luego continúe con el paso II.
II. Comenzando con el último renglón no cero, se avanza hacia arriba del siguiente modo:
Ejemplo 1.19. Para obtener una matriz en forma escalonada reducida equivalente a la matriz A del
ejemplo anterior, se continúa con el algoritmo de Gauss-Jordan a partir de la matriz E:
2 −1 1 2 −1 1
1 1 1 1 1 1 2 0 3
0 2 3 3 0
−−51−R−−3−→
−−−−→
0 2 3 3 0
R2 − 3R3 → R2 0
−−−−−−−−−−−−−−→ 2 3 0 −6
→
R3
0 0 0 5 10 0 0 0 1 2 R 1 + R3 → R1 0 0 0 1 2
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
1
1 1 2 0 3 1 0 2 0 6
3 3
−−−−−−−−−−→
1R → R
0 1 2 0 −3 −−−−−−−−−−−−−→ 0
1 2 0 −3
2 2 2 R1 − R 2 → R1
0 0 0 1 2 0 0 0 1 2
0 0 0 0 0 0 0 0 0 0
La matriz obtenida 1
1 0 2 0 6
3
0 1 2 0 −3
R=
0
0 0 1 2
0 0 0 0 0
está en forma escalonada reducida y es equivalente a la matriz A.J
Observación 1.1. Pueden obtenerse 1-delanteros en el paso 3 del algoritmo de Gauss aunque esta
práctica tenderı́a a introducir fracciones en una etapa temprana del cálculo si los elementos son enteros.
Observación 1.2. Debe tenerse en cuenta que una vez que se hayan hecho ceros abajo (o arriba) del
elemento delantero de un renglón debe comenzarse otra vez con el primer paso aplicado a la matriz
que se obtiene de haber eliminado dicho renglón. Esto es ası́ para no “arruinar” los ceros que ya se
habı́an hecho. Por ejemplo: el paso siguiente en la conversión de la matriz
2 −1 0
0 1 −1
0 1 0
es hacer cero el elemento en la posición (3, 2). El algoritmo de Gauss indica cubrir el renglón 1 (no se
tiene en cuenta el renglón 1) y hacer R3 − R2 → R3 para obtener:
2 −1 0
0 1 −1 .
0 0 1
Nótese que se hubiese logrado un cero en la posición (3, 2) con la operación R3 + R1 → R3 , pero
esto hubiese conducido a la matriz
2 −1 0
0 1 −1
2 0 1
“arruinando” el cero que ya se habı́a obtenido en la posición (3, 1).
Observación 1.3. En este texto se hará uso de expresiones tales como “llevar la matriz A a una
forma escalonada”, que significa obtener una matriz en forma escalonada equivalente a la matriz A.
Nota: Una matriz no cero es equivalente a infinitas matrices en forma escalonada pero sólo a una en
forma escalonada reducida. Se aceptará sin demostrar el siguiente teorema:
Teorema 1.6 (Unicidad de la forma escalonada reducida). Toda matriz es equivalente a una
y solo una matriz escalonada reducida.
Si A, E y R son tres matrices equivalentes tales que E está en forma escalonada y R en forma
escalonada reducida, se dice que E es una forma escalonada de A y que R es la forma escalonada
reducida de A.
En cualquier forma escalonda de una matriz A los elementos delanteros se encuentran en las mismas
posiciones, a dichos elementos delanteros se los llama pivotes. Se llaman posiciones pivote (o de
pivoteo) de una matriz A a las posiciones de los pivotes de una (cualquiera) forma escalonada de A.
Las columnas de A que contienen una posición pivote se llaman columnas pivote de A. Debe
notarse que para determinar cuáles son las columnas pivote de una matriz A que no está en forma
escalonada debe primero llevársela a una forma escalonada para conocer cuáles son las posiciones
pivote.
1 −1 2 3
−2 2 −4 −6
Actividad 1.8. Dada la matriz A =
2 −1 6 8
.
1 0 4 5
0 0 0 1
1. Exhiba las columnas pivote de A.
Actividad 1.9. ¿Cuántas matrices cuadradas de orden 3 escalonadas reducidas tienen exactamente
2 pivotes?, ¿cuántas tienen exactamente 3 pivotes?
Ejercicios
a) A ∼ B ⇒ B ∼ A
b) Si A ∼ B y B ∼ C, entonces A ∼ C.
3. Indique cuáles de las siguientes matrices están en forma escalonada y cuáles de éstas en forma
escalonada reducida. Recuadre los pivotes de cada matriz en forma escalonada e indique sus
columnas pivote.
1 0 0 9 0
1 −2 1 1 1 0 1 1 3 0 0 1 3 0
A= 0 5 −2 1 , B = 0 5 0 , C = 1 2 , D = 0 0 0 0 1 ,
0 0 0 2 0 0 0 0 0
0 0 0 0 0
7
0 1 0 0 1 0 0 5 0 0
E=
0 ,
F = 1 6 0 0 1 , G = 0 1 0 , H = 0 1 3 0 0 0 .
0 0 1 0 0 0 0 0 1
0
4. Sean A y B dos matrices m×n, y A0 y B 0 sus respectivas formas escalonadas reducidas. Demuestre
que: A ∼ B si y sólo si A0 = B 0 .
Nota: Dos matrices son iguales si tienen el mismo tamaño y los elementos que ocupan las mismas
posiciones son iguales.
− 32 12
1 2 −1 2 1 0
a) A = −1 2 2 1 , B = 0 4 1 3
0 4 1 3 0 0 0 0
1 2 3 1 1 −1
b) A = ,B=
0 1 1 0 1 1
2 1 −1 3 1 0 0 0
4 0 1 −1 0 1 0 0
c) A = 0 2
, B =
0 2 0 0 1 0
1 1 −1 3 0 0 0 1
7. En cada caso, obtenga una forma escalonada y la forma escalonada reducida para cada matriz A. Recuadre
los pivotes en una forma escalonada e indique las columnas pivote de A.
1 −1 −1 3 2 −1 5 0 1 3 2 −2
a) A = 1 −1 0 1 b) A = −3 0 2 1 c) A = 2 6 4 −4
0 2 1 −1 1 −2 12 1 3 9 6 −6
2. Utilice el algoritmo de eliminación gaussiana para llevar la matriz a una forma esca-
lonada. Si durante cualquier
estapa de este
proceso se encuentra una matriz con un
renglón de la forma 0 0 ... 0 : b con b 6= 0, deténgase, en este caso el sistema
es inconsistente. De lo contrario continúe con 3).
4. Distinga las variables delanteras de las libres y aplique el método de sustitución hacia
atrás para encontrar la solución del sistema.
2 −1 1
1 1
0 2 3 3 0
0 0 0 5 10
0 0 0 0 0
Observe que en esta matriz no hay un renglón de la forma 0 0 ... 0 : b con b 6= 0, entonces
el sistema lineal escalonado correspondiente
x1 +x2 +2x3 −x4 = 1
2x2 +3x3 +3x4 = 0
5x4 = 10
no tiene una ecuación de la forma 0x1 + 0x2 + 0x3 + 0x4 = b con b 6= 0 y por lo tanto es consistente.
Las variables delanteras son x1 , x2 y x4 , que son las que corresponden a las posiciones de las columnas
pivote (1◦ , 2◦ y 4◦ ). La variable x3 (que corresponde a una columna no pivote) es libre, por lo que
toma cualquier valor. Sea
x3 = t, t ∈ R.
x4 = 2.
depejando x1 se obtiene
1
x1 = − t + 6.
2
El sistema lineal tiene infinitas soluciones y su solución general es
1 3
x1 = − t + 6, x2 = − t − 3, x3 = t, x4 = 2 para todo t ∈ R. J
2 2
Eliminación de Gauss-Jordan
Los pasos a seguir son los siguientes:
4. Distinga las variables delanteras de las libres (si las hay) y despeje la variable delantera
de cada ecuación en función de las libres, de las constantes o de ambas.
Observación 1.4. En un sistema escalonado reducido la variable delantera de cada ecuación “no
aparece” en otra ecuación, en particular no aparece en las ecuaciones anteriores, y por lo tanto no se
requiere aplicar sustitución hacia atrás para resolverlo.
1 2 −1 1
1
0 2 3 3 0
.
0 0 0 5 10
0 0 0 0 0
Ahora, en lugar de usar sustitución hacia atrás para resolver el sistema escalonado correspondiente,
se continúa con la eliminación de Gauss-Jordan hasta obtener la forma escalonada reducida. El Ejemplo
1.19 muestra la matriz escalonada reducida que se obtuvo:
0 12
1 0 6
0 1 3 0 −3
2 .
0 0 0 1 2
0 0 0 0 0
+ 12 x3
x1 = 6
x2 + 23 x3 = −3
x4 = 2
Observe que el trabajo que se agrega al completar el proceso para obtener la forma escalona-
da reducida de la matriz aumentada, se compensa con la resolución directa del sistema reducido
equivalente.J
Ejemplo 1.23 (Sistema consistente con única solución). Para resolver el sistema lineal
x1 −x2 −x3 = 0
−x1 +x2 −x3 = −6
2x1 −x2 −x3 = 1
Todas las variables del sistema son delanteras (no posee variables libres). La solución es única y se
lee directamente: x1 = 1, x2 = −2 y x3 = 3. Su conjunto solución es {(1, −2, 3)}. J
Ejemplo 1.24 (Sistema consistente con infinitas soluciones). Considere el sistema lineal
2x1 −x2 +x3 −x4 = 0
x1 +3x2 +x3 −x4 = 1
−3x1 +5x2 −x3 +x4 = 1
Las variables x1 y x2 son delanteras, x3 y x4 son libres pudiendo tomar cualquier valor real. As,́
x4 = t, t ∈ R,
y
x3 = s, s ∈ R.
Demostración. Para resolver un sistema lineal consistente las variables delanteras de un sistema esca-
lonado equivalente se despejan en función de las libres (si las tiene) y de las constantes. Si el sistema
tiene variables libres entonces no tiene una única solución, más aún tiene infinitas soluciones ya que
las variables libres asumen cualquier valor real. Si no tiene tiene variables libres entonces cada variable
asume un único valor y por lo tanto el sistema tendrá solución única.
Dado que un sistema de ecuaciones lineales tiene variables libres o no las tiene, los teoremas 1.7 y 1.8
implican el siguiente:
Actividad 1.10. ¿Qué puede asegurar respecto a las soluciones de los sitemas lineales cuyas matrices
aumentadas son equivalentes a las siguientes formas escalonadas?
1 a b d g 1 a b d f
0 2 c e h 1 a b c e
, B = 0 0 2 d f ; C = 0 2 c e g
A= 0 0 5 f i 0 0 0 0 3
0 0 0 3 0
0 0 0 3 j 0 0 0 0 0
donde a, b, c, d, e, f , g, h, i y j son constantes reales.
1. Un sistema lineal homogéneo tiene sólo la solución trivial o bien un número infinito de
soluciones.
2. Si un sistema lineal homogéneo tiene más incógnitas que ecuaciones entonces tiene
infinitas soluciones.
Demostración. 1. Todo sistema lineal homogéneo es consistente, ya que tiene al menos la solución
trivial, luego, de acuerdo al Teorema 1.9 tiene una única solución o infinitas soluciones. Si tiene
sólo una solución, ésta será la solución trivial y si no, tendrá un número infinito de soluciones.
2. Si un sistema tiene más incógnitas (variables) que ecuaciones entonces tiene variables libres,
ya que el número de variables delanteras no puede exceder al número de ecuaciones. Como el
sistema es consistente (dado que es homogéneo) y tiene variables libres, entonces tiene infinitas
soluciones de acuerdo al Teorema 1.8.
Observación 1.5. Cuando se dice que un sistema lineal homogéneo tiene soluciones no triviales debe
entenderse que tiene infinitias soluciones, además de la trivial.
Actividad 1.11. Determine si los siguientes sistemas homogéneos tienen soluciones no triviales:
x1 +x2 +x3 = 0
x1 + x2 + x3 = 0
2x1 −x2 −x3 = 0 x1 +x2 +x3 +5x4 = 0
2x1 − x2 − x3 = 0
x1 +2x2 −x3 = 0 , , 2x1 −x2 −x3 +20x4 = 0 .
5x1 + x2 − x3 = 0
4x −x2 +x3 = 0 77x1 +6x2 +45x3 −x4 = 0
1
4x1 − x2 + x3 = 0
2x1 +3x2 = 0
Se terminará la sección considerando el siguiente ejemplo: sean los sistemas lineales con la misma
matriz de coeficientes:
x + 2y + 3z = 2 x + 2y + 3z = 2
y
2x + 4y + 6z = 4 2x + 4y + 6z = 5
El primer sistema es consistente mientras que el segundo no lo es. Las correspondientes matrices
aumentadas se reducen a las siguientes formas escalonadas:
1 2 3 : 2 1 2 3 : 2
y ,
0 0 0 : 0 0 0 0 : 1
respectivamente.
1 2 3
La matriz de coeficientes de ambos sistemas, A = , no tiene una posición pivote en
2 4 6
el segundo renglón, entonces cualquiera sea el vector de constantes
b el último renglón de cualquier
forma escalonada de [A : b] será de la forma 0 0 0 : c . El sistema lineal será consistente o
inconsistente dependiendo de c: si c = 0 es consistente y si c 6= 0 es inconsistente.
Surge entonces la siguiente pregunta: dada una matriz A ¿podrá suceder que un sistema lineal con
dicha matriz de coeficientes sea siempre consistente?. Parece claro que para que esto ocurra las formas
escalonadas de A no deben tener renglones ceros, es decir A debe tener un pivote por renglón. Se tiene
ası́ el siguiente teorema:
Actividad 1.12. ¿Cuáles de las siguientes matrices son matrices de coeficientes de sistemas lineales
que siempre resultan consistentes?
1 2 3 0
1 2 1 2 3 1 1 1 0
3 4 , −1 0
3 4 −1 1
1 , 0 −1
, 1 1 0 1 .
2 2
−1 3 2 1 −2 1 0 1 2
4 6 2 1
Ejercicios
2. El problema de los celulares. Una fábrica de celulares elabora cuatro modelos de teléfonos
móviles: AA1, AA2, AA3 y B1. Una vez fabricados, se requiere de la inspección de los mismos
en algunos de los sectores S1, S2, S3 y S4. El modelo AA1 requiere de 5 horas de inspección en
el sector S1, 4 horas en S2, 1 hora en S3 y 3 horas en S4. El modelo AA2 requiere de 2 horas de
inspección en cada uno de los cuatro sectores. El modelo AA3 requiere de 3 horas en el sector
S2, 1 hora en S3 y 5 horas en S4. Por último, el modelo más nuevo B1 requiere de 1 hora en S1,
3. El problema de los salones. Una escuela pequeña de 100 alumnos ocupan tres salones de
clases: A, B y C. Después del primer perı́odo del dı́a escolar la mitad de los alumnos del salón A
van al B y la tercera parte de los alumnos del C pasan al A. Sin embargo, la cantidad total de
alumnos en cada salón es igual en cada perı́odo de clase. ¿Cuántos alumnos hay en cada salón?
4. Elaboración de una dieta. Por lo general, el empaque de un cereal indica el número de calorı́as
y las cantidades de proteı́nas, carbohidratos y grasa contenidas en una porción del producto.
Para dos marcas de cereales, se dan las cantidades en el Cuadro 1.1.
Suponga que se preparará una mezcla de esos cerales, de manera que contenga exactamente 295
calorı́as, 9g de proteı́nas, 48g de carbohidratos y 8g de grasa. Determine si es posible preparar
la mezcla deseada de los dos cereales.
5. Flujo de redes. Los sitemas de ecuaciones lineales son utilizados también para estudiar el flujo
de alguna cantidad a través de una red. Por ejemplo, los planificadores urbanos y los ingenieros
de tráfico monitorizan el patrón de flujo de tránsito en una rejilla de las calles de una ciudad.
Una red consiste en un conjunto de puntos llamados nodos, con lı́neas o arcos llamados ramas,
que conectan algunos o todos los nodos. Se indica la dirección y el sentido de flujo en cada rama,
y la cantidad de flujo (o tasa) se denota con una variable.
La suposición básica en el flujo de red es que el flujo total en la red es igual al flujo total de
salida de la red, y que el flujo total en un nodo es igual al flujo total de salida en dicho nodo.
Por ejemplo, la Figura 1.2 muestra 30 unidades que fluyen por una rama hacia una unión; x1 y
x2 denotan los flujos de salida del nodo a través de otras ramas.
Como el flujo se “conserva” en cada unión, entonces x1 + x2 = 30. En forma similar, el flujo
en cada nodo se describe mediante una ecuación lineal. El problema de análisis de redes es
determinar el flujo en cada rama cuando se tiene información parcial (como el flujo de entrada
y salida de la red).
a) La red de la Figura 1.3 representa el flujo de tránsito (en vehı́culos por hora) en varias calles
de un solo sentido en el centro de Baltimore en un dáa común, poco después del mediodı́a.
Para determinar el patrón de flujo general para la red, se escriben las ecuaciones que
describen el flujo. En cada intersección de las calles (nodos) se iguala el flujo de entrada al
de salida como se muestra en el Cuadro 1.2.
Intersección Flujo de entrada Flujo de salida
A 300 + 500 = x1 + x2
B x2 + x4 = 300 + x3
C 100 + 400 = x4 + x5
D x1 + x5 = 600
También, el flujo total de entrada en la red (500 + 300 + 100 + 400) es igual al flujo total
de salida (300 + x3 + 600), que se simplifica a x3 = 400.
Escriba el sistema de ecuaciones lineales que modeliza el problema y encuentre su solución
para determinar el patrón de flujo general para la red. Determine el posible rango de las
variables del problema.
Nota: Un flujo negativo en una rama de la red corresponde a un flujo en el sentido puesto indicado
en el modelo. Como las calles en este problema son de un solo sentido, ninguna de las variables
puede ser negativa.
b) Encuentre el patrón de flujo general de la red que se ilustra en la Figura 1.4.
Suponiendo que todos los flujos son no negativos, ¿cuál es el valor más pequeño posible para x4 ?
admite (a) única solución, (b) infinitas soluciones, (c) ninguna solución. Si existe un único valor
de α para el cual el sistema tiene única solución, resuelva el sistema. Idem en el caso de infinitas
soluciones.
10. Resolución simultánea de sistemas lineales que tienen la misma matriz de coeficien-
tes. Es frecuente en la práctica tener que resolver sistemas lineales que tienen la misma matriz
de coeficientes pero distintos términos independientes. Por ejemplo, los sistemas:
x −2y +3z = −2
(1.4)
−x +4y +5z = 7
y
u −2v +3w = 1
(1.5)
−u +4v +5w = −4
1 −2 3
tienen la misma matriz de coeficientes y vectores de términos independientes
−1 4 5
−2 1
y .
7 −4
En lugar de resolver cada sistema por separado, se los puede resolver simultáneamente aplicando
el algoritmo de eliminación gaussiana o el de Gauss-Jordan a la matriz ampliada que tiene en
el lado derecho las dos columnas que corresponden a los términos independientes. Si se aplica
Gauss-Jordan a esta matriz se obtiene su forma escalonada reducida y en consecuencia los dos
sistemas escalonados reducidos equivalentes a los originales.
1 −2 3 : −2 1 −−−−−−−−−−−−−→ 1 −2 3 : −2 1 −−1−−−−−−−−→
R2 + R1 → R2 R → R2
2 2
−1 4 5 : 7 −4 0 2 8 : 5 −3
1 −2 3 : −2 1 −−−−−−−−−−−−−−→ 1 0 11 : 3 −2
→ 5 3 R1 + 2R2 → R1 5 .
0 1 4 : 2 −2 0 1 4 : 2 − 32
A = [1 2 − 5; 3 2 0; −9 1 8; 0 0 − 3] y b = [1; 3; 0; 0]
produce la matriz
1 2 −5
3 2 0
A=
−9
,
1 8
0 0 −3
y el vector columna
1
3
0 ,
b=
1
respectivamente. Hay que tener en cuenta que SCILAB distingue mayúsculas de minúsculas.
La notación A(2, 3) produce
0
que es el elemento en la posición (2, 3) de la matriz A. La notación A(2, :) produce
3 2 0
que son los elementos del segundo renglón de la matriz A. Y la notación A(:, 3) produce
−5
0
8
−3
que son los elementos de la tercera columna de la matriz A.
La notación B = [A b] produce la matriz aumentada
1 2 −5 1
3 2 0 3
B= −9 1
.
8 0
0 0 −3 1
Las operaciones elementales entre renglones de una matriz A se indican de la siguiente manera:
Intercambio: para intercambiar los renglones i y j se utiliza la notación
A([i j], :) = A([j i], :).
Escalamiento: para multiplicar el renglón i por una constante no nula c se utiliza la notación
A(i, :) = c ∗ A(i, :).
El comando “rref” produce la forma escalonada reducida de una matriz. Por ejemplo, si quisiéramos
determinar la forma escalonada reducida de la matriz A de nuestro ejemplo, lo indicamos con rref(A)
y produce
1 0 0
0 1 0
0 0 1 .
0 0 0
Ejercicios
1. Sean
0 −3 −6 4 9 3
−1 −2 −1 3 1 2
A=
−2 −3
, b=
−1 y c=
0 3 5
1 4 5 −9 −7 3
2. Use el comando “rref” para verificar las soluciones de los sistemas lineales de los ejercicios 1 y
10 de la sección 1.4.
MATRICES
2.1. Vectores de Rn
En el capı́tulo anterior se describió una solución de un sistema lineal con n incógnitas como una
n−upla ordenada de números reales. Estas n−uplas son llamadas vectores.
(c1 , c2 , ..., cn ) .
En este texto las componentes de un vector serán números reales. En ambas definiciones c1 es la primer
componente, c2 la segunda,..., ck la k−ésima componente. Cualquier vector cuyas componentes sean
todas cero, se denomina vector cero.
0
Ejemplo 2.1. (1, 0, 3, −7) es un vector renglón de 4 componentes, 1 es un vector columna de
−1
3 componentes y (0, 0, 0, 0, 0, 0) es el vector renglón cero de 6 componentes. J
A lo largo del texto los vectores se representarán con letras minúsculas negritas como u, v, a, b, c, x,
etcétera. Un vector cero se denota por 0.
Los vectores de R2 y R3 pueden interpretarse geométricamente como puntos en el plano y como puntos
en el espacio, respectivamente.
la flecha que comienza en el punto origen (0, 0) y cuya punta es el punto P , como se observa en la
Figura 2.1. El vector cero de R2 geométricamente es el punto origen de coordenadas (0, 0).
Similarmente se interpretan geométricamente a los vectores de R3 .
1. u + v = v + u [Conmutativa]
2. (u + v) + w = u + (v + w) [Asociativa]
5. a (u + v) = au + av [Distributiva]
6. (a + b) u = au + bu [Distributiva]
8. 1u = u
Demostración. Sólo comprobaremos la propiedad 6. Se dejan las demás demostraciones como ejercicio.
Sean el vector u = (u1 , u2 , ..., un ) y los escalares a y b. Entonces:
Actividad 2.1. Usando las propiedades dadas en el Teorema 2.1, demuestre que:
El teorema anterior pueda aplicarse para resolver ciertas ecuaciones que involucran vectores. Por
ejemplo, sean v y u dos vectores de Rn y se desea determinar el vector x que satisface la ecuación
2x − 4v = 3u. Entonces:
2x + 4v = 3u,
(2x + 4v) + (− (4v)) = 3u + (− (4v)) ,
2x + (4v + (− (4v)) = 3u + (− (4v)) ,
2x + 0 = 3u + (−4) v,
2x = 3u + (−4) v,
1 1
(2x) = (3u − 4v) ,
2 2
1 1
2 x = (3u − 4v) ,
2 2
1
1x = (3u − 4v) ,
2
1
x = (3u − 4v) .
2
Actividad 2.2. Indique qué propiedades se aplicaron sucesivamente en el ejemplo anterior.
En Álgebra y Geometrı́a Analı́tica se estudió que cualquier vector del plano puede escribirse como
combinación lineal de dos vectores no nulos ni paralelos. También, se probó que todo vector del espacio
se puede escribir como combinación lineal de tres vectores no nulos ni coplanares. Definiremos la noción
de combinación lineal para cualquier conjunto de vectores de Rn .
c1 u1 + c2 u2 + ... + ck uk ,
donde c1 , c2 ,..., ck son escalares cualesquiera que son llamados coeficientes de la combinación
lineal.
u = c1 u1 + c2 u2 + ... + ck uk .
−2 1 0
Ejemplo 2.3. El vector u = es combinación lineal de los vectores e1 = y e2 = .
3 0 1
En efecto,
−2 1 0
= −2 +3 .
3 0 1
2 −3
Trivialmente u no es combinación lineal de los vectores v1 = y v2 = dado que no
0 0
existen escalares c1 y c2 tales que
2 −3 −2
c1 + c2 = .J
0 0 3
1 1
Ejemplo 2.4. Para determinar si u = 2 es combinación lineal de los vectores v1 = 1 ,
0 −1
−2 1 −4
v2 = 1 , v3 = −3 y v4 = 1 basta con estudiar la existencia de escalares c1 , c2 , c3 y
5 −5 4
c4 tales que satisfagan la siguiente ecuación en las incógnitas x1 , x2 , x3 y x4 :
1 −2 1 −4 1
x1 1 + x2
1 + x3 −3 + x4
1 = 2 .
−1 5 −5 4 0
Operando en el primer miembro se obtiene la ecuación equivalente
x1 − 2x2 + x3 − 4x4 1
x1 + x2 − 3x3 + x4 = 2 ,
−x1 + 5x2 − 5x3 + 4x4 0
con lo cual el problema se reduce a estudiar la consistencia de dicho sistema lineal. Aplicando elimi-
nación gaussiana a la matriz
aumentada se obtiene una forma escalonada que no tiene renglones de la
forma 0 0 ... 0 : b con b 6= 0:
1 −2 1 −4 : 1 −−−−−−−−−−−−−→ 1 −2 1 −4 : 1
1 1 −3 1 : 2 RR23 − R1 → R2
+ R1 → R3
0 3 −4 5 : 1 →
−1 5 −5 4 : 0 0 3 −4 0 : 1
1 −2 1 −4 : 1
−−−−−−−−−−−−−→
R 3 − R2 → R3 0 3 −4 5 : 1 .
0 0 0 −5 : 0
El sistema lineal es consistente por lo que el vector u resulta ser combinación lineal de los vectores
v1 , v2 , v3 y v4 .
El sistema tiene infinitas soluciones y su solución general es
5 5
x1 = 31 + 34 t
x2 = 3 + 3 t
, t ∈ R.
x =t
3
x4 = 0
Hay una infinidad de maneras de expresar al vector u como combinación lineal de los vectores v1 ,
v2 , v3 y v4 .
Por ejemplo si t = 0 se obtiene c1 = 53 , c2 = 13 , c3 = 0 y c4 = 0:
1 −2 1 −4 1
5 1
1 + 1 + 0 −3 + 0 1 = 2 .
3 3
−1 5 −5 4 0
10
y si t = 1 se obtiene c1 = 3 , c2 = 53 , c3 = 1 y c4 = 0:
1 −2 1 −4 1
10 5
1 +
1 + 1 −3 + 0
1 = 2 .
3 3
−1 5 −5 4 0
En general, las infinitas maneras de escribir al vector u como combinación lineal de los vectores
v1 , v2 , v3 y v4 está dada por
1 −2 1 −4 1
5 5 1 4
+ t 1 + + t 1 + t −3 + 0 1 = 2 , t ∈ R. J
3 3 3 3
−1 5 −5 4 0
Ejercicios
son iguales.
0 2 0
a) x = −2a + 12 b − c. c) 4x − 2b − c = 0
b) x + 2b − c = 2a d ) 2a − 3 (−b + c) + x = 2x − c
5. Determine si el vector b es combinación lineal de los restantes vectores. En caso afirmativo, halle
coeficientes de la combinación lineal.
2 1 0 5
a) b = −1 ; a1 = −2 , a2 = 1 y a3 = −6 .
6 0 2 −8
4 1 2 3
b) b = 0 ; a1 = −1 , a2 = 1 y a3 = 2 .
5 0 3 5
c) b = (4, 0, 4); a1 = (1, −1, 0), a2 = (2, 1, 3), a3 = (3, 2, 5) y a4 = (1, 1, 2).
−10 1 0 4
−5 −1 0 1
d) b = 17 ; a1 = 3 , a2 = 1 y a3 = −2 .
−14 0 −1 −3
a
6. Calcule el o los valores de a de manera que el vector u = 2 sea una combinación lineal
−2a
0 1
de los vectores v = 2 y w = 0 .
1 a
7. Sean v1 , v2 ,...,vk vectores de R3 y suponga que para cada j = 1, 2, ..., k un objeto con masa mj
está posicionado en el extremo del vector vj . En Fı́sica llaman masas puntuales a esos objetos.
La masa total del sistema de masas puntuales es
m = m1 + m2 + ... + mk .
La matriz de m × n que tiene todos sus elementos ceros se denomina matriz cero y se simboliza
Om×n . Por ejemplo la matriz cero de 2 × 3 es
0 0 0
O2×3 = ,
0 0 0
Definición (Igualdad de matrices). Dos matrices A y B son iguales si tienen igual tamaño
y sus elementos correspondientes son iguales.
1 −2 1 −2
Ejemplo 2.5. A = yB= son iguales si y sólo si a = 1 y b = 5.J
1 0 a b−5
A + B = [aij + bij ] .
−2 3 0 1 0 1 −1 3 1
Ejemplo 2.6. + = .J
1 4 −1 −3 1 1 −2 5 0
Definición (Producto de una matriz por un escalar). Sean A = [aij ] una matriz de m × n
y k un escalar. El producto de la matriz A por el escalar k es la matriz de m × n, denotada
por kA, dada por
kA = [kaij ] .
Es decir, kA es la matriz de m × n que se obtiene de multiplicar todos los elementos de A
por k.
1. A + B = B + A [Conmutativa]
2. A + (B + C) = (A + B) + C [Asociativa]
5. c(A + B) = cA + cB [Distributiva]
6. (b + c)A = bA + cA [Distributiva]
8. 1A = A
Demostración. Se probarán aquı́ las propiedades 3) y 5). Se dejan las demás demostraciones como
ejercicio.
Sean las matrices A = [aij ] y B = [bij ] de m × n. Entonces:
5. Por definición de suma de matrices, de producto de una matriz por un escalar y por la propiedad
distributiva del producto respecto a la suma en R:
c (A + B) = c [aij + bij ] = [c (aij + bij )] = [caij + cbij ] = [caij ]+[cbij ] = c [aij ]+c [bij ] = cA+cB.
1. kA = O ⇔ k = 0 ó A = O.
2. − (kA) = (−k) A.
El teorema pueda aplicarse para resolver ciertas ecuaciones que involucran matrices. Por ejemplo, sean
A y B dos matrices de m × n y se desea determinar la matriz que satisface la ecuación 2X + 4B = 3A.
2X + 4B = 3A,
(2X + 4B) + (− (4B)) = 3A + (− (4B)) ,
2X + (4B + (− (4B)) = 3A − 4B,
2X + O = 3A − 4B,
2X = 3A − 4B,
1 1
(2X) = (3A − 4B) ,
2 2
1 1
2 X = (3A − 4B) ,
2 2
1
1X = (3A − 4B) ,
2
1
X = (3A − 4B) .
2
Actividad 2.4. Indique qué propiedades se aplicaron sucesivamente en el ejemplo anterior.
u1 v1
u2 v2
Ası́, si u = yv= o bien si u = (u1 , u2 , ..., un ) y v = (v1 , v2 , ..., vn ), entonces
.. ..
. .
un vn
n
X
u · v = u1 v1 + u2 v2 + ... + un vn = ui vi .
i=1
Nota: El producto punto es una operación importante que se retomará en secciones posteriores y ha
sido introducido en este momento para definir la siguiente operación entre matrices:
La ecuación (2.1) establece que el (i, j)-ésimo elemento de la matriz producto AB, es el producto punto
del vector cuyas componentes son las del renglón i−ésimo de A por el vector cuyas componentes son
las de la columna j−ésima de B.
colj (B) ↓
a11 a12 ... a1p
.. .. .. b11 b12 ... b1j ... b1n
. . ... . b21 b22 ... b2j ... b2n
reni (A) → ai1 ai2 ... aip
. . . . . =
. .. ... .. .. ..
.. .
.. ..
. . ... . b
p1 bp2 ... bpj ... bpn
am1 am2 ... amp
c11 c12 ... c1j ... c1n
.. .. .. .. ..
. . ... . . .
= ci1 ci2 ... cij ... cin .
. . . . .
.. .. .. .. ..
...
cm1 cm2 ... cmj ... cmn
p
X
es decir el elemento cij = reni (A) · colj (B) = ai1 b1j + ai2 b2j + ... + aip bpj = aik bkj .
k=1
Observe que el producto AB está definido sólo si el número de columnas de la matriz A es igual
al número de renglones de la matriz B:
Am× p B p ×n
= ABm×n
−2 5
1 2 −1
Ejemplo 2.9. Dadas A = y B = 3 −4 . Como A es una matriz de 2 × 3 y B es
3 1 5
1 2
de 3 × 2 es posible efectuar AB y resultará una matriz de 2 × 2:
−2 5
1 2 −1
AB = 3 −4 =
3 1 5
1 2
1(−2) + 2(3) + (−1)(1) 1(5) + 2(−4) + (−1)(2)
= =
3(−3) + 1(3) + 5(1) 3(5) + 1(−4) + 5(2)
3 −5
= .J
−1 21
1 −2 3 2 3
Ejemplo 2.10. Sean las matrices A = 3 0 2 y B = −1 0 .
2 −1 3 3 2
Para calcular el elemento (3, 2) de la matriz AB se debe efectuar el producto punto del vector
renglón 3 de la matriz A por el el vector columna 2 de la matriz B. Luego el elemento (3, 2) de AB es
2(3) + (−1)(0) + 3(2) = 12.J
1 2 −1 3 −5
3 1 5 −1 21
3 −5
Luego, AB = .J
−1 21
Nota: La suma de matrices se define de manera natural, sumando elemento a elemento. Esto hace
que la suma de matrices verifique las mismas propiedades que la suma de números reales.
La multiplicación de matrices requiere más cuidado que la suma, no está definido de la manera
natural que se hubiese esperado. Esto hace que ciertas propiedades del producto de números reales no
se verifiquen en el producto matricial.
Por definición, el producto AB se puede realizar sólo si el número de columnas de A es igual al
número de renglones de B. Si A es una matriz de m × p y B es una matriz de p × n, AB es una matriz
de m × n. Con respecto a BA pueden darse distintas situaciones:
Puede ocurrir que BA no esté definido, esto ocurre si y sólo si n 6= m. Por ejemplo, si A es de
2 × 3 y B es de 3 × 4, el producto AB es una matriz de 2 × 4 mientras que el producto BA no
está definido.
Otras peculiaridades del producto de matrices son las siguientes: supongamos que A, B y C son
matrices de tamaños tales que los productos matriciales dados están definidos:
a11 a12 ... a1n c1 ren1 (A) · c a11 c1 + a12 c2 + ... + a1n cn
a21 a22 ... a2n c2 ren2 (A) · c a21 c1 + a22 c2 + ... + a2n cn
Ac = = = .
.. .. .. .. .. ..
. .
... . . . .
am1 am2 ... amn cn renm (A) · c am1 c1 + am2 c2 + ... + amn cn
Es decir
a1j
a2j
Ac = c1 a1 + c2 a2 + ... + cn an , donde aj = es la j-ésima columna de la matriz A.
..
.
amj
−1 3
3
Ejemplo 2.12. Si A = −2 5 y c =
, el producto Ac dado como una combinación lineal
−1
0 1
de las columnas de A es
−1 3 −3 −3 −6
Ac = 3 −2 + (−1) 5 = −6 + −5 = −11 . J
0 1 0 −1 −1
Aek = ak ,
Ax = b,
a11 a12 ... a1n x1
a21 a22 ... a2n x2
donde A = , es la matriz de coeficientes del sistema, x = es el vector
.. .. .. .. ..
. . . . .
am1 am2 . . . amn xn
b1
b2
de incógnitas y b = . el vector de términos constantes.
..
bm
Esto muestra que resolver la ecuación matricial Ax = b equivale a resolver el sistema de matriz
aumentada [A : b].
c1
c2
Una solución de la ecuación Ax = b es un vector c = . si y sólo si la n−upla (c1 , c2 , ..., cn )
..
cn
es una solución del sistema lineal de matriz aumentada [A : b].
2x +y −3z = 5
Ejemplo 2.15. El sistema lineal puede escribirse en forma matricial como
4x −5z = 8
x
2 1 −3 5
y = .J
4 0 −5 8
| {z } z | {z }
A | {z } b
x
Ax = b ⇔ x1 a1 + x2 a2 + ... + xn an = b.
Ası́, un sistema lineal de matriz aumentada [A : b] también puede escribirse como la ecuación
x1 a1 + x2 a2 + ... + xn an = b.
Ejemplo 2.16. El sistema lineal del Ejemplo 2.15 se puede expresar como la ecuación:
2 1 −3 5
x +y +z = .J
4 0 −5 8
Por ejemplo, si t = 1:
5 13 2 3 1 −3
= + +1 .J
8 4 4 2 0 −5
2. A (B + C) = AB + AC [Distributiva a izquierda]
3. (B + C) A = BA + CA [Distributiva a derecha]
5. Im A = AIn = A
6. OA = O y AO = O
Escribiendo los productos AIn y Im A en términos de sus columnas y teniendo en cuenta los
Ejemplos 2.13 y 2.14, se obtienen
AIn = Ae1 Ae2 ... Aen = a1 a2 ... an = A,
y
Im A = Im a1 Im a2 ... Im an = a1 a2 ... an = A.
Nota: La propiedad asociativa permite eliminar paréntesis para la multiplicación de tres o más ma-
trices. Por ejemplo:
(AB) (CD) = A ((BC) D) = A (B (CD)) = ABCD.
Actividad 2.8. Verifique la propiedad (1) del teorema anterior para las matrices:
0 −3 0 1
5 −3 1 0 −2
A= , B= y C= 1 2 5 −1 .
1 2 1 2 −3
2 0 −1 3
A (x + y) = Ax + Ay,
A (kx) = k (Ax) .
En general si A es una matriz de m × n y x1 , x2 ,..., xk son k vectores columna de n componentes
entonces
A (c1 x1 + c2 x2 + ... + ck xk ) = c1 (Ax1 ) + c2 (Ax2 ) + ... + ck (Axk ) ,
para cualesquiera escalares c1 , c2 ,..., ck .
Para la trasposición de matrices se tienen las siguientes propiedades que se enuncian sin demostración:
Teorema 2.5. En cada ı́tem, sea A una matriz de m × n, B una matriz de tamaño tal que
estén bien definidas las operaciones que se indican y c un escalar. Entonces se satisfacen las
siguientes propiedades:
t
1. At =A 3. (cA)t = cAt
2. (A + B)t = At + B t 4. (AB)t = B t At
Observación 2.2. La propiedad (4) del teorema anterior se puede extender a un número finito de ma-
trices. Si A1 , A2 ,..., Ak son matrices de tamaños tales que esté bien definido el producto A1 A2 ...Ak−1 Ak
entonces
(A1 A2 ...Ak−1 Ak )t = Atk Atk−1 ...At2 At1 .
Actividad 2.9. Verifique la propiedad (4) del teorema anterior para las matrices
0 −3 0 1
1 0 −2
A= y B= 1 2 5 −1 .
1 2 −3
2 0 −1 3
De la definición anterior se deduce que necesariamente una matriz simétrica es cuadrada ya que si A
es de m × n entonces At es de n × m y por lo tanto si At = A debe ser n = m.
9 0 −1
5 8
Ejemplo 2.19. La matriz 0 2 5 es simétrica mientras que
no lo es.J
−3 5
−1 5 3
Actividad 2.10. Pruebe que para toda matriz A las matrices AAt y At A están bien definidas y son
matrices simétricas.
−1 2 0
Ejemplo 2.20. Sea la matriz A = 3 0 −1 . Para efectuar el cálculo de A3 primero se puede
0 −1 4
obtener A2
−1 2 0 −1 2 0 7 −2 −2
A2 = AA = 3 0 −1 3 0 −1 = −3 7 −4 ,
0 −1 4 0 −1 4 −3 −4 17
1. Ap Aq = Ap+q .
2. (Ap )q = Apq .
Actividad 2.11. Demuestre el resultado del teorema anterior para p = 2 y q = 3. ¿Y si uno de ellos
p o q es cero?.
Ejercicios
2. Calcule, si es posible, las siguientes operaciones. Si no es posible efectuar el cálculo, explique por
qué.
1 2 −4 3 1 2
a) + 1 2 9
−3 −2 1 0 c) 3 0 +
3 2 0
1 4
1 2 0 3 −2 −1
1 2 9 d ) 2 −3 −2 1 − 4 1 0 1
b) −3
3 2 −5 1 −1 4 0 −1 2
a) 2X − A + B + 3C = O c) 2 (A − 2B) + 2X = 0C
1
b) −X + 2A − 3C = 4X + B d ) X − 12 B = C + 4X
3 −1
5. Considere los vectores u = (−1, 2, −2, 1), v = (4, −2, 5, 3), a = 1 y b = 0 . Calcule
2 5
los siguientes productos punto:
a) u · v c) a · b
b) u · (2u − v) d ) −b · 2a
a −2
0
y v = 1 . Halle el valor de a de manera que u · v = 3.
6. Sean u =
−2 3
3 −1
7. Calcule, si están definidos, los siguientes productos de matrices:
−2 −2
b) 1 2
a) 1 4 0 2 1
3
1 −2 4 0 2 0 4 1 2
c) e)
−3 0 1 −1 5 −3 3 −1 1
1 2 −1 0 1 2
4 0 2 1 −2 f) 1 2 0 2 −2 0
d)
1 −1 5 −3 0 −1 0 −2 1 4 0
2 −1 1 3
8. Obtenga el elemento (2, 2) de .
2 0 4 −5
9. Encuentre la 3er columna de AB siendo
0 1 −1
1 2 −1 0 −1 1 0
A= 1 2 0 2 y B= .
2 0 −2
−1 0 −2 −5
4 −2 3
−2 0 2 4
12. Sean los vectores a1 = 3 , a2 = 1 , a3 = 1 y b = 1 . Exprese la ecuación
−1 1 −1 2
14. Demuestre que si x1 y x2 son soluciones del sistema Ax = b, entonces x1 − x2 es una solución
del sistema homogéneo asociado Ax = 0.
t
15. Obtenga la matriz X que satisfaga la ecuación (2X)t − 2AB t = BAt siendo
1 1 1 0 −1 1
A= 1 0 3 y B= 0 0 1 .
2 −1 2 −1 1 2
17. Una matriz A es antisimétrica si At = −A. Demuestre que si A es una matriz tanto simétrica
como antisimétrica, entonces A = O.
1 1 0 0 −1 1
18. Dadas las matrices A = 2 1 0 yB= 2 3 0 . Halle las matrices:
0 1 −1 1 0 1
a) (2A)3 c) (−AB)3
b) (A + B)2 − I 4 d ) (0A)3 + O15 + 2I
a) A2 = O con A 6= O.
b) A2 = I con A 6= I.
1 2 2 −1
20. Dadas las matrices A = yB = . ¿Es cierto que (A + B)2 = A2 +2AB+B 2 ?.
3 4 −3 −2
Justifique su respuesta.
21. Sean A y B matrices cuadradas de orden n. Determine si las siguientes proposiciones son ver-
daderas o falsas. Justifique.
a) A2 − B 2 = (A − B) (A + B).
b) (AB)2 = A2 B 2 .
c) (A + B)2 = A2 + 2AB + B 2 ⇔ AB = BA
d ) Si A y B conmutan, es decir AB = BA, entonces (AB)2 = A2 B 2 .
e) Si A es simétrica entonces la matriz 2A2 BB t es simétrica.
AB = I y BA = I.
1 2 3 −1
Ejemplo 2.21. Sean A = yB= 1 . Puede verificarse que AB = BA = I, por lo
2 6 −1 2
tanto A es invertible y B es una inversa de A.J
¿Existirá otra matriz C, distinta de B, tal que AC = CA = I?. El teorema que sigue muestra que
esto no puede suceder.
AB = BA = I y AC = CA = I.
Entonces:
B = BI = B (AC) = (BA) C = IC = C.
Como resulta B = C queda probado que una matriz invertible no puede admitir más que una
matriz inversa.
Nota: A la matriz inversa de una matriz A invertible se la denota A−1 . Ası́ para una matriz A
invertible:
AA−1 = A−1 A = I.
Observación 2.3. Por la unicidad de la matriz inversa, si A y B son dos matrices de n × n tales que
AB = BA = I se puede concluir que A es invertible y que B es su inversa, es decir A−1 = B.
Ejemplo 2.22. Retomando el Ejemplo 2.21 puede concluirse que B es la matriz inversa de A, esto
es: A−1 = B.J
1 2
Ejemplo 2.25. La matriz A = es singular.
3 6
En efecto, si A fuera invertible, deberı́a existir una matriz B tal que AB
= I (y BA = I). Por lo
x11 x12
tanto la ecuación AX = I deberı́a tener solución. Siendo X = :
x21 x22
1 2 x11 x12 x11 + 2x21 x12 + 2x22
AX = = ,
3 6 x21 x22 3x11 + 6x21 3x12 + 6x22
luego
x11 + 2x21 x12 + 2x22 1 0
AX = I ⇔ = .
3x11 + 6x21 3x12 + 6x22 0 1
Por igualdad de matrices, se obtienen los siguientes sistemas lineales
x11 +2x21 = 1 x12 +2x22 = 0
y .
3x11 +6x21 = 0 3x12 +6x22 = 1
Es fácilmente comprobable que estos sistemas son inconsistentes por lo cual AX = I no tiene
solución. Luego A es no invertible.J
Demostración. Probaremos aquı́ las propiedades (3) y (4). Las matrices A y B son invertibles, entonces
AA−1 = A−1 A = I y BB −1 = B −1 B = I.
y
B −1 A−1 (AB) = B −1 A−1 (AB) = B −1 A−1 A B = B −1 (IB) = B −1 B = I.
(AB)−1 = B −1 A−1 .
t
4. Las matrices At y A−1 son ambas cuadradas de orden n,
t t t t
At A−1 = A−1 A = It = I y A−1 At = AA−1 = I t = I.
t −1 t
De la Observación 2.3, At es invertible y su inversa es A−1 es decir At = A−1 .
Actividad 2.12. Pruebe las propiedades (1) y (2) del Teorema 2.8.
Observación 2.4. La suma de matrices invertibles no es, en general, una matriz invertible, y en caso
afirmativo (A + B)−1 6= A−1 + B −1 (Véase Ejercicio 9.a).
Observación 2.5. La propiedad 3 del teorema anterior puede generalizarse para k matrices in-
vertibles. Si A1 , A2 ,..., Ak son matrices invertibles de igual tamaño, también lo es el producto
A1 A2 ...Ak−1 Ak . Su inversa es
(A1 A2 ...Ak−1 Ak )−1 = A−1 −1 −1 −1
k Ak−1 ...A2 A1 .
−1 3
Actividad 2.13. Pruebe que si A es invertible, A3 es invertible y A3 = A−1 .
Se puede generalizar el Teorema 2.2 para la potenciación de matrices con cualquier exponente entero
y se tiene el siguiente resultado:
Teorema 2.10. Si C es una matriz invertible y en cada caso A y B son matrices de tamaños
apropiados entonces
1. CA = CB ⇒ A = B.
2. AC = BC ⇒ A = B.
A = B ⇒ CA = CB,
y
A = B ⇒ AD = BD,
mientras que A = B no implica que CA = BC.
Por ejemplo, considere la ecuación matricial CXA − B = O donde A y C son invertibles y todas
las matrices son de tamaños compatibles.
Se puede despejar X (matriz incógnita) de la siguiente manera:
CXA − B = O,
CXA = B,
(CXA) A−1 = BA−1 ,
CX AA−1 = BA−1 ,
CXI = BA−1 ,
CX = BA−1 ,
C −1 (CX) = C −1 BA−1 ,
C −1 C X = C −1 BA−1 ,
IX = C −1 BA−1 ,
X = C −1 BA−1 .
Demostración. Sea A una matriz de n × n. Por el Corolario 2.1, A es invertible si y sólo si existe una
matriz B de n × n tal que AB = I (dicha matriz B es la inversa de A). Por lo tanto A es invertible si
y sólo si la ecuación matricial AX = I tiene solución. Si las sucesivas columnas de la matriz incógnita
X son x1 , x2 ,..., xn :
AX = Ax1 Ax2 ... Axn .
Dado que I = e1 e2 ... en , por definición de igualdad de matrices:
AX = I ⇔ Ax1 = e1 , Ax2 = e2 , ..., Axn = en .
Resolver la ecuación AX = I equivale a resolver los n sistemas lineales Axj = ej , j = 1, 2, ..., n.
Luego, AX = I tiene solución si y sólo si cada uno de estos sistemas lineales son consistentes.
Ası́ se probó que A es invertible si y sólo si el sistema lineal de matriz aumentada [A : ej ] es
consistente para todo j = 1, 2, ..., n.
Cálculo de A−1
El ejemplo siguiente ilustra el lema anterior permitiendo calcular la inversa de una matriz o probar
que no es invertible.
1 4
Ejemplo 2.26. Para determinar si la matriz A = es invertible, debe analizarse si la
−1 −3
ecuación AX = I tiene solución.
x11 x12
Siendo X = x1 x2 = la matriz incógnita, AX = I es
x21 x22
1 4 x11 x12 1 0
= ,
−1 −3 x21 x22 0 1
x11 + 4x21 x12 + 4x22 1 0
= .
−x11 − 3x21 −x12 − 3x22 0 1
Por igualdad de matrices, se obtienen los dos sistemas lineales de matrices aumentadas [A : e1 ] y
[A : e2 ]:
x11 +4x21 = 1 x12 +4x22 = 0
y .
−x11 −3x21 = 0 −x12 −3x22 = 1
Puede verificarse que ambos sistemas tienen solución única. La solución del primer sistema es
x11 = −3 y x21 = 1 que son los elementos de la primer columna de la matriz X. De manera similar,
resolviendo el segundo sistema, se obtienen los elementos de la segunda columna de la matriz incógnita,
x12 = −4 y x22 = 1.
Se obtiene ası́ una matriz
−3 −4
B=
1 1
tal que AB = I y por lo tanto (Corolario 2.1) A es invertible y B = A−1 .J
En el siguiente teorema se muestran condiciones necesarias y suficientes para que una matriz sea
invertible:
Teorema 2.12. Sea A una matriz de n × n. Entonces las siguientes proposiciones son equi-
valentes:
1. A es invertible.
Demostración. Se seguirá el siguiente orden en las implicancias (1) ⇒ (2) ⇒ (3) ⇒ (4) ⇒ (5).
Probando luego que (5) ⇒ (1) se tendrán demostradas todas las equivalencias.
A A−1 b = A−1 A b = Ib = b.
(2) ⇒ (3) Si Ax = b tiene única solución para todo b ∈ Rn , esto vale, en particular, si b es el vector
cero. Por lo tanto Ax = 0 tiene única solución, la trivial.
(3) ⇒ (4) Si Ax = 0 tiene única solución, entonces cada columna de la matriz A es una columna
pivote y por lo tanto A tiene n posiciones pivote.
(4) ⇒ (5) Sea Q la forma escalonada reducida de A. Como A tiene n posiciones pivote, Q tiene
un pivote en cada renglón, las posiciones pivote de Q serán (1, j1 ), (2, j2 ),...., (n, jn ) donde
1 ≤ j1 < j2 < ... < jn ≤ n. Luego, necesariamente j1 = 1, j2 = 2,..., jn = n es decir las
posiciones pivote de Q son (1, 1), (2, 2),...., (n, n). Dado que Q es escalonada reducida los pivotes
son unos y en cada columna donde hay un pivote el resto de los elementos son ceros. Ası́, las
columnas de Q son los vectores e1 , e2 ,..., en y por lo tanto Q = I.
(5) ⇒ (1) Si la forma escalonada reducida de A es I entonces ninguna forma escalonada de A tiene un
renglón cero y por lo tanto todo sistema que tiene a A como matriz de coeficientes es consistente.
En particular, los sistemas de matriz aumentada [A : ej ], j = 1, 2, ..., n, son consistentes y por
lo tanto (Lema 2.1) A es invertible.
Observación 2.6. La equivalencia (1) ⇔ (2) es el siguiente resultado importante en relación a los
sistemas lineales cuadrados:
−1 1 0
Ejemplo 2.28. Para determinar la inversa de A = 1 0 −2 , si existe, utilizamos el algoritmo
2 −1 0
anterior. Se aplica el proceso de eliminación de Gauss-Jordan a la matriz [A : I] para obtener su forma
escalonada reducida:
−1 1 0 : 1 0 0 −−−−−−−−−−−−−−→ −1 1 0 : 1 0 0
[A : I] = 1 0 −2 : 0 1 0 RR32 ++2R R1 → R2 0 1 −2 : 1 1 0 −−R−3−−−−R−−2−→ −−−−→
R3
1 → R3
2 −1 0 : 0 0 1 0 1 0 : 2 0 1
−1 1 0 : 1 0 0 −1 1 0 : 1 0 0
−−−−−−−−−−→
→ 0 1 −2 : 1 1 0 21 R3 → R3 0 1 −2 : 1 1 0 −−R−2−−+−2R
−−−−−−−−→
3 → R2
1 1 1
0 0 2 : 1 −1 1 0 0 1 : 2 −2 2
−1 1 0 : 1 0 0 −1 0 0 : −1 0 −1
→ 0 1 0 : 2 0 1 −−R−1−−−−R−−2−→
−−−−→
R1 0 1 0 : 2 0 1 −−−R−−−−−−−−→
1 → R1
1 1 1 1 1 1
0 0 1 : 2 − 2 2 0 0 1 : 2 − 2 2
1 0 0 : 1 0 1
→ 0 1 0 : 2
0 1 = [I : B] .
0 0 1 : 2 − 12 21 1
1 0 1 2
2 1 1 −1
Ejemplo 2.29. Sea la matriz A = 3 1 2
. Como en el ejemplo anterior, para determinar
1
−1 5 0 0
A−1 , si ésta existe, se aplica el proceso de eliminación de Gauss-Jordan a la matriz [A : I]:
1 0 1 2 : 1 0 0 0 1 0 1 2 : 1 0 0 0
2 1 1 −1 : 0 1 0 0 −−R−2−−−−2R −−−−−−−−→
0 1 −1 −5 : −2 1 0 0
[A : I] = R3 − 3R11 → R2
→ R3 →
3 1 2 1 : 0 0 1 0 R 4 + R1 → R4 0 1 −1 −5 : −3 0 1 0
−1 5 0 0 : 0 0 0 1 0 5 1 2 : 1 0 0 1
1 0 1 2 : 1 0 0 0
−−−−−−−−−−−−−−→ 0
R3 − R 2 → R3 1 −1 −5 : −2 1 0 0
.
R4 − 5R2 → R4
0 0 0 0 : −1 −1 1 0
0 0 5 27 : 11 −5 0 1
En este momento se detiene el procedimiento ya que se ha llegado a una matriz equivalente [C : D]
donde C tiene un renglón cero. Luego, A no tiene 4 posiciones pivote y por lo tanto no es invertible.J
Ejercicios
sea no singular.
6. En caso de ser posible resuelva los sistemas lineales calculando primero la inversa de la matriz
de coeficientes.
x − y − z = 1 −x + y + z = b
a) x − z = 4 b) −x + z = b2
x − 2y − z = 0 y − z = b3
0,2 −1
0,3 1 0 1 1
−0,1 0,2 0 1 −2 0,2 1
1 1 1,2 −0,3 2 0 1
B=
0,1 3 2 −0,1 0,4 2 1 ,
2 0,3 0,22 0,1 0 0 2
1 0,4 3 0,1 1,5 −0,2 −2,1
1 1 0,2 4 1 6 0
0,1
0,2
1
y el vector b =
1,1 . Calcule si es posible:
2
0
−1
a) 2At − AB
b) A−1
c) (10A)−1 B
d ) Ab
e) A−3
3
f ) 2A−1 B 2 − B
g) La solución del sistema lineal Ax = b, hallando previamente la inversa de A.
h) ¿Admite soluciones no triviales el sistema lineal Bx = 0?
matriz representa una situación de tres industrias. Por ejemplo, el elemento a12 = 0,3 indica que
por cada dólar de producción en la industria 2, el 30 % es aportado por la industria 1.
Sea xj la producción de la industria j (en dólares) y sea dj la demanda no industrial (en dólares)
de la producción de la indsutria j. En nuestro ejemplo,j = 1, 2, 3. Puede formularse un conjun-
to de ecuaciones simultáneas que, al resueltas, determinen los niveles de producción de xj en
los cuales la oferta y la demanda totales estarán en equilibrio. Las ecuaciones de este sistema
presentarán la forma general:
cuyos elementos son los niveles de las demandas no industriales, el sistema anterior puede ex-
presarse matricialmente de la forma
x = Ax + d.
Si la matriz de insumos-producción es cuadrada, como en nuestro ejemplo, y la matriz I − A es
invertible, es posible despejar y obtener el vector de niveles de equilibrio de producción:
x = (I − A)−1 d
conociendo el vector demanda no industrial d. En nuestro ejemplo de las tres industrias, verifique
usando Scilab que:
1,837 0,816 1,020
(I − A)−1 = 0,490 1,551 0,939 .
0,694 0,531 2,163
Supongamos además que los niveles de las demandas no industriales son:
d1 = $50000000,
d2 = $30000000,
y
d3 = $60000000,
entonces verifique usando Scilab que en nuestro ejemplo, los niveles de equilibrio son:
177530000
x = 127370000 ,
180410000
es decir la industria 1 deberı́a generar una producción con un valor de 177530000 dólares, la
industria 2 una producción con un valor de 127370000 dólares y la industria 3 una producción
con un valor de 180410000 dólares.
DETERMINANTES
En este capı́tulo se estudiará uno de los conceptos más importantes del Álgebra Lineal. A cada matriz
cuadrada se le puede asignar cierto número real llamado determinante de la misma, el cual tiene
diversas aplicaciones en esta asignatura, como por ejemplo el cálculo del polinomio caracterı́stico para
encontrar los valores y vectores propios de una matriz, la regla de Cramer para resolver ciertos sistemas
lineales, el cálculo de una matriz inversa, el cálculo de volúmenes, etc.
3.1. Introducción
Se utilizará un método de recurrencia para definir y calcular determinantes de matrices cuadradas de
orden n a partir de determinantes de matrices de orden menor.
Se debe tener en cuenta, como en el caso de la inversa de una matriz, que el concepto de determi-
nante es aplicable sólo a matrices cuadradas.
ii. Si n ≥ 2,
det(A) = (−1)1+1 a11 det(A1,1 ) + (−1)1+2 a12 det(A1,2 ) + ... + (−1)1+n a1n det(A1,n )
Xn
= (−1)1+j a1j det(A1,j ),
j=1
a11 a12
Si A = entonces det(A) = |A| = a11 a22 − a12 a21 .
a21 a22
Nota: En este texto det(A) y |A| se usan indistintamente para representar el determinante de una
matriz cuadrada A. Es práctica común eliminar los corchetes de una matriz y escribir por ejemplo
a11 a12 a11 a12
en lugar de .
a21 a22 a21 a22
−2 4 3 −2
Ejemplo 3.2. Sean la matrices A = yB= , entonces:
−3 12 −6 4
−2 4 1
|A| = = (−2) − 4(−3) = 11,
−3 21 2
y
3 −2
|B| = = 3 (4) − (−2)(−6) = 0. J
−6 4
det(A) = (−1)1+1 a11 det(A1,1 ) + (−1)1+2 a12 det(A1,2 ) + (−1)1+3 a13 det(A1,3 ) =
a22 a23 a21 a23 a21 a22
= (−1)2 a11 + (−1)3 a12 + (−1)4 a13 =
a32 a33 a31 a33 a31 a32
= a11 (a22 a33 − a23 a32 ) − a12 (a21 a33 − a23 a31 ) + a13 (a21 a32 − a31 a22 ) =
= a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a31 a22
= a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a31 a22 a13 − a32 a23 a11 − a33 a21 a12 .
También hay un artificio para memorizar esta fórmula, llamado regla de Sarrus que se ilustra a
continuación:
ii. El cofactor del elemento aij de A, o simplemente el cofactor (i, j), es el número denotado
Cij y dado por Cij = (−1)i+j Mij .
−1 0 1
Ejemplo 3.3. Si A = 2 3 2 el menor (2, 3) es el determinante de la matriz que se obtiene
1 −1 1
−1 0
de eliminar al renglón 2 y la columna 3 de A. Ası́, M23 = = 1. El cofactor (2, 3) es
1 −1
C23 = (−1)2+3 M23 = (−1)5 (1) = −1. J
n
X
det(A) = |A| = (−1)1+j a1j M1j .
j=1
O bien:
n
X
det(A) = |A| = a1j C1j .
j=1
n
X
Nótese que el número ∆ren1 = a1j C1j es el determinante de la matriz A.
j=1
2 0 −1
Por ejemplo, si A = −1 1 0 entonces:
3 2 1
3
X
∆ren1 = det(A) = a1j C1j = a11 C11 + a12 C12 + a13 C13 = 2(−1)1+1 M11 + 0(−1)1+2 M12 +
j=1
1 0 −1 1
+(−1)(−1)1+3 M13 = 2 +0− = 2(1) − (−5) = 7.
2 1 3 2
3
X
∆ren2 = a2j C2j = a21 C21 + a22 C22 + a23 C23 = (−1)(−1)2+1 M21 + 1(−1)2+2 M22 +
j=1
0 −1 2 −1
+0(−1)2+3 M23 = 1 +1 + 0 = 1(2) + 1(5) = 7.
2 1 3 1
3
X
∆ren3 = a3j C3j = a31 C31 + a32 C32 + a33 C33 = 3(−1)3+1 M31 + 2(−1)3+2 M32 +
j=1
0 −1 2 −1 2 0
+1(−1)3+3 M33 = 3 + (−2) +1 = 3(1) +
1 0 −1 0 −1 1
+(−2)(−1) + 1(2) = 7.
X3
∆col1 = ai1 Ci1 = a11 C11 + a21 C21 + a31 C31 = 2(−1)1+1 M11 + (−1)(−1)2+1 M21 +
i=1
1 0 0 −1 0 −1
+3(−1)3+1 M31 = 2 + (−1)(−1) +3 = 2(1) +
2 1 2 1 1 0
+1(2) + 3(1) = 7.
X3
∆col2 = ai2 Ci2 = a12 C12 + a22 C22 + a32 C32 = 0(−1)1+2 M12 + 1(−1)2+2 M22 +
i=1
2 −1 2 −1
+2(−1)3+2 M32 = 0 + 1 + 2(−1) = 1(5) + (−2)(−1) = 7.
3 1 −1 0
3
X
∆col3 = ai3 Ci3 = a13 C13 + a23 C23 + a33 C33 = (−1)(−1)1+3 M13 + 0(−1)2+3 M23 +
i=1
−1 1 2 0
+1(−1)3+3 M33 = (−1) +0+1 = (−1)(−5) + 1(2) = 7.
3 2 −1 1
Obsérvese que todos estos números son iguales e iguales al determinante de A. Esto no es casualidad
sino el resultado de un teorema más general que se enuncia a continuación y que no se demostrará en
este texto:
Dado que det(A) = ∆ren1 y, por el teorema anterior, ∆ren1 = ∆reni = ∆colj para todo i = 1, 2, ..., n
y j = 1, 2, ..., n, se tiene el siguiente resultado:
Corolario 3.1. Sea A = [aij ] una matriz cuadrada de orden de n (n ≥ 2). Entonces:
n
X
1. det(A) = aij Cij = ai1 Ci1 + ai2 Ci2 + ... + ain Cin , para cualquier i = 1, 2, ..., n.
j=1
n
X
2. det(A) = aij Cij = a1j C1j + a2j C2j + ... + anj Cnj , para cualquier j = 1, 2, ..., n.
i=1
Es evidente que el cálculo de un determinante puede ser muy tedioso. Por ejemplo, para calcular un
determinante de orden 4 deben calcularse 4 determinantes de orden 3 y para calcular un determinante
de orden 5, debe calcularse 5 determinantes de orden 4.
Es claro que para simplificar el cálculo de un determinante es conveniente elegir para su desarrollo
una fila o columna que tenga el máximo número de ceros. Ası́ se evita el cálculo de algunos de los
menores.
−1 3 0 1
4 2 2 5
Ejemplo 3.4. Si A =
0
para calcular el determinante de A conviene desarrollarlo
6 3 4
2 1 0 1
Calcular el determinante de una matriz puede convertirse en un trabajo largo y tedioso a menos que la
matriz sea pequeña o que tenga muchos ceros. Por esta razón, se necesitan procedimientos que ayuden
a minimizar los cálculos. En el punto siguiente se estudiarán algunos de tales métodos. Pero además
existen algunas matrices cuyos determinantes se pueden evaluar fácilmente aunque sean grandes y no
tengan muchos ceros. Se dará la siguiente definición:
−1 3 00
0 1 2 1
1 2
5
Ejemplo 3.5. Las matrices A =
0 y B = 0 0 5 son triangulares superiores,
0 3
4
0 0 3
0 0 10
1 0 0 1 0 0
2 0
C= 2 1 0 yD= son triangulares inferiores y E = 0 −4 0 es diagonal.J
2 1
−1 0 8 0 0 3
Si la matriz A hubiese sido triangular inferior, se habrı́a obtenido el mismo resultado (en este caso
hubiésemos elegido el primer renglón para desarrollar el determinante): det(A) = a11 a22 a33 a44 J
Nota: El determinante de una matriz triangular es cero si y sólo si en la diagonal principal hay al
menos un cero.
Ejercicios
4 −3 4 −2 5
a)
2 5 g) 1 4 4
√ √ −2 1 −2
2 − 2
b)
1 −3 1 2 0 −1
2 1 2 2
3 −5 h)
c) 0 1 0 1
−6 10
2 −2 1 −3
0 2 −1
d) 1 1 3 √2 0 0 0
3 −3 0 0
4 −2 3 i)
2 1 5 0
2 3 1 3 2 1 −1
e) −1 2 4
2 3 −1 8 2
0 0 −2
0 3 1 −1 4
0 −2 1 j) 0 0 5 0 −9
f) 1 4 2 0 0 0 −1 12
0 3 −2 0 0 0 0 1
4 0 0 0 0 −3 0 0 0 0
0 −3 0 0 0 0 −3 0 0 0
k) 0 0 2 0 0 l) 0 0 −3 0 0
0 0 0 −1 0 0 0 0 −3 0
0 0 0 0 5 0 0 0 0 −3
1 −2 3
2. Dada la matriz A = 0 4 2 .
−2 1 −1
Teorema 3.3. Si cualquier renglón o columna de una matriz A es el vector cero entonces
|A| = 0.
Demostración. Basta con desarrollar el determinante por cofactores con respecto al renglón o columna
que contiene sólo ceros.
1 0 2
Ejemplo 3.8. −3 0 5 = 0, dado que la segunda columna contiene sólo ceros.J.
8 0 3
a11 a12 ... ca1j ... a1n a11 a12 ... a1j ... a1n
a21 a22 ... ca2j ... a2n a21 a22 ... a2j ... a2n
2. |B| = .. .. .. =c .. .. .. = c |A|.
. . ... ... . . . ... ... .
an1 an2 ... canj ... ann an1 an2 ... anj ... ann
Observación 3.1. Esta propiedad establece que en un determinante se permite “extraer” un factor
común de un renglón o columna del mismo.
10 0 −1
Ejemplo 3.9. Supongamos que se quiere calcular el determinante de la matriz B = −5 1 0 .
15 2 1
2 0 −1
Sea A = −1 1 0 la matriz que se obtiene de dividir entre 5 (multiplicar por 51 ) la primer
3 2 1
columna de B. Por el teorema anterior la relación entre |B| y |A| es:
1
|A| = |B| por lo cual |B| = 5 |A| .
5
De esta manera se puede simplificar el cálculo de |B| calculando un determinante más fácil de
resolver. Dado que |A| = 7 entonces
|B| = 5 |A| = 5(7) = 35.
En la práctica se procede “sacando factor común” 5 en la primer columna:
10 0 −1 2 0 −1
−5 1 0 = 5 −1 1 0 = 5(7) = 35. J
15 2 1 3 2 1
|cA| = cn |A| .
Teorema 3.5. Al intercambiar dos renglones o dos columnas cualesquiera de una matriz A,
el determinante de la nueva matriz, B, obtenida es el opuesto del determinante de A. Esto
es: |B| = − |A|.
1 3 5 2 5 3 1 2
0 −1 3 4 3 −1 0 4
Actividad 3.2. Dadas las matrices A =
2
yB = . Verifique que
1 9 6 9 1 2 6
3 2 4 8 4 2 3 8
|B| = − |A| = −160.
Demostración. Se probará para el caso de dos renglones iguales (análogamente se demuestra para dos
columnas iguales).
Supongamos que los renglones h y k de la matriz A son iguales. La matriz B que se obtiene de
intercambiar los renglones h y k es la misma matriz A, por lo tanto
Por otro lado, dado que B se obtiene de A por un intercambio de renglones entonces del teorema
anterior
|B| = − |A| . (3.2)
De (3.1) y (3.2) resulta |A| = − |A| y ası́ |A| = 0.
2 2 2 9
−1 1 −1 8
Ejemplo 3.11. = 0 dado que la primer y tercer columnas son iguales.J
3 3 3 6
4 2 4 8
|B| = (ak1 + cah1 ) Ck1 + (ak2 + cah2 ) Ck2 + ... + (akn + cahn ) Ckn =
= (ak1 Ck1 + ak2 Ck2 + ... + akn Ckn ) + c (ah1 Ck1 + ah2 Ck2 + ... + ahn Ckn ) .
a11 a12 ... a1n
.. .. ..
. . ... .
ah1 ah2 ... ahn
A = ...
0 .. ..
. ... .
ah1 ah2 ... ahn
← k-ésimo renglón.
.. .. ..
. . ... .
an1 an2 ... ann
que se obtiene de la matriz A al reemplazar el renglón k por el renglón h. Dado que A0 tiene dos
renglones iguales entonces |A0 | = 0. Ası́,
3 2 0
Actividad 3.3. Por simple inspección, la matriz A = 2 −1 0 tiene determinante −7. Verifique
1 0 1
3 2 6
que si a la 3◦ columna se le suma dos veces la primera se obtiene la matriz B = 2 −1 4 cuyo
1 0 3
determinante es también −7.
2 3 4 4 1 −2 3 4 1 −2 3 4
−1 5 0 −1 −1 5 0 −1 0 3 3 3
= − = − =
1 −2 3 4 R1 ↔R3 2 3 4 4 R2 + R1 → R2 0 7 −2 −4
R3 − 2R1 → R3
1 −1 1 0 1 −1 1 0 R4 − R1 → R4 0 1 −2 −4
1 −2 3 4 1 −2 3 4
0 1 1 1 0 1 1 1
= −3 = −3 =
1
R →R2
3 2
0 7 −2 −4 R3 − 7R2 → R3 0 0 −9 −11
R4 − R2 → R4
0 1 −2 −4 0 0 −3 −5
1 −2 3 4 1 −2 3 4
0 1 1 1 0 1 1 1
= −3(−9) = 27 =
− 91 R3 →R3 0 0 1 11
9 R4 +3R3 →R4 0 0 1 11
9
0 0 −3 −5 0 0 0 − 43
4
= 27 − = −36.
3
Siempre es posible reducir cualquier matriz a una forma escalonada usando sólo operaciones de
eliminación y de intercambio, por lo tanto si B es una forma escalonada de A obtenida sin opera-
ciones de escalamiento, det(B) = det(A) o det(B) = − det(A). Dado que B es una matriz cuadrada
escalonada por renglones entonces B es triangular superior y su determinante es el producto de los
elementos de la diagonal principal. Se tiene entonces el siguiente resultado:
Teorema 3.8. Sea A una matriz cuadrada de orden n y B = [bij ] una matriz triangular
superior obtenida de A a partir de operaciones elementales de renglón sin escalamiento.
Entonces
|A| = (−1)k |B| = (−1)k b11 b22 ...bnn ,
donde k es el número de operaciones de intercambio entre renglones.
Actividad 3.4. Aplique el Teorema 3.8 para calcular el determinante de la matriz del ejemplo anterior.
a11 a12
|A| = = a11 a22 − a12 a21 ,
a21 a22
y
a11 a21
At = = a11 a22 − a21 a12 = a11 a22 − a12 a21 = |A| .
a12 a22
Para el caso n = 3, dado que el primer renglón de A es igual a la primera columna de At ,
desarrollando el determinante de At por la primera columna:
0 0 0
At = a11 M11 − a12 M21 + a13 M31 ,
donde Mi10 es el menor (i, 1) de la matriz At , i = 1, 2, 3. Desarrollando el determinante de A por el
primer renglón:
Este mismo razonamiento se puede generalizar para una matriz de orden n > 3.
1 −1 2
1 4 . Verifique que det(A) = det At = 16.
Actividad 3.5. Sea A = 3
0 −2 5
1 −1 2 0 2 0
Actividad 3.6. Sean A = 3 1 4 y B = −5 0 0 . Compruebe que |AB| = |A| |B|.
0 −2 5 0 0 1
Nota: No debe inferirse un resultado similar al del teorema anterior para la suma de matrices. No es
cierto que determinante de una suma es la suma de los determinantes.
1 2 1 1
En efecto, sean las matrices A = yB= .
2 3 1 2
2 3
|A + B| = = 1,
3 5
mientras que
1 2 1 1
|A| + |B| = + = −1 + 1 = 0.
2 3 1 2
En general,
|A + B| =
6 |A| + |B| .
El Teorema 3.10 tiene una consecuencia importante referido al determinante de una matriz A y su
inversa, si ésta existe.
1
6 0 y A−1 =
Teorema 3.11. Si A es una matriz invertible entonces |A| = .
|A|
AA−1 = |I| = 1,
0 − 15 0
0 2 0
Ejemplo 3.12. La matriz A = −5 0 0 es invertible. Su inversa es A−1 = 21 0 0
0 0 1 0 0 1
1 1
(verifı́quelo). Puede comprobarse que |A| = 10 (6= 0) y que A−1 = = J.
10 |A|
Ejercicios
1. Sin efectuar cálculos, explique por qué los siguientes determinantes son cero:
−1 3 0 1 −1 3 1 4 1 2 1 −4
2 9 0 5 2 9 1 −1 3 −1 1 2
a) b) c)
1 2 0 4 −1 3 1 4 1 0 1 0
2 3 0 −1 0 2 5 −1 0 2 1 −4
1 3 1 1 2 1 0 1 1 −1 0 0
2 2 1 0 0 −2 1 1 2 3 4 0
a) b) c)
−1 1 1 1 1 1 3 −1 1 1 1 1
0 2 2 −1 1 3 0 −2 −2 2 1 −1
3. Sea A una matriz cuadrada de orden n y k un número entero positivo. Teniendo en cuenta el
Teorema 3.10, pruebe que
Ak = |A|k .
4. Sea A una matriz cuadrada de orden 4 tal que det(A) = −3, y sean las matrices:
a b c
5. Sea d e f = −2. Calcule los siguientes determinantes:
g h i
a d g g h i
a) b e h d) d e f
c f i −a −b −c
a b c g 2a d
b) d e f e) h 2b e
−2g −2h −2i i 2c f
3a 3b 3c a b c − 2a
c) 3d 3e 3f f) d e f − 2d
3g 3h 3i g h i − 2g
d ) ||A| A| = |A|n+1 .
9. Sean A, B, C y D matrices cuadradas de orden 4 tal que det(A) = −2, det(C) = 3, det(D) = 0
y
2 −1 3 5
1 3 1 0
AB t C −1 = .
2 1 −1 4
1 0 −2 1
Definición (Matriz de cofactores y matriz adjunta). Dada una matriz A = [aij ] cuadrada de
orden n ≥ 2. La matriz de cofactores de A, que se simboliza Cof(A), es la matriz cuadrada
de orden n cuyo elemento (i, j)-ésimo es el cofactor Cij de la matriz A.
La matriz transpuesta de la matriz de cofactores de A es la matriz adjunta de A y se simboliza
Adj(A). Es decir:
C11 C21 ... Cn1
C12 C22 ... Cn2
Adj(A) = (Cof(A))t = .. .
.. ..
. . ... .
C1n C2n ... Cnn
2 −3 1
Ejemplo 3.13. Sea la matriz A = 4 0 −2 . Los cofactores de A son: C11 = −2, C12 = 6,
3 −1 −3
C13 = −4, C21 = −10, C22 = −9, C23 = −7, C31 = 6, C32 = 8 y C33 = 12, por lo cual la matriz de
cofactores de A es
−2 6 −4
Cof(A) = −10 −9 −7 .
6 8 12
Al tomar la transpuesta se obtiene la adjunta de A
−2 −10 6
Adj(A) = 6 −9 8 . J
−4 −7 12
A continuación se establece un resultado que nos permitirá deducir un teorema aún más importante
para obtener la inversa de una matriz:
n
X
2. Si l 6= t entonces ail Cit = 0.
i=1
Esto es, la suma de los productos de los elementos de un renglón (o columna) de A por los
cofactores correspondientes a los elementos de otro renglón (o columna) de A es igual a cero.
Este lema es utilizado en la demostración del teorema que sigue. Primero, veamos el siguiente ejemplo:
Ejemplo 3.14. Sea la matriz A del ejemplo anterior. Observemos la matriz que se obtiene de hacer
el producto de la matriz A por su adjunta:
2 −3 1 −2 −10 6 −26 0 0 1 0 0
A Adj(A) = 4 0 −2 6 −9 8 = 0 −26 0 = (−26) 0 1 0 =
3 −1 −3 −4 −7 12 0 0 −26 0 0 1
= (−26)I.
A Adj(A) = |A| I. J
Lo obtenido en el ejemplo anterior no es casual ya que se verifica para cualquier matriz cuadrada:
A Adj(A) = |A| I.
Si i = j la suma en (3.3) es |A| (desarrollado por el i-ésimo renglón) y si i 6= j, por Lema 3.1, la
suma en (3.3) es igual a 0, es decir
|A| si i = j
dij = ,
0 si i 6= j
luego
|A| 0 ... 0
0 |A| ... 0
D = A Adj(A) = = |A| I.
.. .. ..
. . ... .
0 0 ... |A|
1
6 0 entonces A es invertible y A−1 =
Teorema 3.13. Si |A| = Adj(A).
|A|
Demostración. Del teorema anterior sabemos que AAdj(A) = |A| I. Dado que |A| =
6 0:
1 1
(AAdj(A)) = (|A| I) ,
|A| |A|
o bien
1 1
A Adj(A) = |A| I,
|A| |A|
entonces
1
A Adj(A) = I,
|A|
1
por lo que se concluye (Corolario 2.1), que A es una matriz invertible y su inversa es |A| Adj(A).
El Teorema 3.13 es el recı́proco del Teorema 3.11 (Si A es una matriz invertible entonces |A| =
6 0).
Ambos permiten concluir:
2 −3 1
Ejemplo 3.15. Considere la matriz A = 4 0 −2 del Ejemplo 3.13. Su adjunta es
3 −1 −3
−2 −10 6
Adj(A) = 6 −9 8 .
−4 −7 12
Nota: Para obtener la matriz Adj(A) se requiere calcular n2 cofactores, es decir n2 determinantes de
(n − 1) × (n − 1). Por ejemplo, si n = 10 hay que hallar 100 determinantes de orden 9 × 9 y esto
lleva al cálculo de 8100 determinantes de 8 × 8... Debido a esta cantidad de cómputos casi no se usa
el Teorema 3.13 para el cálculo de A−1 , la reducción de la matriz aumentada [A : I] sigue siendo el
método a elegir. Sin embargo, el teorema es muy útil para demostrar propiedades de las inversas.
También para comprobar una fórmula para la solución de un sistema lineal cuadrado.
El siguiente teorema, denominado Regla de Cramer, es uno de los resultados más conocidos en la
historia de la Matemática. Durante muchos años fue fundamental en la enseñanza del Álgebra y de
la teorı́a de ecuaciones. Aunque se usa muy poco en la actualidad, debido al gran número de cálculos
requeridos, sigue siendo un resultado muy importante a los fines teóricos.
Teorema 3.15 (La regla de Cramer). Sea A una matriz cuadrada de orden n con deter-
minante distinto de cero. Entonces la única solución del sistema lineal Ax = b está dada
por
|A1 | |A2 | |An |
x1 = , x2 = , ... , xn =
|A| |A| |A|
donde Ai es la matriz que se obtiene al sustituir
la i-ésima columna
de A por el vector b. Es
decir, si en términos de sus columnas es A = a1 a2 ... an entonces
A1 = b a2 ... an , A2 = a1 b ... an , ... , An = a1 a2 ... b .
Dado que las matrices A y Ai difieren sólo en la i-ésima columna, los cofactores correspondientes
a esta columna en la matriz A, C1i , C2i ,..., Cni , son iguales a los cofactores de la i-ésima columna en
la matriz Ai . Por lo tanto, desarrollado por la i-ésima columna, es:
n
X n
X
|Ai | = bj Cji = Cji bj .
j=1 j=1
|An |
|A1 | |A2 | |An |
y en consecuencia la única solución del sistema está dada por x1 = , x2 = ,..., xn = .
|A| |A| |A|
2x − 3y + z = 1
Ejemplo 3.16. Sea el sistema lineal 4x − 2z = 2 .
3x − y − 3z = 0
2 −3 1
La matriz de coeficientes del sistema es A = 4 0 −2 y como |A| = −26 6= 0, el sistema
3 −1 −3
puede resolverse mediante la regla de Cramer. Se pueden verificar los siguientes resultados:
1 −3 1 2 1 1 2 −3 1
|A1 | = 2 0 −2 = −22, |A2 | = 4 2 −2 = −12 y |A3 | = 4 0 2 = −6.
0 −1 −3 3 0 −3 3 −1 0
El Teorema 3.14 agrega un resultado a los del Teorema 2.12 visto en el capı́tulo 2:
Teorema 3.16. Sea A una matriz A de n × n. Entonces las siguientes proposiciones son
equivalentes:
1. |A| =
6 0.
2. A es invertible.
Demostración. Del Teorema 2.12 se sabe que (2), (3), (4), (5) y (6) son equivalentes. El Teorema 3.14
agrega la equivalencia entre (1) y (2).
Por lo tanto, (1), (2), (3), (4), (5) y (6) son equivalentes.
De la equivalencia (1) ⇔ (4) se deduce el siguiente resultado importante en relación a los sistemas
lineales cuadrados homogéneos:
2 −3 1
Dado que 4 0 −2 = −26 6= 0 entonces el primer sistema tiene única solución x = y = z = 0
3 −1 −3
(solución trivial).
2 3 1
En cambio 1 −1 2 = 0 por lo cual el segundo sistema tiene soluciones no triviales.J
1 4 −1
Ejercicios
1. Utilice la matriz adjunta para calcular la inversa, si existe, de cada una de las siguientes matrices:
2 3 1 −2
a) A = b) B =
1 −9 −2 4
1 1 1 2 1 −1
c) C = −2 −1 1 d) D = 0 1 −1
1 4 0 1 −1 2
2. Cuando sea posible, aplique la regla de Cramer para resolver los siguientes sistemas de ecuaciones
lineales:
2x − 9y = 6
a)
x + 3y = 7
2x1 −x2 = 0
b) x1 +x2 −x3 = 1
3x1 −4x2 +3x3 = 2
2x −y +3z = 1
c) x −y +2z = 0
3x −2y +5z = −3
x1 +x2 +x3 = −5
d) x1 −x2 +x3 = −1
2x1 −x2 +3x3 = −3
a) Calcule los determinantes de cada una de las matrices dadas. ¿Cuáles de esas matrices son
invertibles?.
b) Calcule: A2 , −3AB t , |AB| − |CD|, |ABC| y D−2 .
0
−1
c) Aplique la regla de Cramer para resolver el sistema lineal Ax = b siendo b =
0,2 .
0,1
ESPACIOS VECTORIALES
Definición (Espacio vectorial real). Sea V un conjunto y dos operaciones llamadas suma
y multiplicación por escalar. La suma es una regla que asocia a cada par de elementos u, v
de V, un objeto u + v, llamado suma de u y v. La multiplicación por un escalar es una regla
que asocia a cada par compuesto por un escalar real k y un elemento u de V un objeto, ku,
llamado producto de k por u.
La terna formada por el conjunto V y las dos operaciones es un espacio vectorial real si se
verifican las diez propiedades siguientes llamadas axiomas de un espacio vectorial:
u + 0 = 0 + u = u.
u + (−u) = (−u) + u = 0.
A los elementos del conjunto V se los llama vectores. El elemento 0, es llamado vector cero o
simplemente el cero del espacio vectorial y −u se llama vector opuesto de u. Se puede demostrar
que en un espacio vectorial hay un único 0 y que cada vector u de V, tiene un único opuesto (véase
Ejercicio 4).
(S1 ) y (M1 ) son las propiedades de cerradura para la suma y multiplicación por escalares,
respectivamente. También se dice que el conjunto V es cerrado bajo dichas operaciones.
(S2 ) y (S3 ) son las propiedades conmutativa y asociativa de la suma, respectivammente.
(M2 ) y (M3 ) son propiedades distributivas.
Debe observarse que en un espacio vectorial el conjunto de vectores V es no vacı́o ya que de acuerdo
a (S4 ) debe contener, al menos, un elemento (el vector cero).
Si en la definición anterior se considera que los escalares son números complejos se tiene la definición
de espacio vectorial complejo. En este texto todos los escalares que se utilizan son números reales,
por lo tanto en lo que sigue un espacio vectorial será un espacio vectorial real.
Debe tenerse presente que en la definición no se especifica la naturaleza de los llamados vectores
ni la de las operaciones. Cualquier clase de objetos puede “servir” como vector. Para comprobar que
un determinado conjunto V de objetos con dos operaciones, una entre elementos del conjunto (suma)
y otra entre un escalar y un elemento del conjunto (multiplicación por escalar) es un espacio vectorial,
lo único que se requiere es que se satisfagan los 10 axiomas.
Para la verificación de estos axiomas puede ser conveniente seguir el siguiente orden:
1. Verificar que ambas operaciones son cerradas en V: propiedades de cerradura (S1 ) y (M1 ).
Los ejemplos que siguen dan una idea de la diversidad de espacios vectoriales posibles. Los dos
primeros ejemplos son los modelos usados para tomar como axiomas, en la definición de espacio
vectorial, las propiedades que verifican las operaciones habituales de suma y multiplicación por un
escalar en dichos conjuntos.
1. La suma de vectores y la multiplicación por escalar habituales en Rn son, por definición opera-
ciones cerradas en Rn (véase la sección 2.1). Por lo tanto se satisfacen (S1 ) y (M1 ).
1. La suma de matrices y la multiplicación por escalar habituales en Mmn son por definición ope-
raciones cerradas en Mmn (véase la sección 2.2). Por lo tanto se satisfacen (S1 ) y (M1 ).
2. La matriz cero, Om×n , es el cero de este espacio vectorial. Luego, se satisface (S4 ).
3. Para cada matriz A de Mmn , la matriz −A es su matriz opuesta. Por lo tanto se satisface (S5 ).
Este espacio vectorial es el denominado espacio vectorial Mmn o simplemente el espacio Mmn .
En este contexto, un “vector” es una matriz de m × n.
En particular si m = n se denotará simplemente Mn .J
4. Probaremos el axioma (M3 ), dejando como ejercicio la prueba de los cinco restantes axiomas.
Sean a, b ∈ R y p = a0 + a1 x + ... + an xn un polinomio en Pn . Debe probarse que es válida la
siguiente igualdad: (a + b) p = ap + bp. En efecto:
= (aa0 + ba0 ) + (aa1 + ba1 ) x + ... + (aan + ban ) xn = [Def. suma de polinomios]
= (aa0 + aa1 x + ... + aan xn ) + (ba0 + ba1 x + ... + ban xn ) = [Def. multiplicación por escalar]
Actividad 4.1. Demuestre los axiomas (S2 ), (S3 ), (M2 ), (M4 ) y (M5 ) del Ejemplo 4.3.
1. Las funciones f + g y cf son funciones reales ya que f (x) + g(x) y cf (x) son números reales.
Además como f y g están definidas para todo x ∈ D, también f + g y cf están definidas en
D. Ası́, ambas operaciones son cerradas en F (D) y por lo tanto se verifican los axiomas (S1 ) y
(M1 ).
2. La función constante cero, O, cuya ley es O(x) = 0 para todo x ∈ D, es el vector cero de este
espacio vectorial. Puede verificarse fácilmente que f + O = O + f = f para todo f en F (D). En
efecto para todo x ∈ D,
y similarmente
(O + f ) (x) = f (x).
Por lo tanto, se satisface el axioma (S4 ).
3. Es fácilmente comprobable que si f es una función en F (D) entonces la función −f cuya ley es
es una función en F (D) tal que f + (−f ) = (−f ) + f = O. Luego, se satisface el axioma (S5 ).
La verificación de los restantes axiomas se deja como ejercicio.
Este espacio vectorial es el denominado espacio vectorial F(D) o simplemente el espacio F(D).
En este contexto, una función real definida en D es un vector de este espacio vectorial.J
α + α = α,
cα = α, para todo c ∈ R.
Claramente α es el vector cero y el opuesto de α es el mismo α. Los demás axiomas se verifican de
manera trivial. Por ejemplo para probar el axioma (M4 ), dado que cα = α para todo c, se tiene que
a (bα) = aα = α,
y también
(ab) α = α.
Luego, a (bα) = (ab) α para todo a y b en R.
Los espacios vectoriales unitarios difieren sólo en el único objeto que constituye el conjunto V. Este
objeto es trivialmente el cero de dicho espacio. Por esta razón se denomina espacio vectorial cero a
todo espacio vectorial unitario y a su único elemento se lo simboliza 0.J
Ejemplo 4.7. El conjunto formado por el polinomio cero y todos los polinomios a coeficientes reales
de grado 2, con las operaciones estándar de suma de polinomios y multiplicación por escalar, no es un
espacio vectorial.
En efecto, la suma de dos polinomios de grado 2 no es necesariamente un polinomio de grado 2.
Por ejemplo si p = 2 + 3x − 5x2 y q = x + 5x2 entonces p + q = 2 + 4x que no es un polinomio de
grado 2. Por lo tanto no se satisface el axioma de cerradura de la suma.J
Ejemplo 4.8. El conjunto R2 con la suma habitual pero con la multiplicación por escalar definida
por
c (x, y) = (cx, 0) ,
no es un espacio vectorial.
Si bien se satisfacen los primeros cinco axiomas: (S1 ), (S2 ), (S3 ), (S4 ) y (S5 ), ya que la suma es la
habitual en R2 , y la operación multiplicación por escalar ası́ definida es cerrada (se satisface (M1 )), es
fácilmente comprobable que no se satisface el axioma (M5 ) ya que
Nota: Es importante observar, como la definición de espacio vectorial establece, que éste se compone
de un conjunto V de “vectores”, un conjunto de escalares y dos operaciones con ciertas propiedades
especiales.
Un mismo conjunto V puede ser el conjunto de objetos de dos espacios vectoriales distintos, es
decir, bajo operaciones diferentes. Cuando no hay posibilidad de confusión, en todo lo que sigue, se
denotará simplemente con V a un espacio vectorial arbitrario.
1. 0u = 0 3. (−1)u = −u
2. c0 = 0 4. Si cu = 0 entonces c = 0 ó u = 0
Demostración. Se probará la propiedad (1) y quedará como ejercicio la prueba de las demás propie-
dades. Sea u un vector de V. Como 0 + 0 = 0 entonces
0u = (0 + 0) u, (4.1)
(0 + 0) u = 0u + 0u. (4.2)
0u + 0u = 0u.
Por el axioma (S5 ), el vector 0u tiene un opuesto, −0u. Al sumar este vector a los dos miembros
de la igualdad anterior se obtiene:
0u + 0 = 0,
0u = 0.
Nota: Cabe la siguiente importante observación: En un espacio vectorial real el conjunto V consta de
un número infinito de vectores o bien de un único vector (véase Ejercicio 8).
Ejercicios
Para probar que un conjunto W con dos operaciones, suma y multiplicación por escalar, es un espacio
vectorial, se deben verificar los 10 axiomas de la definición de espacio vectorial. Sin embargo, si W
es parte de un conjunto mayor V del que ya se sabe que es un espacio vectorial con esas mismas
operaciones, entonces no es necesario verificar ciertos axiomas para W porque se “heredan” de V. Por
ejemplo no es necesario verificar que u + v = v + u (axioma (S2 )) en W porque esto se cumple para
todos los vectores en V y, en consecuencia, para todos los vectores en W. Es fácil ver que los otros
axiomas “heredados” por W de V son: (S3 ), (M2 ), (M3 ), (M4 ) y (M5 ). Por lo tanto para demostrar
que un conjunto W es un subespacio de un espacio vectorial V sólo es necesario verificar los axiomas
(S1 ), (S4 ), (S5 ) y (M1 ), que son las dos cerraduras, la existencia de un vector cero y de los opuestos.
El siguiente teorema hace ver que incluso se puede omitir la verificación de los axiomas (S4 ) y (S5 ).
x + 2y − 3z + 1 = 0,
x2 − y 2 = 0.
Es fácil ver que el vector cero 0 = (0, 0) de R2 satisface la ecuación, por lo que 0 está en W . Pero
W no es cerrado bajo la suma. Si se consideran los elementos u = (1, −1) y v = (1, 1) de W , su suma
u + v = (2, 0) no es un elemento de W . Luego, W no es un subespacio de R2 .
Nota: A menos que se indiquen otras operaciones, cuando se mencionen a los espacios vectoriales con
vectores en Rn , P, Pn , Mmn o F(D) se entenderá que son los espacios vectoriales con respecto a las
operaciones habituales, como se definieron en la Sección 4.1.
ax + by + cz = 0,
a (kx1 ) + b (ky1 ) + c (kz1 ) = k (ax1 ) + k (by1 ) + k (cz1 ) = k (ax1 + by1 + cz1 ) = k (0) = 0,
Actividad 4.2. Pruebe que toda recta en el espacio que contiene al origen de coordenadas es un
subespacio de R3 .
Actividad 4.3. Pruebe que toda recta en el plano que contiene al origen de coordenadas es un
subespacio de R2 .
A (cx1 ) = c (Ax1 ) = c0 = 0,
por lo que cx1 es solución del sistema. Se ha probado que el conjunto solución de Ax = 0 es cerrado
bajo la suma y la multiplicación por escalares y por lo tanto es un subespacio de Rn .J
Actividad 4.4. ¿Es el conjunto de soluciones de un sistema lineal consistente de m ecuaciones con n
incógnitas, Ax = b con b 6= 0, un subespacio de Rn ?
Ejemplo 4.13. Sea V un espacio vectorial y u un vector fijo de V. Se mostrará que el conjunto W
de todos los múltiplos escalares de u:
W = {cu : c ∈ R}
es un subespacio de V.
En efecto, W no es vacı́o puesto que si c = 0 entonces 0u = 0 es un elemento de W.
Por otro lado, sean el escalar k y los vectores v y w del conjunto W es decir v = au y w = bu
con a y b en R. Para demostrar que W es cerrado bajo la suma, se debe probar que v + w está en W.
Dado que:
v + w = au + bu = (a + b) u,
entonces v + w es un múltiplo escalar de u.
De manera similar para probar que W es cerrado bajo la multiplicación por escalar, debe demos-
trarse que kv está en W. Como:
kv = k (au) = (ka) u,
entonces kv es un múltiplo escalar de u.
Nótese que las rectas en el plano o en el espacio que contienen al origen de coordenadas, constituyen
un caso particular de este ejemplo para V = R2 o R3 , respectivamente. J
entonces kp está en W .
Se ha probado que el conjunto W es un subespacio de P2 .J
a −b 0
Ejemplo 4.15. W = : a, b ∈ R es un subespacio de M23 .
b 0 2a
En efecto, la matriz cero O de M23 está en W (a = b = 0) por lo que W es un subconjunto no
vacı́o de M23 . Otras matrices de W son, por ejemplo:
√
2 − 21 0
− 3 −2 0√
1 y .
2 0 4 2 0 −2 3
a1 −b1 0 a2 −b2 0
Sean las matrices A = y B = de W y el número real k.
b1 0 2a1 b2 0 2a2
Entonces:
a1 −b1 0 a2 −b2 0 a1 + a2 −b1 − b2 0+0
A+B = + = =
b1 0 2a1 b2 0 2a2 b1 + b2 0+0 2a1 + 2a2
a1 + a2 − (b1 + b2 ) 0
= ,
b1 + b2 0 2 (a1 + a2 )
Ejemplo 4.16. El conjunto C [a, b] formado por todas las funciones reales continuas en el intervalo
cerrado [a, b], es un subespacio de F [a, b].
En efecto, la función constante cero, O, de F [a, b], O(x) = 0 para toda x ∈ [a, b], es una función
continua. Por lo tanto, O es una función de C [a, b].
Por otro lado, sean f y g funciones de C [a, b] y k un número real. Del Cálculo se sabe que la suma
de funciones continuas en un conjunto es una función continua en dicho conjunto, por lo que f + g
está en C [a, b].
Además, el producto de una constante k por una funnción continua f en un conjunto es una función
continua en dicho conjunto, de lo que se tiene que kf está en C [a, b].
Ası́, C [a, b] es cerrado bajo la suma y la multiplicación por escalares por lo cual es un subespacio
de F [a, b] . J
W = (x, y) ∈ R2 : x2 − y 2 = 0
que el 0 de V no está en W ,
Los siguientes son ejemplos de subconjuntos de espacios vectoriales que no son subespacios:
Ejercicios
Wp = {f : f (−x) = f (x)} ,
Wi = {f : f (−x) = −f (x)} ,
3. Considere el espacio C [a, b] de las funciones continuas en un intervalo cerrado [a, b]. Determine
si el subconjunto W es un subespacio de C [a, b] siendo:
c1 u1 + c2 u2 + ... + ck uk ,
donde c1 , c2 ,..., ck son escalares cualesquiera, llamados coeficientes de la combinación lineal. Es posible
extender este concepto a un espacio vectorial cualquiera:
c1 u1 + c2 u2 + ... + ck uk ,
u = c1 u1 + c2 u2 + ... + ck uk .
−2 1
Ejemplo 4.19. En el espacio R2 ,
el vector u = es combinación lineal de los vectores e1 =
3 0
0 2 −3
y e2 = pero no es una combinación lineal de los vectores v1 = y v2 = .J
1 0 0
1 1
Ejemplo 4.20. En el espacio R3 , u = 2 es combinación lineal de los vectores v1 = 1 ,
0 −1
−2 1 −1
v2 = 1 , v3 = −3 y v4 = 1 . En el Ejemplo 2.4 se muestra que hay una infinidad de
5 −5 4
maneras de expresar al vector u como combinación lineal de los vectores v1 , v2 , v3 y v4 .J
p = c1 q1 + c2 q2 + c3 q3 .
y1 q1 + y2 q2 + y3 q3 = p.
es decir
y1 1 + x + 2x2 + y2 1 − x2 + y3 2 − x + 3x2 = 1 + 3x − x2 .
El problema se reduce entonces a estudiar la consistencia de dicho sistema lineal. Aplicando elimi-
nación gaussiana a la matriz aumentada:
1 1 2 : 1 −−−−−−−−−−−−−−→ 1 1 2 : 1 1 1 2 : 1
−−−−−−−−−−−−−−→
1 0 −1 : 3 R2 − R1 → R2
0 −1 −3 : 2 0 −1 −3 : 2 .
R3 − 3R2 → R3
R3 − 2R1 → R3
2 −1 3 : −1 0 −3 −1 : −3 0 0 8 : −9
Puede observarse que el sistema es consistente. Luego el polinomio p es combinación lineal de los
polinomios q1 , q2 y q3 . Como el sistema tiene única solución y1 = 15 11 9
8 , y2 = 8 y y3 = − 8 , hay una
única manera de expresar al polinomio p como combinación lineal de q1 , q2 y q3 . Los coeficientes de
la combinación lineal son c1 = 15 11 9
8 , c2 = 8 y c3 = − 8 :
15 11 9
1 + x + 2x2 + 1 − x2 − 2 − x + 3x2 = 1 + 3x − x2 . J
8 8 8
Ejemplo 4.22. En el espacio F (R), sean las funciones f , g y h definidas por f (x) = sen2 x, g(x) = 3
y h(x) = cos2 x, para todo x ∈ R.
Puede comprobarse fácilmente que g = 3f + 3h. En efecto,
Ası́, un vector v de V está en gen(S) si y sólo si existen escalares c2 ,..., ck tales que
v = c1 u1 + c2 u2 + ... + ck uk .
1. El vector 0 está en gen(S). En efecto, el vector cero, 0, siempre es combinación lineal de cualquier
colección de vectores de V ya que una combinación lineal que tiene todos sus coeficientes cero
dá como resultado el vector cero. Ası́, 0 = 0u1 + 0u2 + ... + 0uk .
2. S ⊂ gen(S). En efecto, todo vector ui de S puede escribirse como combinación lineal de los
vectores de S de la siguiente manera:
ui = 0u1 + 0u2 + ... + 0ui−1 + 1ui + 0ui+1 + ... + 0uk .
Por lo tanto todo vector de S está en gen(S). La Figura 4.2 muestra un diagrama de la situación.
Ejemplo 4.23. En el espacio R2 , sea el conjunto unitario S = {(1, 2)}. El generado por S es el
conjunto
gen(S) = {c(1, 2) : c ∈ R} = {(c, 2c) : c ∈ R} .
gen(S) = c1 1 − x2 + c2 x : c1 , c2 ∈ R = c1 + c2 x − c1 x2 : c1 , c2 ∈ R ,
es decir son los polinomios de P2 que tienen el coeficiente de x2 opuesto al término constante (el
coeficiente de x es cualquier número real). Por ejemplo, 2 + x − 2x2 , −5 + 3x + 5x2 , −9x son polinomios
de gen(S) mientras que 3 + x + 3x2 no está en gen(S).J
1 3 1 2 0 2
Ejemplo 4.25. En el espacio M2 , sean las matrices A = ,B= yC= .
0 −2 −1 0 1 1
Por definición,
1 3 1 2 0 2
gen {A, B, C} = c1 + c2 + c3 : c1 , c2 , c3 ∈ R =
0 −2 −1 0 1 1
c1 + c2 3c1 + 2c2 + 2c3
= : c1 , c2 , c3 ∈ R .
−c2 + c3 −2c1 + c3
a b
Entonces una matriz está en gen {A, B, C} si y sólo si, existen escalares c1 , c2 y c3 tales
c d
que
c1 + c2 3c1 + 2c2 + 2c3 a b
= .
−c2 + c3 −2c1 + c3 c d
Esto conduce a estudiar la consistencia del sistema lineal:
x1 +x2 = a
3x1 +2x2 +2x3 = b
−x2 +x3 = c
−2x1 +x3 = d
1 1 0 : a 1 1 0 : a 1 1 0 : a
3 2 2 : b 0 −1 2 : b − 3a 0 −1 2 : b − 3a
→ → →
0 −1 1 : c 0 −1 1 : c 0 0 −1 : c − b + 3a
−2 0 1 : d 0 2 1 : d + 2a 0 0 5 : d + 2b − 4a
1 1 0 : a
0 −1 2 : b − 3a
→ .
0 0 −1 : c − b + 3a
0 0 0 : d + 5c − 3b + 11a
Este sistema es consistente si y sólo si d + 5c − 3b + 11a= 0. Por
lo tanto, el espacio generado por
a b
las matrices A, B y C está formado por todas las matrices de M2 cuyos elementos satisfacen
c d
1 2 3 −2
Ejemplo 4.26. Sea el conjunto S = 0 , 1 , 2 , 4 del espacio R3 .
0 0 1 5
de R3 , la ecuación
1 2 3 −2
x1 0 + x2 1 + x3 2 + x4 4 = b,
0 0 1 5
tiene solución. Operando en el primer miembro y por igualdad de vectores se llega al sistema lineal
x1 +2x2 +3x3 −2x4 = b1
x2 +2x3 +4x4 = b2
x3 +5x4 = b3
Ejemplo 4.28. El conjunto {A, B, C} de las matrices de M2 dadas en el Ejemplo 4.25, no genera a
M2 . Como se vió en el ejemplo, la matriz E de M2 no está en gen {A, B, C}.J
Los siguientes son ejemplos de conjuntos generadores de los espacios vectoriales que se utilizan más a
menudo:
En efecto, todo polinomio p = a + bx + cx2 de P2 se puede escribir como combinación lineal de los
polinomios 1, x, x2 de la siguiente manera:
Ejemplo 4.33. El conjunto {E11 , E12 , E13 , E21 , E22 , E23 } genera a M23 , donde Eij es la matriz de
0 0 1
2 × 3 que tiene un 1 en la posición (i, j) y 0 en las otras posiciones, por ejemplo: E13 = .
0 0 0
a11 a12 a13
En efecto, toda matriz A = se puede escribir como combinación lineal de las
a21 a22 a23
matrices E11 , E12 , E13 , E21 , E22 , E23 de la siguiente manera:
a11 a12 a13 1 0 0 0 1 0 0 0 1
A= = a11 + a12 + a13 +
a21 a22 a23 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0
+ a21 + a22 + a23 =
1 0 0 0 1 0 0 0 1
= a11 E11 + a12 E12 + a13 E13 + a21 E21 + a22 E22 + a23 E23 . J
Ejemplo 4.34. El conjunto {E11 , E12 , ..., E1n ; E21 , E22 , ..., E2n ; ...; Em1 , Em2 , ..., Emn } genera a Mmn ,
donde Eij es la matriz de m × n que tiene un 1 en la posición (i, j) y 0 en las otras posiciones.J
Sean v y w vectores de gen(S). Luego, existen escalares c1 , c2 , ..., ck y d1 , d2 , ..., dk tal que
v = c1 u1 + c2 u2 + ... + ck uk ,
w = d1 u1 + d2 u2 + ... + dk uk .
Entonces:
v + w = (c1 u1 + c2 u2 + ... + ck uk ) + (d1 u1 + d2 u2 + ... + dk uk ) =
= (c1 + d1 ) u1 + (c2 + d2 ) u2 + ... + (ck + dk ) uk ,
por lo que v + w es combinación lineal de los vectores de S y por lo tanto está en gen(S).
Ası́, gen(S) es cerrado bajo la suma y multiplicación por escalares y por lo tanto es un subespacio
de V.
Sea W un subespacio de V que contenga a los vectores u1 , u2 ,..., uk de S. Dado que W es cerrado
bajo la suma y multiplicación por escalares, entonces debe contener a todas las combinaciones
lineales c1 u1 + c2 u2 + ... + ck uk . Por lo tanto W contiene a todos los vectores de gen(S), es decir
gen(S) ⊂ W.
Luego, gen(S) es el subespacio “más pequeño” (en el sentido de inclusión) que contiene a S
(véase Figura 4.5).
Ejemplo 4.35. Sea W el conjunto de todos los vectores de R4 de la forma (a + 2b, 2b, a − b, b) donde
a y b son escalares arbritrarios, es decir
W = {(a + 2b, 2b, a − b, b) : a, b ∈ R} .
Por definición de suma y multiplicación por escalares, un vector genérico de W puede expresarse
de la siguiente manera:
(a + 2b, 2b, a − b, b) = (a, 0, a, 0) + (2b, 2b, −b, b) = a (1, 0, 1, 0) + b (2, 2, −1, 1) .
Entonces todo vector de W se escribe como combinación lineal de los vectores u1 = (1, 0, 1, 0) y
u2 = (2, 2, −1, 1). Luego,
W = gen {u1 , u2 } ,
y de acuerdo a la parte 1 del Teorema 4.3, W es un subespacio de R4 .J
Demostración. Sin perder generalidad, supóngase que uk es combinación lineal de los restantes vectores
u1 , u2 ,..., uk−1 de S. Es decir, existen escalares c1 , c2 ,..., ck−1 tales que
Se tiene que probar que gen {u1 , u2 , ..., uk−1 } = gen {u1 , u2 , ..., uk−1 , uk }. Para ello debe verificarse
que todo vector de gen {u1 , u2 , ..., uk−1 } es un vector de gen {u1 , u2 , ..., uk−1 , uk } y recı́procamente.
Por un lado, cualquier vector de gen {u1 , u2 , ..., uk−1 } es un vector de gen {u1 , u2 , ..., uk−1 , uk }
(¿por qué?).
Por otra parte, si x es un vector de gen {u1 , u2 , ..., uk−1 , uk }, entonces
Entonces, x es combinación lineal de los vectores u1 , u2 ,..., uk−1 y por lo tanto x está en
gen {u1 , u2 , ..., uk−1 }.
Ejercicios
1. Indique si el vector u puede expresarse como una combinación lineal de los vectores u1 , u2 , u3 ,
u4 y u5 de R4 . En caso afirmativo, exhiba alguna de estas combinaciones.
2 −1 1 2 0 3
, u2 = −1 , u3 = 1 , u4 = 4 , u5 = 1 .
9 0
a) u = 7
; u 1 =
4 1 0 1 −2
3 1 0 0 1 2
−4 0 1 0 2 1
1 1 1 1 1 1
b) u = 3 ;
u1 = −1 , u2 = −1 , u3 = 0 , u4 = −1 , u5 = 1 .
1
0 2 0 1 3 1
6 2 1 1 2 1
−5 −1 1 −1 2 −1
c) u = 2 ;
u1 = 0 , u2 = 0 , u3 = 2 , u4 = 4 , u5 = 1 .
5 0 1 1 0 1
4. Describa geométricamente el subespacio generado por los vectores u1 = (−1, 0, 3), u2 = (0, 1, −1)
y u3 = (−2, 3, 3) de R3 .
1 1 0 2
5. Explicite el espacio generado por las matrices A = yB= de M2 . Indique
−1 0 3 −4
tres matrices de M2 que estén en gen {A, B} y tres que no pertenezcan a dicho conjunto.
7. Indique si el conjunto:
c) 1 + x, −3 + x2 genera a P2 .
d ) 1, 1 + x, 1 + x + x2 , 1 + x + x2 + x3 , 3 − x3 genera a P3 .
al espacio P2 .
10. En cada ı́tem, pruebe que W es un subespacio del espacio vectorial V que se indica mostrando
un conjunto generador de W.
a) W = {(2a, 0, b, −a − 3b + c) : a, b, c ∈ R}; V = R4 .
b) W es el conjunto solución de la ecuación 2x1 − x2 + x3 − x4 + 3x5 = 0; V = R5 .
c) W = a − bx + (a + b)x2 : a, b ∈ R ; V = P2 .
x1 u1 + x2 u2 + ... + xk uk = 0 (4.4)
1 0 2
−2 1 1
Ejemplo 4.38. Sea el conjunto S = 4
0 , −1 , 1 del espacio R . Para determinar si
1 0 1
S es linealmente dependiente o linealmente independiente, se debe analizar si la ecuación
1 0 2 0
−2 1 1 0
x1
0 + x2 −1 + x3 1 = 0 ,
1 0 1 0
tiene única solución (la trivial) o infinitas soluciones, lo cual es equivalente a determinar si el sistema
lineal homogéneo:
x1 +x3 = 0
−2x1 +x2 +x3 = 0
−x2 +x3 = 0
x1 +x3 = 0
el cual admite infinitas soluciones (el determinante de la matriz de coeficientes es cero). Luego, el
conjunto S es linealmente dependiente.J
Los siguientes son ejemplos de conjuntos linealmente independientes de los espacios vectoriales que se
encuentran más a menudo:
En efecto,
c1 (1) + c2 (x) + c2 x2 = 0 = 0 + 0x + 0x2 ,
Ejemplo 4.44. El conjunto {E11 , E12 , E21 , E22 , E31 , E32 } de M32 es linealmente independiente.
En efecto, la ecuación
queda
1 0 0 1 0 0 0 0 0 0 0 0 0 0
x1 0 0 + x2 0 0 + x3 1 0 + x4 0 1 + x5 0 0 + x6 0 0 = 0 0 ,
0 0 0 0 0 0 0 0 1 0 0 1 0 0
Ejemplo 4.45. El conjunto {E11 , E12 , ..., E1n ; E21 , E22 , ..., E2n ; ...; Em1 , Em2 , ..., Emn } de Mmn es li-
nealmente independiente.J
El término linealmente dependiente sugiere que los vectores “dependen” entre ellos de alguna manera.
En el ejemplo introductorio, el conjunto S = {(1, 3, −1) , (0, 1, −2) , (1, 0, 5)} de R3 es linealmente
dependiente. Se mostró que, por ejemplo, el vector u1 = (1, 3, −1) es combinación lineal de los otros
dos vectores de S.
Al respecto, vale el siguiente teorema:
Nota: Dado un conjunto S = {u1 , u2 , ..., uk } de un espacio vectorial V se puede decir indistintamente
que S es linealmente dependiente (independiente) o que los vectores u1 , u2 ,..., uk son linealmente
dependientes (independientes).
1 −1 0 2 1 1
Ejemplo 4.46. En el espacio M2 , las matrices A = , B = , C = y
2 0 3 0 5 0
3 8
D = son linealmente dependientes. Es fácilmente comprobable que la matriz C se puede
4 1
escribir como combinación lineal de A, B y D. En efecto:
El Teorema 4.5 tiene un corolario que proporciona una prueba muy simple para determinar si dos
vectores de un espacio vectorial son linealmente dependientes o no.
Ejemplo 4.47. Se deduce del corolario anterior que dos vectores en R2 o en R3 son linealmente
dependientes si y sólo si están sobre la misma recta que pasa por el origen. Observe las Figuras 4.6 y
4.7.J
Ejemplo 4.48. El espacio generado por dos vectores distintos cualesquiera en R3 es un plano que
pasa por el origen o una recta que pasa por el origen. (Ejercicio 2).J
Ejemplo 4.49. Los polinomios p = 3−2x2 y q = −6+4x2 del espacio P2 son linealmente dependientes
dado que q = −2p (ó p = − 12 q).J
Ejercicios
1. Para cada conjunto S del espacio vectorial V indicado, determine si es linealmente independiente
o linealmente dependiente:
d ) S = x3 , 1 − 3x2 , 2 + x , V = P.
1 1 0 0 −2 −2
e) S = , , , V = M2 .
−1 0 0 3 2 1
1 1 0 0 0 0 1 0 1 2 1 1
f) S = , , , , V = M23 .
−1 0 2 0 3 1 1 0 −1 1 0 0
g) S = {ex , e−x , cosh x}, V = F (R).
P2 es linealmente independiente.
Definición (Base). Sea V un espacio vectorial distinto del espacio cero y S un subconjunto
finito no vacı́o de V. El conjunto S es una base de V si
1. S es linealmente independiente,
2. S genera a V.
Ejemplo 4.53. El conjunto S = 1, x, x2 es una base del espacio P2 . Se mostró en los ejemplos
4.31 y 4.42 que S es un conjunto generador linealmente independiente en P2 . Esta base es la base
estándar del espacio vectorial P2 .J
linealmente independiente en Pn en los ejemplos 4.43 y 4.31. Esta base es la llamada base estándar o
canónica de Pn .J
Para demostrar que S es linealmente independiente es necesario probar que la única solución de la
ecuación
x1 u1 + x2 u2 + x3 u3 = 0,
o bien
x1 (1, 2, 1) + x2 (−2, 3, 0) + x3 (3, 3, 2) = (0, 0, 0) ,
es la trivial, x1 = x2 = x3 = 0. La verificación de la independencia lineal se reduce a demostrar que el
sistema homogéneo:
x1 −2x2 +3x3 = 0
2x1 +3x2 +3x3 = 0
x1 +2x3 = 0
Sea V un espacio vectorial distinto del espacio cero. Si V contiene un conjunto finito no vacı́o de
vectores que forman una base, se dice que V es un espacio vectorial de dimensión finita o finito
dimensional. Si no existe un conjunto de este tipo se dice que V es de dimensión infinita o infinito
dimensional.
Casi todos los espacios vectoriales considerados en este texto son de dimensión finita. Por ejemplo,
los espacios Rn , Pn y Mmn son espacios vectoriales de dimensión finita.
Sin embargo, es conveniente notar que muchos espacios vectoriales de importancia son de dimensión
infinita. El espacio vectorial P es infinito dimensional ya que no es posible encontrar un conjunto finito
que lo genere.
Actividad 4.5. Explique por qué no existe un conjunto generador de P que contenga un número
finito de elementos.
Teorema 4.7. Si un espacio vectorial V tiene una base que consta de n vectores entonces
todo subconjunto de V que contiene más de n vectores es linealmente dependiente. Dicho de
otro modo, todo subconjunto linealmente independiente de V contiene a lo sumo n vectores.
Demostración. Sea S = {u1 , u2 , ..., un } una base del espacio vectorial V y H = {v1 , v2 , ..., vm } un
subconjunto de V que consta de m vectores, donde m > n.
Se probará que H es linealmente dependiente mostrando que la ecuación
x1 v1 + x2 v2 + ... + xm vm = 0, (4.5)
Dado que los vectores u1 , u2 ,...,un son linealmente independientes (S una base), entonces todos
los coeficientes de la expresión anterior son iguales a cero. Ası́, resolver la ecuación (4.5) equivale a
resolver el siguiente sistema lineal homogéneo en las incógnitas x1 , x2 ,..., xm :
c11 x1 + c12 x2 + ... + c1m xm = 0
c21 x1 + c22 x2 + ... + c2m xm = 0
..
.
cn1 x1 + cn2 x2 + ... + cnm xm = 0
Como este sistema es homogéneo y el número de incógnitas (m) es mayor que el número de
ecuaciones (n), entonces tiene soluciones no triviales. Esto es, existen escalares d1 , d2 ,...,dm no todos
ceros que satisfacen la ecuación (4.5).
Luego, el conjunto H es linealmente dependiente.
Ejemplo 4.58. Dado que R3 tiene una base que consta de 3 vectores (la base estándar), cualquier
conjunto de R3 que consta de 4 ó más vectores es linealmente dependiente.
En general, en el espacio Rn , todo conjunto que consta de más de n vectores es linealmente
dependiente.J
Ejemplo 4.59. En el espacio P2 todo conjunto que consta de 4 o más polinomios es linealmente
dependiente puesto que P2 tiene una base que consta de 3 polinomios (la base estándar 1, x, x2 ).
En general en el espacio Pn , todo conjunto que consta de más de n + 1 polinomios es linealmente
dependiente.J
2 0 1 −3 2 1
Ejemplo 4.60. En el espacio M2 , el conjunto formado por las matrices , , ,
0 0 0 0 1 0
1 3 4 −1
, es linealmente dependiente. ¿Por qué?.J
0 1 −2 1
Debe observarse en primer lugar que si {u1 , u2 , ..., un } es una base de un espacio vectorial V, entonces
{cu1 , u2 , ..., un } donde c 6= 0 es también una base de V (Ejercicio 5). Esto muestra que todo espacio
vectorial real, distinto del espacio cero, tiene infinitas bases.
A partir del teorema anterior, puede demostrarse que todas las bases de un espacio vectorial finito
dimensional, tienen el mismo número de vectores.
Corolario 4.2. Si un espacio vectorial V tiene una base que consta de n vectores entonces
toda otra base de V consta también de n vectores.
Demostración. Sea S = {u1 , u2 , ..., un } una base del espacio vectorial V y H = {v1 , v2 , ..., vm } cual-
quier otra base de V.
Por el Teorema 4.7, dado que S es una base de V y H es linealmente independiente (H es una
base), entonces m ≤ n. Haciendo el mismo razonamiento, y cambiando los roles, puesto que H es una
base de V y S es linealmente independiente, entonces debe ser n ≤ m.
En consecuencia, m = n y por lo tanto ambas bases tienen el mismo número de vectores.
A partir de este corolario, puede notarse que si se conoce una base de un espacio vectorial V de
dimensión finita, una condición necesaria para que un conjunto S sea una base de V es que S tenga
el mismo número de elementos que la base conocida.
Actividad 4.6. Indique, por simple inspección, por qué los siguientes conjuntos no son una base de
los espacios vectoriales indicados:
2. 1 + x, 5 − x + x2 , 3x2 , x + x2 en P2 .
El corolario anterior permite definir el concepto de dimensión de un espacio vectorial finito dimen-
sional:
Definición (Dimensión). Si un espacio vectorial V tiene una base que consta de n vectores,
a dicho número n se lo denomina dimensión de V y se denota dim(V) = n.
El espacio vectorial cero, V = {0}, está generado por el vector 0 pero {0} es un conjunto linealmente
dependiente, y por lo tanto no puede ser una base. Ya que el espacio cero no contiene un conjunto
con al menos un elemento que sea una base de él, se conviene en considerar a este espacio como finito
dimensional con dimensión 0.
Al contar el número de elementos de las bases estándar de los espacios Rn , Pn y Mmn , se obtiene
la siguiente conclusión:
dim (Rn ) = n
dim (Pn ) = n + 1
dim (Mmn ) = mn
El espacio vectorial P es infinito dimensional (no existe un conjunto finito de polinomios que lo
genere). Similarmente, el espacio F(R) es de dimensión infinita ya que contiene un subespacio, el espacio
de todas las funciones polinómicas, que es infinito dimensional (Teorema 4.12 que está demostrado al
final de esta sección).
Dado que un subespacio de un espacio vectorial es en sı́ mismo un espacio vectorial, tiene sentido
hablar de la dimensión de un subespacio:
W = gen {u1 , u2 }
2. Si S genera a V entonces m ≥ n.
Demostración. 1. Dado que la dimensión de V es n entonces V tiene una base que consta de n
vectores. De acuerdo con el Teorema 4.7 cualquier conjunto linealmente independiente en V
tiene a lo sumo n vectores. Ası́, m ≤ n.
Actividad 4.7. Sea S un conjunto que consta de 10 vectores de Rn . ¿Qué puede asegurarse respecto
al número n en cada uno de los siguientes casos?
1. S es linealmente independiente.
2. S es generador de Rn .
3. S es una base de Rn .
En general para demostrar que un conjunto de vectores, S = {u1 , u2 , ..., un }, es una base de un espacio
vectorial V se tiene que demostrar que los vectores son linealmente independientes y que generan a
V. Sin embargo, si se conoce de antemano que V tiene dimensión n, de modo que S tiene el número
correcto de vectores para ser una base, el Teorema 4.9 asegura que basta comprobar sólo uno de los
dos requisitos.
El siguiente lema es clave para la demostración de dicho teorema:
c1 u1 + c2 u2 + ... + ck uk + cw = 0. (4.6)
c1 u1 + c2 u2 + ... + ck uk = 0,
Ejemplo 4.64. El conjunto S = {(1, 1), (2, −4)} de R2 es linealmente independiente (¿por qué?) y
tiene 2 elementos. Como dim R2 = 2 entonces S es una base de R2 .J
El teorema siguiente puede ser muy útil en la práctica. En él se afirma que en un espacio vectorial
finito dimensional, procediendo adecuadamente, se puede obtener una base agregando vectores a un
conjunto linealmente independiente o quitando vectores de un conjunto generador.
Dado un conjunto finito, S, en un espacio vectorial V la parte 2 del teorema anterior provee un
procedimiento para encontrar un subconjunto de S que es una base para el espacio gen(S). El ejemplo
siguiente es ilustrativo de esta construcción. El método puede resultar tedioso puesto que cada vez
que se elimina un vector se debe analizar la dependencia lineal de los vectores restantes. En la Sección
4.7 se proporcionará un método que permite encontrar de una manera más directa un subconjunto de
S que sea una base para el gen(S).
y operando
(c1 + 2c3 − c4 + c5 )+(c1 + c2 + 3c3 + c5 ) x+(c2 + c3 + c4 + c5 ) x2 +(2c1 − c2 + 3c3 − 3c4 + c5 ) x3 = 0,
que conduce al sistema lineal homogéneo
c1 + 2c3 − c4 + c5 = 0
c1 + c2 + 3c3 + c5 = 0
c + c3 + c4 + c5 = 0
2
2c1 − c2 + 3c3 − 3c4 + c5 = 0
Aplicando Gauss-Jordan a la matriz aumentada del sistema, se obtiene su forma escalonada redu-
cida (verifı́quelo):
0 2 −1
1 0 : 0
0 1 1 1 0 : 0
0 0 0 0 1 : 0
0 0 0 0 0 : 0
Las variables libres son c3 y c4 y la solución general del sistema esá dada por c1 = −2r + t,
c2 = −r − t, c3 = r, c4 = t, c5 = 0 con t, r ∈ R.
Por lo tanto el polinomio cero se obtiene de las infinitas maneras siguientes como combinación
lineal de los polinomios p1 , p2 , p3 , p4 y p5 :
(−2r + t) p1 + (−r − t) p2 + rp3 + tp4 + 0p5 = 0, r, t ∈ R. (4.7)
El polinomio p5 no puede expresarse como combinación lineal de los polinomios restantes.
El polinomio p4 puede expresarse como combinación lineal de los restantes tomando, por ejemplo,
t = 1:
p4 = (2r − 1)p1 + (r + 1)p2 − rp3 + 0p5 , r ∈ R.
El siguiente teorema demuestra que todo subespacio de un espacio vectorial V finito dimensional es
(como es de esperar) también finito dimensional y que su dimensión no supera a la dimensión de V.
2. dim(W) = n si y sólo si W = V
Supóngase W 6= {0}. Debe probarse que W contiene un conjunto finito que es una base de W y
que dicha base no contiene más de n vectores.
Subespacios unidimensionales: hay infinitos, todas las rectas que pasan por el origen. Son del
tipo gen {u} con u 6= 0.
Ejercicios
a) 1 + x + x2 , 2 − x, x + 3x2
b) 1, 1 + 2x, 1 + 2x + 3x2 , 1 − x2
c) 1 + x, x + x2
d ) 2 − x + x2 , 3 + x + x2 , 5 + 2x2
a b
4. Sea el subespacio V de M2 que consta de todas las matrices de la forma . Demuestre
c a−b
que {E11 + E22 , E12 − E22 , E21 } es una base de V.
5. Pruebe que si {u1 , u2 , ..., un } es una base de un espacio vectorial V, entonces {cu1 , u2 , ..., un }
donde c 6= 0 es también una base de V.
a) W = {(a − b, b, 2a + b) : a, b ∈ R}; V = R3 .
b) W = {(a, b, 0) : a, b ∈ R}; V = R3 .
c) W = {(2a, −b, a + b) : a, b ∈ R}; V = R3 .
d ) W es el conjunto de todos los vectores de R4 cuya primera y última componentes son cero;
V = R4 .
e) W = gen {(1, 2, −1, 0) , (0, 3, 1, 0) , (1, 1, 1, 1) , (2, 6, 1, 1)}; V = R4 .
a b
f) W = : a, b ∈ R ; V = M2 .
2b a − b
1 −1 0 0 1 1 3 −1
g) W = gen , , , ; V = M2 .
2 0 1 0 −1 1 2 1
h) W = a + bx − (a + b)x2 : a, b ∈ R ; V = P2 .
i ) W = gen 1 + x, 1 − x2 , 2 + x4 , x + x4 ; V = P.
9. Encuentre una base para el subespacio gen ex , xex , x2 ex de F (R) y obtenga su dimensión.
11. En cada caso el conjunto S genera al espacio V. Reduzca S hasta obtener una base de V:
1 2 6 −1 2
a) S = 1 , −1 , 3 , 3 , 3 , V = R3 .
0 3 3 4 1
b) S = {1 + x, −5x, 3 + 4x}, V = P1 .
12. En cada caso S es un conjunto linealmente independiente del espacio V. Amplı́e S hasta obtener
una base de V:
También se pueden introducir coordenadas utilizando vectores. Por ejemplo, véase Figura 4.9, los
versores fundamentales i y j forman una base para R2 y puede verse que al bajar rectas perpendiculares
desde P hacia los ejes x e y determinados por los vectores i y j se obtienen los vectores ai y bj, y que
−−→
OP = ai + bj.
Las coordenadas a y b de P se pueden concebir como los números (coeficientes) necesarios para
−−→
expresar al vector v = OP como combinación lineal de los vectores de la base {i, j}.
Esta noción de coordenadas se puede extender a espacios más generales. Para esto es necesario un
resultado preliminar:
Teorema 4.12. Si S = {u1 , u2 , ..., un } es una base para un espacio vectorial V entonces
todo vector v en V se puede expresar como combinación lineal de los vectores de S de una
única manera. Es decir, para cada v de V existen únicos escalares c1 , c2 ,...,cn tales que
v = c1 u1 + c2 u2 + ... + cn un .
Demostración. Dado que S genera a V, todo vector de V se puede expresar como una combinación
lineal de los vectores de S. Se verá que la independencia lineal de S asegura que esta manera es única.
Para ello, supóngase que un vector v se puede escribir como
v = c1 u1 + c2 u2 + ... + cn un ,
y también como
v = k1 u1 + k2 u2 + ... + kn un .
Por lo tanto:
c1 u1 + c2 u2 + ... + cn un = k1 u1 + k2 u2 + ... + kn un ,
y operando se obtiene:
que muestra al vector cero como una combinación lineal de los vectores de S y dado que S es linealmente
independiente, necesariamente:
c1 − k1 = 0, c2 − k2 = 0, ..., cn − kn = 0,
es decir
c1 = k1 , c2 = k2 , ..., cn = kn .
Luego, no hay dos maneras distintas de escribir a un vector de V como combinación lineal de los
elementos de una base. Ası́, quedó probado el teorema.
En esta sección interesará el orden en que se toman los vectores de una base y se hablará de bases
ordenadas.
Si u1 , u2 , ..., un son los vectores de una base de V, la base ordenada B es el conjunto B =
{u1 , u2 , ..., un } juntamente con el orden dado. Cambiar el orden en que están enlistados los elementos
de una base ordenada produce una base ordenada diferente. En este sentido B1 = {u2 , u1 , ..., un } es
una base ordenada distinta a la base ordenada B.
v = c1 u1 + c2 u2 + ... + cn un .
Observe que un cambio en el orden de los vectores del conjunto B conduce a un cambio en el orden
de las componentes del vector de coordenadas de v y por lo tanto a vectores de coordenadas distintos.
De ahı́ la necesidad de imponer algún orden a los vectores que forman una base B y considerar bases
ordenadas de modo que no se produzcan ambigüedades al definir la i-ésima coordenada de v.
Toda base a lo largo de esta sección se considera una base ordenada aún cuando no se lo explicite.
Vale aclarar que el vector de coordenadas se tomó como vector columna aunque bien podrı́a haber
sido expresado en la forma
(v)B = (c1 , c2 , ..., cn ) .
La notación como columna es sólo por conveniencia ya que es útil cuando se procede a describir
qué le sucede a las coordenadas de un vector v cuando se cambia de una base ordenada a otra.
Correspondencia entre V y Rn
Debe observarse que fijada una base ordenada B = {u1 , u2 , ..., un } de un espacio vectorial V de
dimensión n, existe una correspondencia biunı́voca entre el conjunto V y el conjunto Rn . En efecto, la
asignación
v → [v]B ,
hace corresponder a cada vector v de V un único vector de Rn , el vector [v]B .
c1
c2
Recı́procamente, cada vector . de Rn es el vector de coordenadas, con respecto a la base B,
..
cn
de un único vector v de V, a saber, el vector v = c1 u1 + c2 u2 + ... + cn un .
Ejemplo 4.67. Sean las siguientes bases (ordenadas) de R2 , la estándar E = {e1 , e2 } y la base
B = {u1 , u2 } donde u1 = (1, 2) y u2 = (3, 1), y el vector v = (11, 7).
Ejemplo 4.68. Sean los vectores u1 , u2 y v del ejemplo anterior, y la base ordenada S = {u2 , u1 }
de R2 . Entonces:
v = (11, 7) = 2u1 + 3u2 (= 3u2 + 2u1 ) ,
luego
3
[v]S = .J
2
entonces el vector v es
v = (−1)u1 + 2u2 + 4u3 = (−1, 0, −2) + (4, 2, −6) + (12, 4, 0) = (15, 6, −8). J
Ejemplo 4.71. Sea B = {u1 , u2 , ..., un } una base de un espacio vectorial V. Los vectores de coorde-
nadas de los vectores u1 , u2 ,..., un con respecto a la base B que los contiene, son los vectores de la
base estándar de Rn , e1 , e2 ,...,en . En efecto, para todo j = 1, 2, ..., n:
luego
0
0
..
.
[uj ]B = 1 ← j-ésima coordenada.
..
.
0
0
entonces,
x1
x2
[x]E = .
..
.
xn
Puede observarse que el vector de coordenadas [x]E es el mismo vector x, escrito como vector
columna.J
Encontrar las coordenadas de un vector particular usualmente involucra resolver un sistema de ecua-
ciones lineales a menos que la base tenga algo especial como la base canónica o estándar, o las bases
ortogonales que se verán en secciones posteriores.
Ejemplo 4.73. Sean las siguientes bases (ordenadas) de P2 : la base canónica E = 1, x, x2 y la base
c1 p1 + c2 p2 + c3 p3 = p,
esto es
3 7
c1 1 + x + x2 + c2 x + 2x2 + c2 2 + 3x2 = + x − 2x2 ,
2 2
operando
3 7
(c1 + 2c3 ) + (c1 + c2 ) x + (c1 + 2c2 + 3c3 ) x2 = + x − 2x2 ,
2 2
y por igualdad de polinomios
c1 +2c3 = 3/2
c1 +c2 = 7/2
c1 +2c2 +3c3 = −2
Ahora se trata el problema central de esta sección, el problema del cambio de base.
donde
a11 a12 ... a1n
a21 a22 ... a2n
P = .
.. .. ..
. . ... .
an1 an2 ... ann
La matriz P del teorema anterior es la única matriz tal que para cada v en V, [v]B2 = P [v]B1 (puede
verse una demostración al final de esta sección). Esta matriz es llamada matriz de transición o de
cambio de base de la base B1 a la base B2 .
Ejemplo 4.74. (Cálculo de una matriz de transición) En el espacio vectorial R2 , sean las bases
ordenadas B1 = {u1 , u2 } y B2 = {v1 , v2 } donde u1 = (2, 0), u2 = (1, 2), v1 = (6, 3) y v2 = (4, −1).
La matriz P de transición de la base B1 a la base B2 tiene por columnas los vectores de coordenadas
de los vectores de B1 con respecto a la base B2 , es decir
P = [u1 ]B2 [u2 ]B2 .
Para calcular [u1 ]B2 , se deben determinar los coeficientes (únicos) a1 y a2 tales que
a1 v1 + a2 v2 = u1 ,
es decir
a1 (6, 3) + a2 (4, −1) = (2, 0) ,
o bien
6a1 + 4a2 = 2
.
3a1 − a2 = 0
Se trata entonces de encontrar la (única) solución del sistema lineal de matriz aumentada:
6 4 : 2
= v 1 v 2 : u1 ,
3 −1 : 0
entendiendo que v1 , v2 y u1 están expresados como vectores columna.
Similarmente, para hallar [u2 ]B2 , se deben determinar los (únicos) coeficientes b1 y b2 tales que
b1 v1 + b2 v2 = u2 ,
es decir
b1 (6, 3) + b2 (4, −1) = (1, 2) ,
o bien
6b1 + 4b2 = 1
3b1 − b2 = 2
por lo que se tiene entonces que encontrar la (única) solución del sistema lineal de matriz aumentada:
6 4 : 1
= v 1 v 2 : u2 .
3 −1 : 2
Como la matriz de coeficientes de los dos sistemas es la misma,
éstos se pueden resolver en forma
simultánea llevando la matriz aumentada v1 v2 : u1 u2 a su forma escalonada reducida.
Aplicando Gauss-Jordan:
6 4 : 2 1 6 4 : 2 1 6 4 : 2 1
v1 v2 : u1 u2 = → → →
3 −1 : 0 2 0 −3 : −1 23 0 1 : 31 − 12
2 1 1
6 0 : 3 3 1 0 : 9 2
→ 1 → ,
0 1 : 3 − 21 0 1 : 1
3 − 12
por lo cual, la solución del primer sistema es a1 = 91 , a2 = 13 es decir
1
[u1 ]B2 = 91 ,
3
Obsérvese del ejemplo anterior que la matriz P de transición de la base B1 a la base B2 se obtuvo al
aplicar eliminación de Gauss-Jordan a la matriz
6 4 : 2 1
= v 1 v 2 : u1 u2
3 −1 : 0 2
donde v1 y v2 son los vectores de la base final, B2 , y u1 y u2 son los vectores de la base inicial, B1 .
La forma escalonada reducida de esta matriz es la matriz de 2 × 4 que tiene en el lado izquierdo a
la matriz identidad, I2 , y en el lado derecho a la matriz P de transición de B1 a B2 :
1 0 : 19 1
2 = [I : P ] .
0 1 : 13 − 21
Debe notarse que la forma escalonada reducida de la matriz v 1 v 2 es la matriz identidad
2
I = e1 e2 . Esto no es casual ya que siendo {v1 , v2 } una base de R hay una única manera de
expresar
un vector de R2 como combinación lineal de v1 y v2 , luego cualquier sistema lineal que tiene
a v1 v2 como matriz de coeficientes tiene solución única, y por lo tanto la forma escalonada
reducida de esta matriz es la matriz identidad I.
El procedimiento visto puede generalizarse como manera práctica para calcular una matriz de
cambio de base cuando el espacio vectorial V es Rn .
Forme la matriz de n × 2n donde las primeras n columnas son los vectores (ordenados)
de la base B2 y las siguientes n columnas son los vectores (ordenados) de la base B1 :
v1 v2 ... vn : u1 u2 ... un .
Ejemplo 4.75. Sean las bases B1 y B2 de R2 del ejemplo anterior, y el vector v = (7, 6).
Se comprobará la relación [v]B2 = P [v]B1 . Para ello, se obtendrá [v]B2 en forma directa y se
verificará que el mismo resultado se obtiene pre-multiplicando la matriz P por el vector de coordenadas
[v]B1 .
Para calcular [v]B2 en forma directa debe resolverse el sistema lineal que permite encontrar las
coordenadas del vector v respecto a la base B2 . Deben hallarse los coeficientes c1 y c2 tales que
o bien
6c1 + 4c2 = 7
3c1 − c2 = 6
31
Resolviendo el sistema se obtiene c1 = 18 y c2 = − 65 . Ası́,
31
[v]B2 = 18 .
− 65
1 0 : 49 9
4 = [I : Q] ,
0 1 : 23 − 12
9 9
siendo Q = 4 4 la matriz de transición de la base B2 a la base B1 .
3
2 − 21
Esta matriz es la única que satisface la siguiente propiedad:
[v]B1 = Q [v]B2 , ∀v ∈ V.
1 1 9 9
9 2 4 4 1 0
Puede observarse que P Q = 1 = = I, y por lo tanto P es invertible
3 − 12 3
2 − 12 0 1
y Q = P −1 . En general, se tiene el siguiente teorema:
[v]B2 = P [v]B1 , ∀v ∈ V,
[v]B1 = Q [v]B2 , ∀v ∈ V.
Luego,
[v]B2 = P [v]B1 = P Q [v]B2 = (P Q) [v]B2 , ∀v ∈ V.
Esto es,
[v]B2 = (P Q) [v]B2 , ∀v ∈ V.
En particular para los vectores vj de la base B2 se tiene (P Q) [vj ]B2 = [vj ]B2 , ∀j = 1, 2, ..., n.
Dado que [vj ]B2 = ej , j = 1, 2, ..., n (véase Ejemplo 4.71) resulta
(P Q) ej = ej , ∀j = 1, 2, ..., n.
y como
(P Q) ej = cj , ∀j = 1, 2, ..., n,
entonces cj = ej , ∀j = 1, 2, ..., n. Por lo tanto, las columnas de P Q son e1 , e2 ,..., en es decir
P Q = e1 e2 ... en = I.
Ası́, P es invertible y Q = P −1 .
Figura 4.11: Relación entre los vectores de coordenadas en dos bases distintas
Para calcular [p1 ]B2 se deben determinar los coeficientes a1 , a2 y a3 tales que
a1 q1 + a2 q2 + a3 q3 = p1 ,
Procediendo de forma similar, para calcular [p2 ]B2 deben hallarse los coeficientes b1 , b2 y b3 tales
que
3b1 +b3 = 1
b1 +b2 = 1
−b1 −b3 = 0
y para calcular [p3 ]B2 deben hallarse los coeficientes c1 , c2 y c3 tales que
3c1 c3 = 1
c1 +c2 = 1
−c1 −c3 = 1
Hay que resolver entonces tres sistemas lineales. Como éstos tienen la misma matriz de coeficientes
es posible hacerlo en forma simultánea. Para ello, se aplica Gauss-Jordan a la matriz aumentada
3 0 1 : 1 1 1
1 1 0 : 0 1 1
−1 0 −1 : 0 0 1
obteniéndose su forma escalonada reducida:
1 1
1 0 0 : 2 2 1
0 1 0 : − 1 1
2 2 0 .
0 0 1 : − 21 − 12 −2
El siguiente teorema nos permitirá aplicar resultados de los vectores de Rn a los vectores de cualquier
espacio vectorial de dimensión n.
Teorema 4.15. Sea B una base de un espacio vectorial V de dimensión n y sean v1 , v2 ,...,
vk vectores de V, entonces:
2. v es un vector del espacio generado por {v1 , v2 , ..., vk } si y sólo si [v]B está en el espacio
generado por {[v1 ]B , [v2 ]B , ..., [vk ]B }.
Demostración. Al final de la sección se encuentra una prueba de la parte 1. Las demás se han dejado
como ejercicio.
1 1 2 −2
Fácilmente se comprueba que S 0 es una base de R4 (verifı́quelo) y por lo tanto S es una base de
M2 .J
[v]B2 = P [v]B1 , ∀v ∈ V.
[v]B2 = A [v]B1 ,
para todo v ∈ V. En particular esta última igualdad debe verificarse para los vectores uj de la base
B1 . Es decir,
A [uj ]B1 = [uj ]B2 , ∀j = 1, 2, ..., n.
De acuerdo al Ejemplo 4.71 , [uj ]B1 = ej , luego
Por otra parte, si a1 , a2 ,..., an son las sucesivas columnas de la matriz A, entonces
Aej = aj , ∀j = 1, 2, ..., n.
Ası́,
aj = [uj ]B2 , ∀j = 1, 2, ..., n.
Luego, A = [u1 ]B2 [u2 ]B2 ... [un ]B2 y por lo tanto la matriz A es la matriz P de transición
de la base B1 a la base B2 .
por lo cual
Reemplazando las expresiones (4.11) en (4.10) y operando (verificar), se obtiene el vector w ex-
presado como combinación lineal de los vectores de la base B:
w = (c1 a11 + c2 a12 + ... + ck a1k ) u1 +(c1 a21 + c2 a22 + ... + ck a2k ) u2 +...+(c1 an1 + c2 an2 + ... + ck ank ) un .
Los coeficientes que acompañan a los vectores u1 , u2 ,..., un de la expresión anterior son las coor-
denadas del vector w con respecto a la base B. Ası́:
c1 a11 + c2 a12 + ... + ck a1k
c1 a21 + c2 a22 + ... + ck a2k
[c1 v1 + c2 v2 + ... + ck vk ]B =
..
.
c1 an1 + c2 an2 + ... + ck ank
a11 a12 a1k
a21 a22 a2k
= c1 . + c2 . + ... + ck .
.. .. ..
an1 an2 ank
Ejercicios
−3
0
2
c) B = 1 + x + x3 , x − x2 , 2 − 3x + x2 , x + x2 − x3 una base de P3 , [p]B =
3
−4
3. Calcule el vector [u]B siendo B = {(−1, 3), (2, −2)} una base (ordenada) de R2 y u = (0, 4).
4. Calcule el vector de coordendas [p]B considerando una base (ordenada) B de Pn y el polinomio
p, en cada caso:
a) B = 1 + 2x, −x2 , x + x2 base de P2 , p = −1 + 3x + 2x2
1 1 2 0 1 2 −2 0
5. Sea B = , , , una base (ordenada) del espacio M22 .
0 0 −1 0 3 4 0 0
a) Obtenga la matriz A si (A)B = (4, 2, 6, −3).
−1 3
b) Halle el vector de coordenadas de la matriz con respecto a la base B.
1 2
6. Sea el subespacio finito dimensional W = {aex + be−x : a, b ∈ R} de F(R).
a) Obtenga una base para W y denomı́nela S.
b) Calcule el vector de coordenadas [f ]S siendo f (x) = cosh x, x ∈ R.
1
c) Halle g(x) si [g]S = 2
− 12
7. Demuestre el recı́proco del Teorema 4.12: Sea S = {u1 , u2 , ..., un } un subconjunto de un espacio
vectorial V. Si todo vector v de V puede escribirse de manera única como combinación lineal de
los vectores de S entonces S es una base de V.
8. Halle la matriz de transición de la base (ordenada) B1 a la base (ordenada) B2 del espacio V
que se indica en cada caso:
a) V = R2 ; bases B1 = {u1 , u2 } y B2 = {v1 , v2 } donde u1 = (−2, 3), u2 = (1, −1),
v1 = (0, −2), v2 = (3, 2).
b) V = R3 ; bases B1 = {u1 , u2 , u3 } y B2 = {v1 , v2 , v3 } donde u1 = e2 , u2 = e3 , u3 = e1 ,
v1 = e1 , v2 = e2 , v3 = e3 .
c) V = P1 ; bases B1 = {p1 , p2 } y B2 = {q1 , q2 } donde p1 = 1, p2 = 2 + x, q1 = 2 − x,
q2 = 3 + 4x.
d ) V = M22 ; bases B1 = {A1 , A2 , A3 , A4 } y B2 = {C1 , C2 , C3 , C4 } donde
A1 = E11 C1 = E11
A2 = E11 + E12 C2 = E12
A3 = E11 + E12 + E21 C3 = E21
A4 = E11 + E12 + E21 + E22 C4 = E22
v1 = cos θ e1 + sen θ e2 ,
π π
v2 = cos θ + e1 + sen θ + e2 = − sen θ e1 + cos θ e2 .
2 2
Luego,
cos θ − sen θ
[v1 ]E = y [v2 ]E =
sen θ cos θ
Ası́, la matriz Q de transición de B a E es
cos θ − sen θ
Q= [v1 ]E [v2 ]E =
sen θ cos θ
y la matriz P de transición de E a B es
−1 cos θ sen θ
P =Q = = [e1 ]B [e2 ]B .
− sen θ cos θ
Por lo tanto, se verifican las siguientes relaciones entre los vectores de coordenadas:
0
x cos θ − sen θ x
=
y sen θ cos θ y0
y
x0
cos θ sen θ x
= .
y0 − sen θ cos θ y
11. En el espacio P3 , considere la base estándar E y la base B = 1, 2x, −2 + 4x2 , −12x + 8x3
(polinomios de Hermite).
12. (Caso particular de la parte 1 del Teorema 4.15) Considere el espacio vectorial P2 y la
base B = 1, 1 + x, 1 + x + x2 . Para los polinomios p1 = 2x + x2 y p2 = 5 − 3x, verifique:
espacio P3 .
a su forma escalonada reducida. Las primera cuatro columnas de esta matriz son los vectores de
coordenadas con respecto a la base estándar de M2 , de las matrices de la base B2 y las cuatro
últimas columnas son los vectores de coordenadas también con respecto a la base estándar de
M2 , de las matrices de la base B1 .
Aplicando Gauss-Jordan se obtiene:
1 0 0 0 : 3/2 3/2 1 1
0 1 0
0 : 1/2 −1/4 0 −1/2
.
0 0 1 0 : 1/4 1/4 0 0
0 0 0 1 : 1/8 0 0 0
Obtenga las dos matrices de transición (de la base B1 a la base B2 y de la base B2 a la base B1 ).
Los vectores
r1 = (a11 , a12 , ..., a1n ) , r2 = (a21 , a22 , ..., a2n ) , ... , rm = (am1 , am2 , ..., amn ) ,
formados a partir de los renglones de A se conocen como vectores renglón de A, mientras que
los vectores
a11 a12 a1n
a21 a22 a2n
a1 = . , a2 = . , ..., an = . ,
.
. .
. .
.
am1 am2 amn
son los vectores columna de A.
El espacio de renglones de A es el subespacio de Rn generado por los vectores renglón de A.
Se simboliza ren(A).
El espacio de columnas de A es el subespacio de Rm generado por los vectores columna de
A. Se simboliza col(A).
1 2 1
Ejemplo 4.78. Para la matriz A = , los espacios de columnas y de renglones de A son:
3 0 3
1 2
col(A) = gen , ,
3 0
y
ren(A) = gen {(1, 2, 1) , (3, 0, 3)} ,
respectivamente.J
El objetivo de esta sección es proveer un método práctico para encontrar bases para el espacio generado
por un conjunto de vectores de Rn . Para ello, se tratará primero el problema de la obtención de bases
para los espacios de renglones y de columnas de una matriz.
Demostración. Para probar que ren(A) = ren(B), se mostrará que todo vector en ren(A) es un vector
de ren(B) y recı́procamente.
Dado que la matriz B se obtiene de la matriz A a través de una sucesión de operaciones elementales
de renglón (suma de vectores y multiplicación por escalares no cero), todo renglón de B es una
combinación lineal de los renglones de A. Como todo vector en ren(B) es una combinación lineal de
renglones de B y éstos a su vez son combinaciones lineales de renglones de A, entonces todo vector
en ren(B) es una combinación lineal de renglones de A. Esto prueba que todo vector en ren(B) es un
vector en ren(A).
Recı́procamente, invirtiendo las operaciones elementales que llevaron la matriz A a la matriz B se
obtiene A a partir de B y por lo tanto todo vector de ren(A) es una combinación lineal de los renglones
de B, es decir, todo vector en ren(A) es un vector en ren(B).
Teorema 4.16. Los renglones no cero de una matriz en forma escalonada por renglones
forman una base para su espacio de renglones.
Teorema 4.17. Los renglones no cero de cualquier forma escalonada por renglones de una
matriz A forman una base para el espacio ren(A).
Demostración. Sea B una forma escalonada de A. Por el teorema anterior, los renglones no cero de
B forman una base para su espacio de renglones. Dado que ren(A) = ren(B) (Lema 4.2) entonces los
renglones no cero de B forman una base para el espacio ren(A).
Estos resultados pueden ser aplicados para facilitar la búsqueda de una base para el espacio generado
por un conjunto de vectores de Rn .
Ejemplo 4.79. Supóngase que se quiere encontrar una base para el espacio generado por los siguientes
vectores de R5 : v1 = (1, −2, 0, 0, 3), v2 = (2, −5, −3, −2, 6), v3 = (0, 5, 15, 10, 0) y v4 = (2, 6, 18, 8, 6).
El espacio generado por el conjunto S = {v1 , v2 , v3 , v4 }, es el espacio de renglones de la matriz
1 −2 0 0 3
2 −5 −3 −2 6
A= 0
.
5 15 10 0
2 6 18 8 6
Los vectores renglón diferentes de cero en esta matriz son: u1 = (1, −2, 0, 0, 3), u2 = (0, 1, 3, 2, 0) y
u3 = (0, 0, 1, 1, 0). Estos vectores forman una base para ren(A) = gen(S). Obsérvese que los vectores
u2 y u3 no son vectores de S.J
El ejemplo anterior ofrece un método para encontrar una base del espacio generado por un conjunto
finito de vectores de Rn :
Observación 4.3. Este método produce una base de gen(S) formada por vectores que, en general,
no son del conjunto S. La ventaja es que este método produce bases “simples” ya que se obtienen
vectores con varias componentes cero.
Al transponerla se obtiene
1 3 0
0 2 4
At =
,
1 5 4
1 1 −4
Por lo tanto, los vectores (1, 3, 0) y (0, 1, 2) forman una base para ren(At ) o, lo que es equivalente,
los vectores
1 0
u1 = 3 y u2 = 1 ,
0 2
forman una base para col(A). Nótese que el vector u2 de la base obtenida no es una columna de A es
decir se obtuvo una base de col(A) que no está compuesta totalmente por columnas de dicha matriz.J
En el ejemplo anterior se usó el hecho de que col(A) = ren(At ) y se aplicó la técnica del Ejemplo 4.79
a la matriz At para hallar una base de col(A).
A continuación se darán una serie de resultados que brindarán una forma alternativa de hallar una
base para el espacio de columnas de una matriz A que esté formada exclusivamente por columnas de
dicha matriz. Para ello se verá primero el siguiente ejemplo:
Ejemplo 4.81. Se aplicará una sucesión de operaciones elementales a una matriz A hasta obtener
una forma escalonada (eliminación gaussiana). Se mostrará que las columnas de todas las matrices del
proceso, satisfacen las mismas relaciones de dependencia lineal.
1 −2 2 3 0 1 −2 2 3 0 1 −2 2 3 0
A = −1 2 −1 −2 1 →B= 0 0 1 1 1 →C= 0 0 1 1 1 .
3 −6 5 8 −1 0 0 −1 −1 −1 0 0 0 0 0
En la matriz escalonada C se vé rápidamente, por la forma en que están dispuestos los ceros,
que las columnas pivote c1 y c3 son linealmente independientes. Además se puede observar que las
otras columnas son combinaciones lineales de éstas dos: c2 = −2c1 , c4 = c1 + c3 , c5 = −2c1 + c3 .
Por lo tanto, reduciendo el conjunto generador, col(C) = gen {c1 , c2 , c3 , c4 , c5 } = gen {c1 , c3 }. Ası́ el
conjunto de las columnas pivote de C, {c1 , c3 } es linealmente independiente y generador de col(C), y
por lo tanto es una base de col(C).
Puede comprobarse también para la matriz B, que las correspondientes columnas verifican las
mismas relaciones: b1 y b3 son linealmente independientes y las otras columnas verfican también:
b2 = −2b1 , b4 = b1 + b3 , b5 = −2b1 + b3 . Ası́, {b1 , b3 } es una base de col(B).
Es más difı́cil ver las relaciones de dependencia lineal entre las columnas de la matriz A pero
puede verificarse que las columnas pivote, a1 y a3 , son linealmente independientes y las otras columnas
verifican también las relaciones: a2 = −2a1 , a4 = a1 + a3 , a5 = −2a1 + a3 . Por lo tanto, el conjunto
formado por las columnas pivote de A, {a1 , a3 }, es una base de col(A). J
Observación 4.4. Debe advertirse que el espacio generado por las columnas de una matriz varı́a,
en general, por operaciones elementales de renglón. Nótese del ejemplo anterior, que las columnas
pivote de la matriz C forman una base para col(C) pero no forman una base para el espacio col(A)
(col(A) 6= col(C)).
Lema 4.3. Si las matrices A y B son equivalentes por renglones, las columnas de A y B
verifican
las mismas relaciones
de dependencia lineal. Esto es, si A = a1 a2 ... an y
B = b1 b2 ... bn ,
c1 a1 + c2 a2 + ... + cn an = 0 ⇔ c1 b1 + c2 b2 + ... + cn bn = 0.
Demostración. Dado que una columna cero no se modifica por una operación elemental de renglón, la
misma sucesión de operaciones elementales que transforman la matriz A en la matriz B, transforman la
matriz aumentada [A : 0] en la matriz [B : 0]. Luego, estas dos matrices aumentadas son equivalentes
por renglones y en consecuencia los sistemas lineales homogéneos Ax = 0 y Bx = 0 tienen las mismas
soluciones. Entonces
Ac = 0 ⇔ Bc = 0.
Si las componentes del vector c son c1 , c2 ,..., cn , por definición de producto de una matriz por un
vector, la equivalencia anterior resulta
c1 a1 + c2 a2 + ... + cn an = 0 ⇔ c1 b1 + c2 b2 + ... + cn bn = 0.
Este lema indica que si A y B son matrices equivalentes por renglones, un conjunto de columnas de
A es linealmente dependiente (o independiente) si y sólo si las correspondientes columnas de B son
linealmente dependientes (o independientes).
Por el momento nos restringiremos a las matrices que están en forma escalonada. Se verá que es
fácil encontrar una base para el espacio de columnas de tales matrices.
Teorema 4.18. Las columnas pivote de una matriz que está en forma escalonada por ren-
glones forman una base para su espacio de columnas.
Una demostración de este teorema se puede ver al final de esta sección. Pasemos ahora al caso general:
Teorema 4.19. Las columnas pivote de una matriz A forman una base para el espacio
col(A).
Demostración. Sea A = a1 a2 ... an una matriz de m × n, y B = b1 b2 ... bn una
forma escalonada de A.
Sean bl1 , bl2 ,..., blk las columnas pivote de B. Por el teorema anterior, éstas forman una base para
col(B) y por lo tanto son linealmente independientes y las restantes columnas de B son combinaciones
lineales de ellas.
De acuerdo al Lema 4.3 las columnas de A y B guardan las mismas relaciones de dependencia lineal.
Luego, las correspondientes columnas (pivotes) de A, al1 , al2 ,..., alk , forman un conjunto linealmente
independiente y las restantes columnas son combinaciones lineales de ellas. Por lo tanto,
Ası́, el conjunto de las columnas pivote de A, {al1 , al2 , ..., alk }, es linealmente independiente y
generador de col(A), y por lo tanto es una base de col(A).
Ejemplo 4.82. Como aplicación del teorema anterior, suponga que se pide encontrar un subconjunto
de S = {v1 , v2 , v3 , v4 } donde v1 = (1, −2, 0, 0, 3), v2 = (2, −5, −3, −2, 6), v3 = (0, 5, 15, 10, 0) y
v4 = (2, 6, 18, 8, 6), que sea una base para gen(S). Para ello se forma la matriz A cuyas columnas son
dichos vectores:
1 2 0 2
−2 −5 5 6
A = v1 v 2 v 3 v4 = 0 −3 15 18 ,
0 −2 10 8
3 6 0 6
entonces gen(S) = col(A). De acuardo al Teorema 4.19 el conjunto de las columnas pivote de A forman
una base de col(A). Estas columnas se identifican llevando A a una forma escalonada para obtener las
posiciones pivote. Una forma escalonada de A es la matriz B (verifı́quelo):
1 2 0 2
0 −1 5 10
B= 0 0 1 .
0
0 0 0 0
0 0 0 0
Las posiciones pivote muestran que las columnas pivote son la 1era, la 2da y la 4ta. Por lo tanto, el
conjunto {v1 , v2 , v4 } es una base para col(A). Luego, ésta es una base de gen(S) formada por vectores
de S.J
El ejemplo anterior ofrece un método para hallar una base del espacio generado por un conjunto finito,
S, de vectores de Rn que está compuesta exclusivamente por vectores de S.
Se han estado desarrollando métodos que permiten obtener bases para espacios generados por un sub-
conjunto S de Rn . Estos métodos también pueden emplearse con el mismo fin, en espacios vectoriales
que no son Rn teniendo en cuenta que todos los cálculos con vectores de un espacio vectorial V de
dimensión finita pueden hacerse de forma equivalente con sus vectores de coordenadas.
Teniendo en cuenta los resultados del Teorema 4.15, si B es una base de un espacio vectorial V
de dimensión n y S 0 es el conjunto de los vectores de coordenadas de los vectores de S con respecto a
la base B, entonces H es una base de gen(S) si y sólo si el correspondiente conjunto de vectores de
coordenadas, H 0 , es una base de gen(S 0 ).
En el Ejemplo 4.65 se implementó un procedimiento para hallar una base del espacio generado
por un conjunto, S, de polinomios de P3 reduciendo el conjunto S hasta encontrar un subconjunto de
él linealmente independiente. Ésto resultó un trabajo tedioso pero teniendo en cuenta lo comentado
en el párrafo anterior un problema similar se puede resolver utilizando vectores de coordenadas y
trabajando en Rn lo que facilita los cálculos y el uso de sistemas computacionales. Al respecto veamos
el siguiente ejemplo:
Ejemplo 4.83. Al igual que en el Ejemplo 4.65, sea el subconjunto S = {p1 , p2 , p3 , p4 , p5 } del espacio
vectorial P3 donde p1 = 1 + x + 2x3 , p2 = x + x2 − x3 , p3 = 2 + 3x + x2 + 3x3 , p4 = −1 + x2 − 3x3 y
p5 = 1 + x + x2 + x3 . Se desea encontrar una base para el espacio gen(S) que esté contenida en S.
Para ello, basta con hallar una base para el subespacio de R4 generado por el conjunto S 0 de los
vectores de coordenadas de S respecto a una base cualquiera de P3 . Se elije como base de P3 a la base
estándar E = 1, x, x2 , x3 ya que no hay que resolver ningún sistema lineal para hallar vectores de
2 −1 3 −3 1
El conjunto de las columnas pivote de A es una base para gen(S 0 ). Una forma escalonada de A es
la matriz
2 −1
1 0 1
0 1 1 1 0
B= 0
.
0 0 0 1
0 0 0 0 0
Las posiciones pivote indican que las columnas pivote de A son: [p1 ]E , [p2 ]E y [p5 ]E . Por lo tanto el
conjunto {[p1 ]E , [p2 ]E , [p5 ]E } es una base para gen(S 0 ) y el correspondiente conjunto en P3 , {p1 , p2 , p5 }
es una base para gen(S) (y está contenida en S).J
Demostración. La dimensión de col(A) es el número de columnas pivote de A que son aquellas que
contienen una posición pivote. Por lo tanto:
Por lo tanto,
dim (col(A)) = dim (ren(A)) (= número de pivotes de A) .
Nótese que, de acuerdo al Teorema 4.20, para calcular el rango de una matriz A se debe llevar a ésta
a una forma escalonada por renglones, B. El rango de A es el número de renglones no cero de B o, lo
que es lo mismo, el número de pivotes de B.
Es claro entonces que si A es de m × n entonces ρ(A) ≤ mı́n {m, n}. Por ejemplo, una matriz A
de 5 × 7 no puede tener rango 6 pues ρ(A) ≤ 5.
Puede observarse además que ρ(A) = 0 ⇔ A = O.
Definición (Espacio nulo y nulidad de una matriz). El espacio nulo de una matriz A
de m × n, que se simboliza N (A), es el conjunto de todas las soluciones de Ax = 0. Es decir,
N (A) = {x ∈ Rn : Ax = 0} .
0 0 0 0 : 0
y se observa que x4 es la única variable libre. La solución general del sistema viene dada por
5
x1 = − 11 t
21
x2 = 11 t
1 , t ∈ R.
x3 = 11
t
x4 = t
2 3
Ejemplo 4.85. Sea la matriz A = . Como det(A) = −8 6= 0, el sistema lineal Ax = 0 tiene
0 −4
única solución, la trivial. Luego,
0
N (A) = .
0
No se define base para N (A) ya que es el espacio cero. La dimensión de N (A) es ν(A) = 0.J
Puede observarse en los ejemplos anteriores que la nulidad de la matriz A es igual al número de
variables libres del sistema lineal Ax = 0.
Teorema 4.21. La nulidad de una matriz A es el número de variables libres del sistema
lineal homogéneo que tiene a A como matriz de coeficientes.
Teorema 4.22 (del rango). Para toda matriz A de m × n, la suma del rango y la nulidad es
igual al número de columnas de A, es decir
ρ(A) + ν(A) = n.
Demostración. El rango de una matriz A es el número de columnas pivote de A. Por otra parte la
nulidad de A es el número de variables libres de Ax = 0. Como se tienen tantas variables libres como
columnas no pivote, la nulidad de A es igual a la cantidad de columnas no pivote. Dado que
número de columnas pivote + número de columnas no pivote = número de columnas,
entonces
ρ(A) + ν(A) = n.
Ejemplo 4.86. En el Ejemplo 4.84, ν(A) = 1. Por otro lado, el número de pivotes de A es 3, por lo
que ρ(A) = 3. Luego, ρ(A) + ν(A) = 3 + 1 = 4 que es el número de columnas de A, y ası́ se verifica el
teorema del rango.
En el Ejemplo ??, el número de pivotes de A es 2 por lo que ρ(A) = 2. Por otra parte, ν(A) = 0.
Luego, ρ(A) + ν(A) = 2 + 0 = 2 que es el número de columnas de A. J
Ejemplo 4.87. Si el sistema lineal Ax = 0 tiene 25 incógnitas y ρ(A) = 15, puede deducirse que A
tiene 25 columnas, que ν(A) = 10 y que el número m de renglones de A es m ≥ 15.J
Las nociones desarrolladas en esta sección están relacionadas con los sistemas lineales. Dado que el
sistema lineal Ax = b es consistente si y sólo si el vector b es combinación lineal de las columnas de
A, se tiene el siguiente teorema:
Y en relación a los sistemas lineales y al rango de una matriz, se tiene el siguiente resultado:
Ejemplo 4.88. Sea Ax = b un sistema lineal de 20 ecuaciones con 25 incógnitas donde el espacio
nulo de A está generado por cinco vectores linealmente independientes. Se desea saber si el sistema es
consistente para cualquier vector b de R2 0.
La nulidad de la matriz A es 5, de modo que su rango es 20. Ası́, el espacio de columnas es R20 .
Luego, ρ (A) = ρ ([A : b]) = 20, para todo b ∈ R20 y por lo tanto Ax = b es consistente para cualquier
vector b ∈ R20 .J
Teorema 4.25. Sea A una matriz A de n × n. Entonces las siguientes proposiciones son
equivalentes:
1. |A| =
6 0.
2. A es invertible.
7. ν(A) = 0
8. ρ(A) = n
11. col(A) = Rn .
12. ren(A) = Rn .
Demostración. Las equivalencias de (1) a (6) han sido probadas en el Teorema 3.16. Se probará aquı́
las equivalencias restantes. Para ello se seguirá el siguiente orden en las implicancias (6) ⇒ (7) ⇒
(8) ⇒ (9) ⇒ (10) ⇒ (11) ⇒ (12), probando luego que (12) ⇒ (6).
(6) ⇒ (7) Si A es equivalente por renglones a la matriz identidad, In , entonces las n columnas de
A son columnas pivote por lo cual Ax = 0 no tiene variables libres y ası́ ν(A) = 0.
(9) ⇒ (10) Si los n renglones de A forman un conjunto linealmente independiente, como este conjun-
to es generador de ren(A), entonces forman una base para ren(A) y por lo tanto dim(ren(A)) = n.
Por el Teorema 4.20, también dim(col(A)) = n y dado que el conjunto de las n columnas de A es
generador de col(A) entonces (Teorema 4.9) las n columnas de A forman una base para col(A)
y por lo tanto son linealmente independientes.
(10) ⇒ (11) Las n columnas de A generan col(A) y dado que son linealmente independientes,
entonces forman una base para col(A). Ası́ dim(col(A)) = n y como col(A) es un subespacio de
Rn , entonces (Teorema 4.12) col(A) = Rn .
(11) ⇒ (12) Dado que dim(ren(A)) = dim(col(A)), si col(A) = Rn entonces dim(ren(A)) = n. Como
ren(A) es un subespacio de Rn , necesariamente (Teorema 4.12) ren(A) = Rn .
(12) ⇒ (6) Si ren(A) = Rn entonces dim(ren(A)) = n y por lo tanto A tiene n posiciones pivote.
Luego, la forma escalonada reducida de A es la matriz identidad, In .
Teorema 4.16: Los renglones no cero de una matriz en forma escalonada por renglones
forman una base para su espacio de renglones.
Demostración. Sea B = [bij ] una matriz de m×n en forma escalonada por renglones. Si k es el número
de renglones no cero de B, dado que B está en forma escalonada, éstos son los primeros k renglones,
mientras que los últimos m − k renglones son renglones cero.
Se probará que el conjunto S = {r1 , r2 , ..., rk } es una base de ren(B).
Los vectores r1 , r2 ,..., rk son todos no cero y como B está en forma escalonada, el elemento delantero
de cada renglón no cero está más a la derecha que el elemento delantero del renglón anterior. Esto
es, si bili es el elemento delantero del renglón i-ésimo debe ser l1 < l2 < ... < lk . Recordando que el
elemento delantero de un renglón no cero es la primera componente no cero de dicho vector, entonces
para cada ri es bili 6= 0 mientras que bij = 0 para todo j < li . Ası́, por ejemplo, los renglones r1 y r2
son de la forma:
Para probar que S es linealmente independiente debe demostrarse que si c1 , c2 ,..., ck son escalares
tales que
c1 r1 + c2 r2 + ... + ck rk = 0,
necesariamente c1 = c2 = ... = ck = 0.
La componente en la posición l1 del vector c1 r1 + c2 r2 + ... + ck rk es c1 b1l1 y las anteriores compo-
nentes son ceros. Si este vector es el vector 0 necesariamente c1 b1l1 = 0 y dado que b1l1 6= 0 debe ser
c1 = 0. Entonces
c1 r1 + c2 r2 + ... + ck rk = 0 ⇔ c1 = 0 y c2 r2 + ... + ck rk = 0.
c1 r1 + c2 r2 + ... + ck rk = 0 ⇔ c1 = 0, c2 = 0 y c3 r3 + ... + ck rk = 0.
c1 r1 + c2 r2 + ... + ck rk = 0 ⇔ c1 = c2 = ... = ck = 0.
Es claro que el conjunto S es generador del espacio ren(B) ya que los últimos m − k renglones de
B son vectores cero y por lo tanto pueden eliminarse generando el mismo espacio. Esto es, ren(B) =
gen {r1 , r2 , ..., rk }.
Se ha probado entonces que los renglones no cero de una matriz en forma escalonada son linealmente
independientes y generan ren(B) y por lo tanto forman una base para el espacio de renglones de B.
Teorema 4.18: Las columnas pivote de una matriz que está en forma escalonada por
renglones forman una base para su espacio de columnas.
Demostración. Sea B = [bij ] una matriz de m × n que está en forma escalonada por renglones. Si k
es el número de renglones no cero de B, dado que B está en forma escalonada, éstos son los primeros
k renglones de B, mientras que los últimos m − k renglones son renglones cero.
Sean b1l1 , b2l2 ,...., bklk los elementos delanteros de los k renglones no cero de B. Entonces las
columnas pivote de B son bl1 , bl2 ,..., blk . Se probará que estas columnas forman una base para
col(B).
Para ello, consderemos la matriz U de m × k formada por las columnas pivote de B:
b1l1 × × ... ×
0
b2l2 × ... ×
0
0 b3l3 ... ×
. .. .. ..
.. . . ... .
U = bl1 bl2 ... blk = , donde bil 6= 0.
0 i
0 0 ... bklk
0 0 0 ... 0
. .. .. ..
.. . . ... .
0 0 0 ... 0
Dado que todos los vectores columna de B tienen sus últimas m − k componentes iguales a cero,
todo vector b de col(B) tendrá sus últimas m − k componentes iguales a cero. Entonces para cualquier
b en col(B), el sistema lineal de matriz aumentada
b1l1 × × ... × : b1
0 b2l2 × ... × : b2
0
0 b3l3 ... × : b3
. .. .. .. ..
.
. . . ... . : . ,
[U : b] =
0 0 0 ... bklk : bk
0 0 0 ... 0 : 0
. . . . .
. . . . .
. . . ... . : .
0 0 0 ... 0 : 0
es consistente y con única solución ya que la última columna de la matriz aumentada no es columna
pivote y todas las columnas de U son pivote. Esto quiere decir que todo vector b en col(B) puede
expresarse de manera única como combinación lineal de las columnas pivote de la matriz B. Esto
prueba que las columnas pivote de B forman una base de col(B).
Teorema 4.21: La nulidad de una matriz A es el número de variables libres del sistema
lineal homogéneo que tiene a A como matriz de coeficientes.
Demostración. Si B es cualquier forma escalonada de la matriz A, se conoce que los sistemas ho-
mogéneos Ax = 0 y Bx = 0 tienen las mismas soluciones, en particular si B es la forma escalonada
reducida de A.
Si ρ(A) = r y A es de m × n, entonces r ≤ m y r ≤ n. Si U es la forma escalonada reducida de A
entonces los primeros r renglones de U son distintos de cero.
Si r = n todas las columnas de U (y por lo tanto de A) son columnas pivote y entonces el sistema
Ax = 0 no tiene variables libres y su única solución es la trivial. Luego, N (A) está formado únicamente
por el vector cero y por lo tanto su dimensión es cero, que es también el número de variables libres de
Ax = 0.
Si r < n no se pierde generalidad si se supone que las columnas pivote son las r primeras columnas.
Más aún como los renglones cero de U (si los tiene) no contribuyen a la solución de U x = 0 estos
renglones pueden descartarse. De modo que las soluciones de Ax = 0 se obtienen del sistema U 0 x = 0
donde U 0 es la matriz de r × n formadas por los r renglones no cero de U . Ası́ las primers r columnas
de U 0 (pivotes) forman la matriz identidad de orden r y las últimas n − r son las columnas no pivote
es decir
1 0 ... 0 c1 r+1 ... c1n
0 1 ... 0 c2 r+1 ... c2n
U0 = . . .. .
. ..
.. .. ... .. . ... .
0 0 ... 1 cr r+1 ... crn
x1
..
.
xr 0
Siendo el vector de las incógnitas x =
xr+1 , la forma estándar de U x = 0 es
..
.
xn
x1 + c1 r+1 xr+1 + c1 r+1 xr+1 + ... + c1n xn = 0
x2 + c2
r+1 xr+1 + c2 r+1 xr+1 + ... + c2n xn = 0
..
.
xr + cr r+1 xr+1 + cr r+1 xr+1 + ... + crn xn = 0
Asignando valores arbitrarios s1 , s2 ,...,sr−n a las variables libres xr+1 , xr+2 ,...,xn , respectivamente, la
Ejercicios
1. Para cada matriz encuentre una base para su espacio de renglones, una base para su espacio de
columnas y, si es posible, una base para su espacio nulo. Determine además el rango y la nulidad
de cada matriz.
2 −3 5 3 −1 2 1
3 −2 8 2 1 4 0 0 −4 3 5
0 8
a) 0 0 −8 5 0 −10 b)
0
c)
0 0 0 0 2 1
0 0 0 0 0 2
0 0 0 0 0 0 10
2. Para cada matriz encuentre una base para su espacio de renglones, una base para su espacio de
columnas y, si es posible, una base para su espacio nulo. Determine además el rango y la nulidad
de cada matriz.
3 2 −1
1 2 −3 0 2 −3 1 2 6 3 5
a) 2 4 8 b) 0 −2 3 3 1 c)
3
1 6
−1 −5 0 0 4 −6 6 7
0 1 −7
−1 1 1 2
3. Dada la matriz A = 2 2 2 4 .
0 1 1 2
5. Utilice vectores de coordenadas para determinar una base del subespacio gen(S) de V, siendo:
7. En cada caso, obtenga un subconjunto de S que sea una base del subespacio gen(S) de V.
1 2 −1 0 1
a) S = 3 ,
0 ,
1 ,
1 , 1 , V = R3
1 −1 0 −1 1
b) S = 1 + 3x − x2 + x3 , 1 + x + x3 , 2 + x2 + x3 , −1 + x − x2 , x + x3 , V = P3
1 1 2 0 1 3 1 0 2 1
c) S = , , , , , V = M2
0 1 1 1 −1 1 0 1 1 1
Esto muestra que las k primeras columnas de A son columnas pivote y las restantes n − k
columnas pivote están entre las n últimas columnas. Ası́ el conjunto de las columnas pivote de
A contiene al conjunto S y es una base de Rn .
1 1
2 1
Por ejemplo, el conjunto S = 4
3 , −1 de R es linealmente independiente. Para
0 1
obtener una base de R4 que contenga a S, formamos la matriz
1 1 1 0 0 0
2 1 0 1 0 0
A= 3 −1 0 0 1 0 .
0 1 0 0 0 1
Claramente col(A) = R4 por lo que el conjunto de las columnas pivote de A formarán una base
para R4 . Una forma escalonada de A es la matriz
1 1 1 0 0 0
0 1 2 −1 0 0
B=
0 0 5 −4 1 0
0 0 0 −3 2 5
que me indica que las primera, segunda, tercera y cuarta columna de A son las columnas pivote
de A. Luego, el conjunto
1 1 1 0
2 1 0 1
0
S = ,
, ,
3 −1 0 0
0 1 0 0
a) Amplı́e el conjunto linealmente independiente S hasta obtener una base del espacio vectorial
V indicado en cada caso.
1 0
−1 1
i) S = 4
, 1 , V = R
2
3 −1
1 1 0
1 1 0
ii) S = 0 , 1 , 2 , V = R5
0 1 2
0 1 1
10. Si el sistema lineal homogéneo Ax = 0 tiene 300 incógnitas y su espacio solución está generado
por 65 vectores linealmente independientes. ¿Cuál es el rango de A?
13. Sea Ax = b un sistema lineal de 400 ecuaciones y 480 incógnitas. Si el conjunto solución del
sistema lineal homogéneo Ax = 0 está generado por 80 vectores linealmente independiente, ¿es
consistente el sistema Ax = b, para todo vector b ∈ R400 ?
Recordemos que una n-upla ordenada de números reales es una sucesión (a1 , a2 , ..., an ) de n núme-
ros reales. El conjunto de todas las n-uplas ordenadas de números reales se conocen como el espacio
n dimensional y se denota por Rn .
Si n = 2 ó n = 3, las n-uplas son pares ordenados o ternas ordenadas, respectivamente. Si n = 1
cada n-upla es un número real y por lo tanto R1 se concibe como el conjunto R de los números reales
y se escribe R en lugar de R1 .
En el estudio del espacio de dos dimensiones y de tres dimensiones, los sı́mbolos (a1 , a2 ) y (a1 , a2 , a3 )
tienen dos interpretaciones geométricas. Pueden interpretarse como puntos en el plano y en el espacio,
respectivamente, en cuyo caso (a1 , a2 ) y (a1 , a2 , a3 ) son las coordenadas de dichos puntos. También
pueden considerarse como vectores (o segmentos de recta dirigidos) en cuyo caso (a1 , a2 ) y (a1 , a2 , a3 )
son las componentes de dichos vectores (Figura 5.1).
Por lo tanto una n-upla de números reales (a1 , a2 , ..., an ) se puede concebir como un “vector
generalizado” o como un “punto generalizado”. Se tiene la libertad de describir a una n-upla de
números reales como un punto en Rn donde sus coordenadas son ai con i = 1, 2, ..., n o como un vector
donde las ai con i = 1, 2, ..., n son sus componentes.
Recordemos que el producto punto o producto escalar entre dos vectores u = (u1 , u2 , ..., un ) y
v = (v1 , v2 , ..., vn ) de Rn , es el número real dado por
u · v = u1 v1 + u2 v2 + ... + un vn ,
que es la generalización del producto escalar en R2 y R3 . Las propiedades fundamentales del producto
punto son:
1. u · v = v · u
2. u · (v + w) = u · v + u · w
3. c (u · v) = (cu) · v
4. u · u ≥ 0 y u · u = 0 si sólo si u = 0
Demostración. Se probarán aquı́ las propiedades 1. y 4. dejando las restantes como ejercicio.
Sean u = (u1 , u2 , ..., un ) y v = (v1 , v2 , ..., vn ) entonces
1. u · v = u1 v1 + u2 v2 + ... + un vn = v1 u1 + v2 u2 + ... + vn un = v · u.
4. Dado que u2i ≥ 0 para todo i = 1, 2, ..., n entonces u · u = u21 + u22 + ... + u2n ≥ 0.
Además esta última expresión es cero si y sólo si u1 = u2 = ... = un = 0 lo que equivale a decir
que u = 0.
Los vectores de R2 o R3 pueden caracterizarse como segmentos de recta dirigidos con cierta longitud y
dirección. Se usará R2 (o R3 ) como modelo para extender a Rn los conceptos de longitud de un vector,
distancia y ángulo entre vectores.
1 1 1 1
Ejemplo 5.1. Las normas euclidianas de los vectores u = (2, −3, 0, 4, −1) y v = 2, −2, −2, −2 son:
p √
kuk = 22 + (−2)2 + 02 + 42 + (−1)2 = 30,
y s
1 2
2 2 2
1 1 1
kvk = + − + − + − = 1,
2 2 2 2
respectivamente. J
Los vectores que tienen norma euclidiana igual a 1, como el vector v del ejemplo anterior, se denominan
vectores unitarios.
Distancia euclidiana
En la Geometrı́a euclidiana la distancia d entre dos puntos en el plano (u1 , u2 ) y (v1 , v2 ) es
p
d = (u1 − v1 )2 + (u2 − v2 )2 .
En término de vectores esta distancia es la norma o longitud del vector u − v siendo u = (u1 , u2 )
y v = (v1 , v2 ) como se observa en la Figura 5.3.
Nota: Es fácil comprobar que la norma satisface las siguientes propiedades, para cualesquiera vectores
u y v de Rn y cualquier número real c:
1. kuk ≥ 0 y kuk = 0 ⇔ u = 0.
A partir de éstas, dado que d (u, v) = ku − vk, se deducen las siguientes propiedades de la distancia
en el espacio euclidiano Rn :
1. d (u, v) ≥ 0 y d (u, v) = 0 ⇔ u = v.
2. d (u, v) = d (v, u) .
Actividad 5.1. Demuestre las propiedades de la norma y la distancia enunciadas, a partir de las
propiedades del producto punto en Rn .
(u · u) x2 + 2 (u · v) x + (v · v) ≥ 0.
|u · v| ≤ kuk kvk .
Se deja como ejercicio probar que vale la igualdad en la desigualdad de Cauchy-Schwartz si y sólo
si uno de los vectores es un múltiplo escalar del otro.
Actividad 5.2. Verifique la desigualdad de Cauchy-Schwartz para u = (1, −2, 3, 0) y v = (0, 4, −2, 5).
Utilizaremos la desigualdad de Cauchy-Schwartz para definir el ángulo entre dos vectores no cero del
espacio euclidiano Rn . Si u y v son vectores no cero de Rn , de acuerdo a la desigualdad de Cauchy-
Schwartz
|u · v| ≤ kuk kvk ,
y por lo tanto
− kuk kvk ≤ u · v ≤ kuk kvk .
Ya que kuk kvk > 0, dado que u 6= 0 y v 6= 0, dividiendo entre kuk kvk se tiene
u·v
−1 ≤ ≤ 1.
kuk kvk
La desigualdad de Cauchy-Schwartz nos permite entonces dar por bien definida la noción de ángulo
entre dos vectores no cero de Rn como una extensión de la ya conocida noción de ángulo entre vectores
de R2 y R3 :
Definición (Ángulo entre vectores). Sean u y v vectores no cero del espacio euclidiano
Rn . El ángulo θ entre u y v es el único ángulo tal que
u·v
cos θ = y 0 ≤ θ ≤ π.
kuk kvk
Aunque el ángulo entre el vector cero y otro vector no está definido, se conviene en extender la definición
de vectores ortogonales para incluir al vector cero. Ası́, el vector cero es ortogonal a cualquier otro
vector.
Ejemplo 5.3. Los vectores u = (3, 2, −1, 4) y v = (1, −1, 1, 0) son ortogonales ya que u · v = 0. J
La longitud de cualquier lado de un triángulo es menor que la suma de las longitudes de los otros
lados. En el siguiente teorema se muestra que esta desigualdad se puede generalizar para cualquier
par de vectores en el espacio euclidiano Rn :
ku + vk2 = (u + v) · (u + v)
= u·u+v·u+u·v+v·v
= kuk2 + 2 (u · v) + kvk2
≤ kuk2 + 2 |u · v| + kvk2 (ya que x ≤ |x|, para todo x ∈ R)
2 2
≤ kuk + 2 kuk kvk + kvk (desigualdad de Cauchy-Schwartz |u · v| ≤ kuk kvk)
2
= (kuk + kvk) .
ku + vk ≤ kuk + kvk .
Teorema 5.4 (de Pitágoras). Los vectores u y v del espacio euclidiano Rn son ortogonales
si y sólo si
ku + vk2 = kuk2 + kvk2 .
Demostración. Ejercicio 6.
Ejercicios
Todo espacio vectorial con un producto interior se llama espacio con producto interior o
espacio con producto interno.
Ejemplo 5.4. El espacio vectorial Rn con hu, vi = u · v satisface todos los axiomas de un producto
interior (Teorema 5.1). Por lo tanto el espacio euclidiano Rn es un espacio con producto interno. J
Las siguientes propiedades se deducen a partir de los cuatro axiomas del producto interno:
1. hu, 0i = h0, ui = 0.
Demostración. Probaremos la propiedad 2. Se dejan las restantes como ejercicio (Ejercicio 4).
2. Si w = (w1 , w2 ), entonces
Ejemplo 5.6. El ejemplo anterior puede generalizarse al espacio vectorial Rn para demostrar que:
dados u = (u1 , u2 , ..., un ) y v = (v1 , v2 , ..., vn ) entonces
hu, vi = c1 u1 v1 + c2 u2 v2 + ... + cn un vn
define un producto interno en Rn si y sólo si ci > 0 para todo i = 1, 2, ..., n. (Ejercicio 1).J
el cual se hace negativo para aquellos vectores u cuyas componentes son tales que u21 + u23 < 2u22 . Por
ejemplo, tomando u = (0, 1, 0) entonces hu, ui = −2 < 0.J
hp, qi = a0 b0 + a1 b1 + a2 b2 ,
Ejemplo 5.9. El ejemplo anterior puede generalizarse al espacio vectorial Pn para demostrar que:
dados p = a0 + a1 x + ... + an xn y q = b0 + b1 x + ... + bn xn , entonces
hp, qi = a0 b0 + a1 b1 + ... + an bn ,
a11 a12 b11 b12
Ejemplo 5.10. En el espacio vectorial M2 , si A = yB= , la asignación
a21 a22 b21 b22
hA, Bi = a11 b11 + a12 b12 + a21 b21 + a22 b22 ,
define un producto interno (Ejercicio 3).J
Ejemplo 5.11. En el espacio vectorial Mmn , si A = [aij ] y B = [bij ] entonces hA, Bi definida como
la suma de los productos de los elementos de A por los homólogos de B, es un producto interno que
denominaremos producto interno estándar o canónico en Mmn .
Nótese que este producto interno es el producto punto entre los vectores de coordenadas de A y
B con respecto a la base estándar de Mmn .J
Ejemplo 5.12. Sean f y g funciones del espacio vectorial C [a, b] que consta de las funciones reales
continuas en el intervalo cerrado [a, b], la asignación
Z b
hf, gi = f (x)g(x) dx,
a
define un producto interno en dicho espacio. En efecto utilizando propiedades del Cálculo se verifican
los cuatro axiomas de la definición de producto interno.
Z b Z b
1. hf, gi = f (x)g(x) dx = g(x)f (x) dx = hg, f i
a a
b Z Z b
2. hf + g, hi = (f (x) + g(x)) h(x) dx = (f (x)h(x) + g(x)h(x)) dx =
Z b a Z b a
4. Ya que f 2 (x) = f (x)f (x) ≥ 0 para toda x ∈ [a, b] y la integral definida de una función continua
no negativa es no negativa:
Z b Z b
hf, f i = f (x)f (x) dx = f 2 (x) dx ≥ 0.
a a
Z b
Además hf, f i = f 2 (x) dx = 0 si y sólo si f 2 (x) = 0 para toda x ∈ [a, b] y esto es si y sólo si
a
f (x) = 0 en [a, b] y por lo tanto f es la función cero en C [a, b].J
La distancia entre los vectores u y v, se denota por d (u, v), y está dada por
p
d (u, v) = ku − vk = hu − v, u − vi.
1 −2 1 1
Ejemplo 5.13. Sean A = y B = matrices del espacio M2 con el producto
0 3 −1 2
interno estándar. Entonces, la norma de la matriz A es
p p √
kAk = hA, Ai = 1(1) + (−2)(−2) + 0(0) + 3(3) = 14,
y la distancia entre las matrices A y B es
p p √
d (A, B) = kA − Bk = hA − B, A − Bi = 0(0) + (−3)(−3) + 1(1) + 1(1) = 11. J
Ejemplo 5.14. Sea el espacio R2 con el producto interno hu, vi = 3u1 v1 + 2u2 v2 , analizado en el
Ejemplo 5.5. Si u = (1, 0) y v = (0, 1) entonces
p p √
kuk = hu, ui = 3(12 ) + 2(02 ) = 3,
p √
kvk = 3(02 ) + 2(12 ) = 2,
y p √
d (u, v) = ku − vk = k(1, −1k = 3(12 ) + 2(−1)2 = 5. J
Observación 5.2. Debe tenerse presente que la norma y la distancia definidas están inducidas por
un producto interior. Si se cambia el producto interior, las normas y distancias también cambian.
Por ejemplo, si en R2 se considera el producto punto,
√ la norma de u = (1, 0) es igual a la norma de
v = (0, 1), igual a 1, y la distancia entre u y v es 2 (véase ejemplo anterior).
Aunque las fórmulas con que se definen la norma y la distancia son imitaciones de las dadas en el
espacio euclidiano Rn , los resultados que se obtienen en el Ejemplo 5.14 pueden dar a lugar a dudas
acerca de lo adecuado
√ de estas definiciones, se√requiere mucha imaginación para afirmar que la longitud
del vector (1, 0) es 3 (y que la de (0, 1) es 2).
El argumento en apoyo de estas definiciones es que las fórmulas con que se definen norma y
distancia en un espacio con producto interno satisfacen las mismas propiedades que la longitud y
distancia euclidianas en Rn .
p
Teorema 5.7. Si V es un espacio con producto interno, entonces la norma kuk = hu, ui, y
la distancia d (u, v) = ku − vk, satisfacen las propiedades básicas de la norma y la distancia
euclidiana en Rn :
Demostración. Son análogas a las demostraciones de las mismas propiedades en el espacio euclidiano
Rn de la sección anterior.
Definición (Ángulo entre dos vectores). Sea V un espacio con producto interno, sean u
y v vectores no cero de V. El ángulo θ entre u y v, es el único ángulo tal que
hu, vi
cos θ = , y 0 ≤ θ ≤ π.
kuk kvk
hu,vi
La desigualdad de Cauchy-Schwartz garantiza que el cociente kukkvk toma valores entre −1 y 1, y por
hu,vi
lo tanto θ = arc cos kukkvk está bien definido.
Ejemplo 5.15. Para los vectores u = (1, −1) y v = (1, 1) de R2 con el producto punto, el coseno del
ángulo θ que forman los vectores u y v es
por lo tanto θ = π2 .
En cambio, si se considera el producto interno hu, vi = 3u1 v1 + 2u2 v2 entonces el coseno del ángulo
θ entre ellos es
h(1, −1), (0, 1)i 1 1
cos θ = =√ √ = ,
k(1, −1)k k(1, 1)k 5 5 5
y por lo tanto θ = arc cos 51 ' 78, 5◦ .J
Si u y v son vectores diferentes de cero tales que hu, vi = 0, se deduce de la definición de ángulo entre
vectores que cos θ = 0 y θ = π2 . Esto sugiere la siguiente definición:
Debe notarse que la ortogonalidad depende del producto interior. Dos vectores pueden ser ortogonales
con respecto a un producto interior y no con respecto a otro (véase Ejemplo 5.15).
Ejemplo 5.16. En el espacio C [−1, 1] de las funciones continuas en el intervalo cerrado [−1, 1], sea
Z 1
el producto interior hf, gi = f (x)g(x) dx analizado en el Ejemplo 5.12. Las funciones f y g tales
−1
que f (x) = x y g(x) = x2 son ortogonales. En efecto:
Z 1 Z 1
2
hf, gi = xx dx = x3 dx = 0. J
−1 −1
Teorema 5.8 (de Pitágoras generalizado). Sea V un espacio con producto interno y u y v
vectores de V. Entonces u y v son ortogonales si y sólo si ku + vk2 = kuk2 + kvk2 .
hu, vi
proyv u = v.
hv, vi
El vector proyección proyv u es un múltiplo escalar de v, por lo tanto es un vector del subespacio
gen {v}. Ası́, a este vector, se lo puede considerar como la proyección de u sobre el subespacio generado
por v. La proyección ortogonal de u sobre v goza de las siguientes propiedades:
1. Es el único vector w en gen {v} tal que u − w es ortogonal al espacio gen {v}.
Sea w ∈ gen {v} y w 6= proyv u. Para probar que d (u, proyv u) < d (u, w), por definición de
distancia debe probarse que
ku − proyv uk < ku − wk .
Para ello, sumando y restando proyv u se tiene
u − w = (u − proyv u) + (proyv u − w) .
El vector proyv u − w es un vector de gen {v} por ser resta de dos vectores de gen {v}. Por otro
lado, el vector u−proyv u es ortogonal a todo vector de gen {v}. Luego, los vectores (u − proyv u)
y (proyv u − w) son ortogonales.
ku − wk2 = k(u − proyv u) + (proyv u − w)k2 = k(u − proyv u)k2 + k(proyv u − w)k2 .
ku − wk > ku − proyv uk ,
es decir
d (u, w) > d (u, proyv u) .
Ejercicios
5. Suponga que el espacio R2 tiene el producto interno definido en el Ejemplo 5.5, y sean los vectores
u = (1, 1) y v = (5, −1).
6. En el espacio P2 considere el producto interno estándar, y sean los polinomios p y q dados por
p(x) = 4 + x y q(x) = 3 − 2x + x2 .
8. En el espacio vectorial C [0, π], considere el producto interno definido en el Ejemplo 5.12, y sean
las funciones f , g y h dadas por f (x) = x, g(x) = ex y h(x) = sen x.
9. Sea V un espacio con producto interno. Demuestre que u es ortogonal al espacio gen {u1 , u2 , ..., uk }
si y sólo si es ortogonal a cada uno de los vectores u1 , u2 , ..., uk .
10. Sea V un espacio con producto interno. Pruebe que el único vector de V que es ortogonal a cada
vector de V es el vector cero.
12. Sea u un vector de un espacio con producto interno V y sea W el conjunto de todos los vectores
de V que son ortogonales a u.
a) Pruebe W es un subespacio de V.
b) Describa geométricamente el subespacio W en el caso en que V es el espacio euclidiano R2
o R3 .
hu1 , u2 i = u1 · u2 = 0,
hu1 , u3 i = u1 · u3 = 0,
hu2 , u3 i = u2 · u3 = 0,
y además ku1 k = ku2 k = ku3 k = 1.J
Ejemplo 5.18. En el espacio M2 con el producto interno estándar, el conjunto S = {A, B, C} donde
1 −1 −2 −2 1 −1
A= , B= y C= ,
2 0 0 1 0 0
Nota: Debe observarse que todo conjunto unitario, S = {v}, en un espacio con producto interno es
un conjunto ortogonal dado que no existen dos vectores distintos en S cuyo producto interno no sea
cero.
1
Ejemplo 5.19. En un espacio con producto interior, si v 6= 0, entonces kvk v es un vector de norma
uno dado que
1 1
v = kvk = 1. J
kvk kvk
El proceso de multiplicar un vector v no cero por el recı́proco de su longitud para obtener un vector de
norma uno, se denomina normalización del vector v. Es claro que cualquier conjunto ortogonal de
vectores no ceros se transforma en un conjunto ortonormal si se normaliza cada vector del conjunto.
Los vectores ortogonales tienen muchas propiedades, la principal se dá en el siguiente teorema:
c1 u1 + c2 u2 + ... + ck uk = 0. (5.3)
Dado que S es un conjunto ortogonal huj , ui i = 0 si j 6= i, por lo tanto la suma del primer miembro
se reduce al único término ci hui , ui i y la última igualdad se reduce a
ci hui , ui i = 0.
Dado que los vectores de S son no cero, por el axioma de positividad es hui , ui i > 0, y por lo
tanto ci = 0. Como esto se verifica para todo ui de S, entonces c1 = c2 = ... = ck = 0 y luego S es
linealmente independiente.
Se completa la prueba del teorema observando que todo conjunto ortonormal es un conjunto
ortogonal de vectores no cero y por lo tanto es linealmente independiente.
Ejemplo 5.20. El conjunto S del Ejemplo 5.17 es una base ortonormal del espacio euclidiano R3 ya
3
que dim R = 3 y S es un conjunto ortonormal que consta de 3 vectores.J
El interés en encontrar bases ortonormales para espacios con producto interno está en parte motivado
por el teorema que sigue, el cual muestra que puede ser sencillo expresar un vector en términos de una
base ortogonal.
Teorema 5.11. Si S = {u1 , u2 , ..., un } es una base ortogonal para un espacio V con producto
interno y v es cualquier vector de V entonces
Demostración. Sea v un vector de V. Dado que S es una base de V, existen únicos escalares c1 , c2 ,...,
cn tales que
v = c1 u1 + c2 u2 + ... + cn un . (5.4)
hv, ui i
Se demostrará que ci = para cada i = 1, 2, ..., n.
hui , ui i
De acuerdo a (5.4), para cada vector ui en S,
Dado que S es un conjunto ortogonal, huj , ui i = 0 si j 6= i. Por lo tanto la suma anterior se reduce
al único término ci hui , ui i. Ası́
hv, ui i = ci hui , ui i .
Por ser S una base, ui 6= 0, luego hui , ui i =
6 0 por lo cual
hv, ui i
ci = , para cada i = 1, 2, ..., n.
hui , ui i
Es evidente la utilidad del teorema si se tiene presente que por lo general es necesario resolver un
sistema de ecuaciones lineales para expresar un vector en términos de una base que no es ortogonal.
Ahora se considera el problema de construir bases ortonormales. Para ello se deben considerar los
siguientes resultados preliminares:
Teorema 5.12. Sea V un espacio con producto interno y S = {u1 , u2 , ..., uk } un conjunto
ortogonal de vectores no cero en V. Si W = gen(S) entonces todo vector v en V se puede
expresar en la forma
v = w1 + w2 ,
donde w1 está en W y w2 = v − w1 es ortogonal a W siendo
hv − w1 , ui i = hv, ui i − hw1 , ui i
hv, u1 i hv, u2 i hv, uk i
= hv, ui i − u1 + u2 + ... + uk , ui
hu1 , u1 i hu2 , u2 i huk , uk i
hv, u1 i hv, u2 i hv, uk i
= hv, ui i − hu1 , ui i + hu2 , ui i + ... + huk , ui i .
hu1 , u1 i hu2 , u2 i huk , uk i
hv − w1 , ui i = hv, ui i − hv, ui i = 0.
Ejemplo 5.22. Sea el espacio euclidiano R3 y W el subespacio (el plano) generado por los vectores
ortonormales u1 = (0, 1, 0) y u2 = 45 , 0, 35 . La proyección ortogonal del vector v = (1, 1, 1) sobre W
es
7 4 3 28 21
proyW v = (v · u1 ) u1 + (v · u2 ) u2 = 1 (0, 1, 0) + , 0, = , 1, .
5 5 5 25 25
La componente de v ortogonal a W es
28 21 3 4
v − proyW v = (1, 1, 1) − , 1, = − , 0, .
25 25 25 25
Obsérvese que v − proyW v es ortogonal tanto a u1 como a u2 , de manera que este vector es
ortogonal a cada vector en el espacio W, como debe ser.J
Actividad 5.6. Pruebe que el conjunto S = {v1 , v2 } donde v1 = (0, 2, 0) y v2 = (4, 0, 3) es una
base ortogonal del subespacio W del ejemplo anterior. Y muestre que si calcula el vector proyección
de v = (1, 1, 1) sobre W, usando la base S, se obtiene el mismo vector que el del ejemplo anterior que
fue calculado utilizando la base {u1 , u2 }.
Este no es casual, el cálculo de un vector proyección sobre un subespacio es independiente de la
base ortogonal considerada.
En la sección anterior se notó que el vector proyección de u sobre v es el vector del espacio gen {v}
más próximo al vector u (véase Figura 5.7). Similarmente, el vector proyW v tiene la misma interesante
propiedad. Es el vector en W más cercano a v, es decir, es la mejor aproximación de los vectores de
W al vector v (véase Figura 5.9).
v − w = (v − proyW v) + (proyW v − w) .
El vector proyW v − w es un vector de W ya que es resta de dos vectores de W. Por otra parte,
el vector v − proyW v es ortogonal a todo vector de W de modo que los dos términos del segundo
o bien,
kv − proyW vk2 = kv − wk2 − kproyW v − wk2 .
Como kproyW v − wk2 > 0 para todo w 6= proyW v, entonces
kv − proyW vk < kv − wk .
El teorema de la mejor aproximación implica que la proyección ortogonal sobre un subespacio es única,
no depende de la base ortonormal que se usó para calcularla (Ejercicio 13).
Ahora se tienen los elementos necesarios para probar el resultado principal de esta sección: Todo
espacio con producto interno de dimensión finita tiene una base ortogonal. Este resultado se deduce co-
mo consecuencia de un teorema cuya demostración enseña a construir bases ortogonales para cualquier
espacio con producto interno de dimensión finita. Esta contrucción es el método de Gram-Schmidt, en
memoria de J. P. Gram (1850-1916) y E. Smith (1845-1921), que permite “ortogonalizar” cualquier
base S de un subespacio W finito dimensional de un espacio vectorial V con producto interno.
u1 = v1
hv2 , u1 i
u2 = v2 − u1
hu1 , u1 i
hv3 , u1 i hv3 , u2 i
u3 = v3 − u1 − u2
hu1 , u1 i hu2 , u2 i
..
.
hvk , u1 i hvk , u2 i hvk , uk−1 i
uk = vk − u1 − u2 − ... − uk−1 .
hu1 , u1 i hu2 , u2 i huk−1 , uk−1 i
u1 = v 1 .
hv2 , u1 i
u2 = v2 − proyW1 v2 = v2 − u1 .
hu1 , u1 i
hv3 , u1 i hv3 , u2 i
u3 = v3 − proyW2 v3 = v3 − u1 − u2 .
hu1 , u1 i hu2 , u2 i
Nota 1: Puede comprobarse que en cada paso de este proceso los vectores u1 , u2 ,..., ul forman una
base ortogonal para el subespacio generado por los vectores v1 , v2 ,..., vl de la base original S.
Nota 2: Si la base S ya es ortogonal, el proceso de Gram-Schmidt “devuelve” la misma base S; esto
es u1 = v1 , u2 = v2 ,..., uk = vk .
En la Figura 5.10 se muestra una visualización geométrica del proceso de Gram-Schmidt en el es-
pacio euclidiano R3 . En https://es.wikipedia.org/wiki/Archivo:Gram-Schmidt_orthonormalization_
process.gif puede verse una construcción dinámica del mismo en dicho espacio.
Ejemplo 5.23. Sea el subespacio W = gen {v1 , v2 , v3 } donde v1 = (1, 1, 1, 1), v2 = (0, 1, 1, 1) y
v3 = (0, 0, 1, 1) del espacio euclidiano R4 .
u1 = v1 = (1, 1, 1, 1) ,
v 2 · u1 3 3 1 1 1
u2 = v 2 − u1 = (0, 1, 1, 1) − (1, 1, 1, 1) = − , , , ,
u1 · u1 4 4 4 4 4
v 3 · u1 v 3 · u2 2 1/2 3 1 1 1
u3 = v 3 − u1 − u2 = (0, 0, 1, 1) − (1, 1, 1, 1) − − , , , =
u1 · u1 u2 · u2 4 3/4 4 4 4 4
1 1 1 1 1 1 1 1 2 1 1
= (0, 0, 1, 1) − , , , − − , , , = 0, − , , .
2 2 2 2 2 6 6 6 3 3 3
√ √
3 6 00 u1 u2 u3
Dado que ku1 k = 2, ku2 k = 2 y ku3 k = 3 , el conjunto S = , , donde
ku1 k ku2 k ku3 k
u1 1 1 1 1 1
= (1, 1, 1, 1) = , , , ,
ku1 k 2 2 2 2 2
u2 2 3 1 1 1 3 1 1 1
= √ − , , , = − √ , √ , √ , √ ,
ku2 k 3 4 4 4 4 2 3 2 3 2 3 2 3
u3 3 2 1 1 2 1 1
= √ 0, − , , = 0, − √ , √ , √ ,
ku3 k 6 3 3 3 6 6 6
Ejemplo 5.24. Sea el subespacio W = gen {f1 , f2 , f3 } siendo f1 (x) = 1, f2 (x) = x y f3 (x) = x2 ,
del espacio C [−1, 1] de las funciones continuas en el intervalo cerrado [−1, 1], con el producto interno
Z 1
dado por hf, gi = f (x)g(x) dx, donde f y g son funciones de C [−1, 1].
−1
El conjunto S = {f1 , f2 .f3 } es linealmente independiente y por lo tanto constituye una base para
W pero no es un conjunto ortogonal. En efecto:
Z 1 Z 1
2 2
hf1 , f3 i = 1(x ) dx = x2 dx = 6= 0.
−1 −1 3
Se obtendrá, aplicando el proceso de Gram-Schmidt, una base ortogonal para W a partir de la
base S:
g1 = f1 ,
Z 1
x dx
hf2 , g1 i 0
g2 = f2 − g1 = f2 − Z−11 g1 = f2 − g1 = f2 ,
hg1 , g1 i 2
dx
−1
Z 1 Z 1
2
x dx x3 dx
hf3 , g1 i hf3 , g2 i −1
g3 = f3 − g1 − g2 = f3 − Z 1 g1 − Z−1
1 g2 =
hg1 , g1 i hg2 , g2 i 2
dx x dx
−1 −1
2/3 0 1
= f3 − g1 − g2 = f3 − g1 .
2 2/3 3
Por lo tanto el conjunto S 0 = {g1 , g2 , g3 } donde g1 (x) = 1, g2 (x) = x y g3 (x) = x2 − 31 , es una base
ortogonal para W.J
Ejemplo 5.25. En el espacio euclidiano R4 , sea W = gen {w1 , w2 , w3 , w4 , w5 } donde w1 = (1, 1, 0, 2),
w2 = (0, 1, 1, −1), w3 = (2, 3, 1, 3), w4 = (−1, 0, 1, −3) y w5 = (1, 1, 1, 1). Se desea hallar el vector
proyección de v = (0, −1, 0, 1) sobre el subespacio W, la componente de v ortogonal a W y la distancia
del vector v al subespacio W.
Se debe obtener una base ortogonal para el subespacio W. Claramente {w1 , w2 , w3 , w4 , w5 } no es
una base de W (¿por qué?).
Para hallar una base de W, se forma la matriz A cuyos renglones son los vectores w1 , w2 , w3 , w4
y w5 :
1 1 0 2
0 1 1 −1
A= 2 3 1 3 .
−1 0 1 −3
1 1 1 1
Los renglones no cero de cualquier forma escalonada de A forman una base para ren(A) = W. Una
forma escalonada de A es
1 1 0 2
0 1 1 −1
B= 0 0 1 −1 .
0 0 0 0
0 0 0 0
Ası́, el conjunto S = {v1 , v2 , v3 } donde v1 = (1, 1, 0, 2), v2 = (0, 1, 1, −1) y v3 = (0, 0, 1, −1) es
una base para W. S no es una base ortogonal, aplicando el proceso de Gram-Schmidt a S se obtiene
una base ortogonal para W:
u1 = v1 = (1, 1, 0, 2) ,
v 2 · u1 −1 1 7 2
u2 = v 2 − u1 = (0, 1, 1, −1) − (1, 1, 0, 2) = , , 1, − ,
u1 · u1 6 6 6 3
v 3 · u1 v 3 · u2 −2 5/3 1 7 2
u3 = v 3 − u1 − u2 = (0, 0, 1, −1) − (1, 1, 0, 2) − , , 1, − =
u1 · u1 u2 · u2 6 17/6 6 6 3
4 6 7 1
= ,− , , ,
17 17 17 17
w = v − proyW v =
1 1 5
= (0, −1, 0, 1) − , −1, − , =
3 6 6
1 1 1
= − , 0, , .
3 6 6
Teorema 5.15. Sea W un subespacio de un espacio vectorial V con producto interno, en-
tonces:
1. W⊥ es un subespacio de V.
2. W ∩ W⊥ = {0}
Ejemplo 5.27. Sea W el subespacio del espacio euclidiano R3 generado por los vectores linealmente
independientes u1 = (1, −2, 3) y u2 = (1, 2, 5). Geométricamente W es un plano que contiene al origen
de coordenadas.
Un vector v de R3 es ortogonal a W si y sólo si es ortogonal a cada uno de los vectores de un
conjunto generador de W (véase Ejercicio 9 de la sección anterior).
Ası́, v = (v1 , v2 , v3 ) es ortogonal a W si y sólo si u1 · v = 0 y u2 · v = 0. Esto es:
v1 − 2v2 + 3v3 = 0
v1 + 2v2 + 5v3 = 0
v = 0 + v,
v = w1 + w2 .
Para hacer ver que éstos son los únicos vectores con estas propiedades supóngase que también v
se puede descomponer:
v = w01 + w02 ,
donde w01 ∈ W y w02 ∈ W⊥ .
Ası́,
w1 + w2 = w01 + w02 ,
por lo tanto
w1 − w01 = w02 − w2 .
El vector w1 − w01 ∈ W ya que es resta de dos vectores de W y éste es un subespacio. El vector
w02 − w2 ∈ W⊥ ya que es resta de dos vectores de W⊥ y éste es un subespacio. Luego:
u = w1 − w01 = w02 − w2 ,
es un vector que está tanto en W como en W⊥ por lo cual, del Teorema 5.15 parte 2, u = 0 esto es
w1 = w01 y w2 = w02 .
Ejercicios
1. Halle el vector de coordenadas del vector v = (8, 2, −3) del espacio euclidiano R3 con respecto a
la base ortogonal B = {u1 , u2 , u3 } donde u1 = (4, −1, 1), u2 = (0, 1, 1) y u3 = − 21 , −1, 1 . (No
2. Compruebe que el conjunto formado por los vectores u1 y u2 es un conjunto ortogonal del espacio
euclidiano R3 . Luego encuentre la proyección de v sobre gen {u1 , u2 }, siendo:
3. Sea W el subespacio del espacio euclidiano R4 generado por los vectores u1 , u2 y u3 . Escriba
el vector v como la suma de un vector de W y un vector ortogonal a W. Calcule además la
distancia del vector v al subespacio W:
4. Sea el subespacio W = gen {u1 , u2 } del espacio euclidiano R4 . Determine el vector más cercano
a v en el subespacio W y calcule dicha distancia:
5. Halle, en cada caso, una base ortonormal para el subespacio W del espacio euclidiano Rn corres-
pondiente:
6. Halle una base ortonormal para el subespacio W del espacio V = Pn con el producto interno
estándar.
a) W = gen {p1 , p2 , p3 }; V = P3 ; p1 = 1 + x − x2 , p2 = 1 + x + x2 − x3 , p3 = 1 + x3 .
b) W = a + (a − b)x + bx2 ∈ P2 : a, b ∈ R ; V = P2 .
7. Halle una base ortonormal para el subespacio W del espacio Mmn correspondiente con el producto
interno estándar.
1 1 0 2 2 1 0 0 −1
a) W = gen {A1 , A2 , A3 }; A1 = , A2 = , A3 =
0 1 −1 1 1 1 1 1 1
a b −b
b) W = 0 a + b 0 ∈ M3 : a, b ∈ R .
0 0 −a
8. Halle una base ortonormal para el subespacio W del espacio C [0, 1] con el producto interno dado
Z 1
por hf, gi = f (x)g(x) dx, donde f y g son funciones continuas en el intervalo cerrado [0, 1].
0
9. Calcule la proyección del vector v sobre el subespacio W indicado en cada caso y la componente
de v ortogonal a W.
interno estándar.
13. Sea V un espacio vectorial con producto interno y W un subespacio de dimensión finita. De-
muestre que la proyección ortogonal de un vector v sobre W es única.
Sugerencia: Utilice el teorema de la mejor aproximación para probar que no hay dos vectores
proyección de v sobre W distintos.
15. Sea A una matriz de m × n. Para los subespacios ren(A) y col(A) de los espacios euclidianos
Rn y Rm , respectivamente, se tienen las siguientes relaciones con respecto a sus complementos
ortogonales:
(ren(A))⊥ = N (A),
y dado que col(A) = ren(At ), resulta
(col(A))⊥ = N (At ).
a) Demuestre que (ren(A))⊥ = N (A). Sugerencia: Basta probar que un vector de Rn es orto-
gonal a cada uno de los renglones de A si y sólo si es un vector de N (A).
b) Utilice el resultado del ı́tem anterior para probar que para todo subespacio W en el espacio
euclidiano Rn , dim(W) + dim(W⊥ ) = n.
c) Halle el complemento ortogonal y una base del mismo para los siguientes subespacios W
del espacio euclidiano V.
16. Sea W un subespacio de dimensión finita de un espacio vectorial V con producto interno y v un
vector de V. Demuestre:
a) proyW v = v ⇔ v ∈ W.
b) proyW v = 0 ⇔ v ∈ W⊥ .
17. (Polinomios y series de Fourier) Con frecuencia las funciones continuas se aproximan me-
diante combinaciones lineales de funciones seno y coseno. Por ejemplo, una función continua
podrı́a representar una onda sonora, una señal eléctrica de algún tipo, el movimiento de un
sistema mecánico vibratorio, etc. Esta idea data de Euler, sin embargo, floreció con el trabajo
de Fourier (1768-1830).
Sea B el conjunto de las siguientes funciones trigonométricas definidas en el intervalo [−π, π].
Sea el subespacio gen(B) de C [−π, π] formado por todos los polinomios trigonométricos cuyo
orden es a lo sumo n.
a) Demuestre que B es una base ortogonal de gen(B). Para ello, pruebe que:
h1, cos(nx)i = 0; n = 1, 2, 3, ...
h1, sen(nx)i = 0; n = 1, 2, 3, ...
hcos(mx), cos(nx)i = 0; si m 6= n
hcos(mx), sen(nx)i = 0; m, n = 1, 2, 3, ...
hsen(mx), sen(nx)i = 0; si m 6= n
√ √ √
b) Pruebe que k1k = 2π, kcos(kx)k = π y ksen(kx)k = π, k ≥ 1.
Sea f una función de C [−π, π]. Una aproximación de la función f mediante un polinomio
trigonométrico pn es
hf, 1i hf, cos xi hf, cos 2xi
f (x) ' pn (x) = proygen(B) f = 1+ cos x + cos 2x + ...
h1, 1i hcos x, cos xi hcos 2x, cos 2xi
hf, cos nxi hf, sen xi
+ cos nx + ... + sen x +
hcos nx, cos nxi hsen x, sen xi
hf, sen 2xi hf, sen nxi
+ sen 2x + ... + sen nx.
hsen 2x, sen 2xi hsen nx, sen nxi
Las fórmulas dadas en el ı́tem anterior se conocen como fórmulas de Euler que utilizó Fourier
para resolver la ecuación del calor.
El polinomio trigonométrico pn que aproxima a la función f definido por (5.6) y cuyos coeficientes
se obtienen de las fórmulas de Euler, se llama polinomio o aproximación de Fourier de orden n
de f en [−π, π].
d ) Pruebe que el polinomio de Fourier de orden n de la función dada por f (x) = x, x ∈ [−π, π]
está dado por:
2 2(−1)n+1
pn (x) = sen x − sen 2x + sen 3x + ... + sen nx.
3 n
En la Figura 5.11 se representan la función f y los polinomios de Fourier de orden 4, p4 y de
orden 7, p7 de f .
A medida que n crece, los polinomios pn se acercan cada vez más a la función f . Tomando el
lı́mite cuando n → +∞ se obtiene la serie
∞
X
f (x) = a0 + (an cos(nx) + bn sen(nx)) ,
n=1