Algebra M PDF

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 234

Captulo 1

Preliminares
En este captulo presentaremos algunos resultados que son necesarios para el
desarrollo de la temtica que abordaremos a partir del segundo captulo.

1.1.

Traza

Queremos presentar la informacin que ms nos compete con relacin a la


traza de matrices n n.
Notacin. Si A es una matriz m n, el smbolo Aij representar la componente de A ubicada en la interseccin de su la i sima y su columna
j sima.
Notacin. El smbolo 0 denotar siempre una matriz nula. Es decir, una
matriz con todas sus componentes igualas a cero.
Denicin. Sea A una matriz n

n. Se dena la Traza de A como:

tr(A) =

n
X

Aii .

i=1

Denicin. Sea A una matriz m n. Se dena la Transpuesta de A como


la matriz AT n m tal que (AT )ij = Aji para todo i y todo j.

CAPTULO 1. PRELIMINARES

Lema 1.1.1. Sean A m

ny Bn

m. Entonces

tr(AB) = tr(BA).

Demostracin.
tr(AB) =

m
X

(AB)ii =

i=1

i=1

n
m
X
X

Bki Aik

i=1

k=1

Lema 1.1.2. Sea A m

m
n
X
X

Aik Bki

k=1

n
X

(BA)kk = tr(BA).

k=1

n. Entonces A = 0 si y slo si tr(AT A) = 0.

Demostracin. Si A = 0, entonces AT A = 0 y claramente tr(AT A) = 0.


Recprocamente, tr(AT A) = 0 implica que
!
m
m
n
X
X
X
0 =
(AAT )ii =
Aik (AT )ki
i=1

i=1

m
n
X
X
i=1

k=1

Aik Aik

k=1

m
n
X
X
i=1

k=1

(Aik )2

De donde se concluye que Aik = 0 para todo i y todo k. Es decir, A = 0.


Corolario 1.1.3. Sea A m

n. Entonces A = 0 si y slo si AT A = 0.

Demostracin. Si A = 0, entonces es claro que AAT = 0.


Recprocamente, si AAT = 0 se tiene que tr(AT A) = 0. Luego, por Lema
1.1.2 se sigue que A = 0.
Corolario 1.1.4. Sean A m
si AT AB = AT AC.

n y B; C n

p. Entonces AB = AC si y slo

1.2. RANGO

Demostracin. Si AB = AC, entonces es obvio que AT AB = AT AC.


Recprocamente, si AT AB = AT AC, entonces
(AB

AC)T (AB

AC) = (BT AT

= BT AT AB

BT AT AC

= BT (AT AB

AT AC)

= (BT

CT )(AT AB

AC)

CT AT AB + CT AT AC
CT (AT AB

AT AC) = (BT

Luego, por Corolario 1.1.3 AB


Corolario 1.1.5. Sean A m
slo si BAT A = CAT A.

CT AT )(AB

AT AC)
CT )0 = 0.

AC = 0 y as AB = AC.
n. Entonces BAT = CAT si y

n y B; C p

Demostracin. Si BAT = CAT , entonces es obvio que AT BAT = AT CAT .


Recprocamente, si AT BAT = AT CAT , entonces
(BAT

CAT )(BAT

= BAT ABT

CAT )T = (BAT

CAT ABT + CAT ACT

= (BAT A

CAT A)BT

= (BAT A

CAT A)(BT

Luego, por Corolario 1.1.3 BAT

1.2.

(BAT A

CAT )(ABT

ACT )

BAT ACT

CAT A)CT

CT ) = 0(BT

CT ) = 0.

CAT = 0 y as BAT = CAT .

Rango

Nuestro propsito principal en este captulo es el de recordar algunos de los


ms importantes resultados relacionados con el rango de una matriz.
Notaciones. Si A es una matriz m n, el smbolo A j representar la
j-sima columna de A y Ai representar la i-sima la de A. La matriz

CAPTULO 1. PRELIMINARES

identidad n n ser representada por In . Como un caso excepcional la isima columna de In se denotar por el smbolo ei .
Notaciones y deniciones. Si A es una matriz m n, el smbolo C(A)
denotar el subespacio generado por las columnas de A, el cual es llamado
espacio columna de A. La dimensin de C(A) se llamar rango columna
de A. Adems, diremos que A tiene rango columna completo si el rango
columna de A es n.
Notaciones y deniciones. Si A es una matriz m n, el smbolo F(A)
denotar el subespacio generado por las las de A, el cual es llamado espacio
la de A. La dimensin de F(A) se llamar rango la de A. Adems,
diremos que A tiene rango la completo si el rango la de A es m.
Denicin. Un sistema de ecuaciones lineales es consitente si tiene al
menos un a solucin.
Denicin. Dos sistemas de ecuaciones lineales consistentes con igual nmero
de incgnitas son equivalentes si tiene exactamente las mismas soluciones.
Lema 1.2.1. Sean A m n y B r n tales que los sistemas Ax = 0 y Bx = 0
son equivalentes. Entonces los rangos columnas de A y B son iguales.
Demostracin. Sea c el rango columna de A. Si las columnas k1 <
< kc
de A forman un conjunto linealmente independiente. Entonces la combinacin lineal
s1 Bk1 +
+ sc Bkc = 0
(donde los si son reales) implica que el vector n dimensional que tiene a si
en la posicin ki para todo i y cero en las dems posiciones es solucin del
sistema Bx = 0, y por hiptesis es tambin solucin del sistema Ax = 0.
Luego,
s1 Ak1 +
+ sc Akc = 0,
de donde (por la independencia lineal del conjunto fAk1 ; :::; Akc g) se sigue
que si = 0 para todo i. As, el conjunto fBk1 ; :::; Bkc g es linealmente independiente, y por tanto el rango columna de B es mayor o igual que el rango
columna de A.

1.2. RANGO

Intercambiando ahora los papeles de A y B en el argumento anterior se


demuestra que el rango columna de A es mayor o igual al rango columna de
B.
Teorema 1.2.2. Si A es una matriz m

n, entonces

rango la de A = rango columna de A.

Demostracin. Sean r el rango la de A y c el rango columna de A. Armamos que para una matriz A0 que se obtiene al reordenar algunas las de
A, de tal manera que sus primeras r las forman un conjunto linealmente
independiente, se tiene que r es el rango la de A0 y c es el rango columna
de A0 . Lo armado es claro para r. Mostrmoslo para las columnas: como
los sistemas Ax = 0 y A0 x = 0 son equivalentes, ya que: [a1
an ]T es
solucin del sistema Ax = 0 si y slo si
a1 A 1 +

+ an A

= 0,

si y slo si
a1 Ai1 +

+ an Ain = 0 para todo i = 1; :::; m,

si y slo si
a1 A0 1 +

+ an A0 n = 0,

si y slo si [a1
an ]T es solucin del sistema Ax = 0. Se sigue (por Lema
1.2.1) que rango columna de A es igual a rango columna de A0 .
Supongamos que particionamos A0 en la forma
A0 =

B
C

donde B es r m y C es (m r) n. Como A0 tiene rango r y sus primeras


r las forman un conjunto linealmente independiente, entonces las ltimas
(m r) las de A0 son combinaciones lineales de las primera r, lo que implica
que C = DB para alguna matriz (n r) r D. Armamos ahora que A0 y
B tienen el mismo rango columna, ya que
A0 =

B
DB

A0 x =

Bx
DBx

CAPTULO 1. PRELIMINARES

implica que los sistemas A0 x = 0 y Bx = 0 son equivalentes, y por tanto


(nuevamente por Lema 1.2.1) los rangos columnas de las matrices A0 y B
son iguales.
Como las columnas de B son estn en un espacio de dimensin r se tiene que
c r. Aplicando esta ltima desigualdad a AT tendremos tambin que
rango columna de AT

rango la de AT .

Es decir,
rango la de A
esto es, r

rango columna de A,

c.

Denicin. Sea A una matriz m n. Se dene el rango de A como el


nmero
rk(A) = rango la de A = rango columna de A.
Del Teorema 1.2.2 y la denicin de rango es claro que rk(A) = rk(AT ).
Teorema 1.2.3. Sean A m n y B n p:
i) Si rk(AB) = rk(A), entonces C(AB) = C(A).
ii) Si rk(AB) = rk(B), entonces F(AB) = F(B).
Demostracin. i)
AB = [AB

AB p ] ,

y para j = 1; :::; p se tiene que


AB j = [A

3
B1j
6
7
A n ] 4 ... 5 = B1j A 1 +
Bnj

+ Bnj A n .

Luego, C(AB)
C(A). Ahora, rk(AB) = rk(A) implica que las dimensiones de C(AB) y C(A) son iguales, y como uno est contenido en el otro
se concluye que C(AB) = C(A).
ii)
2
3
2
3
A1
A1 B
6
7
6
7
..
AB = 4 ... 5 B = 4
5,
.
Am

Am B

1.2. RANGO

y para i = 1; :::; m se tien que

3
B1
6
7
Ain ] 4 ... 5 = Ai1 B1 +
Bn

Ai B = [Ai1

+ Ain Bn .

De donde, F(AB)
F(B). Ahora, rk(AB) = rk(B) implica que las dimensiones de F(AB) y F(B) son iguales, y por la anterior contenencia se
concluye que F(AB) = F(A).
Teorema 1.2.4. Sean A una matriz m
rk(AB) rk(A).

n y B una matriz n

p. Entonces

Demostracin. En la demostracin del Teorema 1.2.3 parte i) se demuestra


que C(AB) C(A), por tanto rk(AB) rk(A).
Teorema 1.2.5. Sean A una matriz m n y B una matriz invertible m m.
Entonces rk(A) = rk(BA).
Demostracin. Si rk(A) = 0 se sigue que A = 0, y por tanto BA. Luego,
rk(BA) = 0.
Supongamos que rk(A) = r > 0 y que A i1 ; :::; A ir es un conjunto linealmente independiente de columnas de A. Armamos que las columnas
BA i1 ; :::; BA ir de BA forman un conjunto linealmente independiente. En
efecto, sean c1 ; :::; cr escalares tales que
c1 BA

i1

+ cr BA

ir

= 0,

entonces
B(c1 A

i1

+ cr A ir ) = 0

y como B es invertible se sigue que


c1 A

i1

+ cr A

ir

= 0.

Pero el conjunto fA i1 ; :::; A ir g es linealmente independiente, por tanto


c1 =
= cr = 0, y as el conjunto fBA i1 ; :::; BA ir g es linealmente independiente. Esto ltimo implica que rk(BA) rk(A). Ahora, por Teorema
1.2.4 y comentario posterior a la denicin de rango tenemos que
rk(A) = rk(AT )

rk(AT BT ) = rk((BA)T ) = rk(BA).

CAPTULO 1. PRELIMINARES

Corolario 1.2.6. Sean A una matriz m


Entonces rk(A) = rk(AB).

n y B una matriz invertible n

n.

Demostracin. B invertible implica BT invertible, entonces


rk(A) = rk(AT ) = rk(BT AT ) = rk((AB)T ) = rk(AB).

Corolario 1.2.7. Sean A una matriz m n, Q una matriz invertible n


y P una matriz invertible m m. Entonces rk(A) = rk(PAQ).

Demostracin.
rk(A) = rk(PA) = rk((PA)Q) = rk(PAQ).

Denicin. Sea A m n. Se denen las tres operaciones elementales sobre


las las de A como:
i) intercambio de las: A i ! A j .
ii) multiplicar una la por un escalar no nulo c: A i ! cA i .
iii) sumar a una la un mltiplo de otra: A i ! cA j + A i .
Ejemplo. Si

2
4
A= 3
2

entonces:
2

2
4 3
2
2
2
4 3
2

1
1
0
1
1
0

1
1
0

3
1 0
2 3 5,
4 1

3
1 0
2 3 5 A2 !A3
4 1
3
1 0
2 3 5 A 2 ! 3A 2
4 1

2
4 2
3
2
2
4 9
2

1
0
1
1
3
0

3
1 0
4 1 5.
2 3
3
1 0
6 9 5.
4 1

1.2. RANGO
2

2
4 3
2

1
1
0

9
3
1 0
2 3 5 A
4 1

3A 1 + A

2
4

2
3
4

1
1
3

3
1 0
2 3 5.
1 1

Si A es una matriz m n, entonces:


i) si B m n se obtiene al realizar la operacion elemental A i ! A j a
A y C m m es la matriz invertible que se obtiene al realizar la operacin
elemental (Im ) i ! (Im ) j a Im , entonces
B = CA.
ii) si D m n se obtiene al realizar la operacion elemental A i ! cA i a
A y E m m es la matriz invertible que se obtiene al realizar la operacin
elemental (Im ) i ! c(Im ) i a Im , entonces
D = EA.
iii) si F m n se obtiene al realizar la operacion elemental A i ! cA j +A i
a A y G m m es la matriz invertible que se obtiene al realizar la operacin
elemental (Im ) i ! c(Im ) j + (Im ) i a Im , entonces
F = GA.
Las observaciones anteriores y el Teorema 1.2.5 nos muestran que el rango es
invariante ante operaciones elementales de la. Luego, para hallar el rango
de una matriz dada podemos proceder de la siguiente manera: realizamos
inteligentemente un nmero nito de operaciones elementales a la matriz
dada, con el n de hallar una matriz con muchos ceros (que obviamente
tendr el mismo rango que la dada) a la cual le podamos calcular el rango a
simple vista.
Lo que haremos en siguiente ejemplo es equivalente a lo que hemos descrito
como un mtodo elemental para hallar el rango de una matriz.
Ejemplo. Hallemos el rango de la
2
1
6 2
A=6
4 0
3

matriz
1
1
3
2

2
1
3
1

3
0
5 7
7.
3 5
5

10

CAPTULO 1. PRELIMINARES

En efecto,
2
1 1
6 2 1
6
4 0 3
3 2
2
1
1
6 0
1
6
4 0
3
0
1

2
1
3
1
2
5
3
5

3
0
5 7
7 A 2 ! 2A 1 + A 2
3 5 A 4 ! 3A 1 + A 4
5
3
0
5 7
7 B 3 ! 3B 1 + B 3
3 5 B 4 ! B 1+B 4
5

1
6 0
6
4 0
0
2
1
6 0
6
4 0
0

1
1
3
1

2
5
3
5

1
1
0
0

2
5
12
0

3
0
5 7
7 = B,
3 5
5
3
0
5 7
7 = C.
12 5
0

Los rangos de A; B y C son iguales. Pero el rango de C es claramente 3, por


tanto rk(A) = 3.
Notacin. Si S es un subconjunto no vaco en un espacio vectorial, entonces
el smbolo gen(S) se utilizar para representar al subespacio generado por S.
Teorema 1.2.8. Sean A y B matrices m
rk(A + B)

n. Entonces

rk(A) + rk(B).

Demostracin. Supongamos que rk(A) = r y rk(B) = s, y sea S un conjuto


formado al unir una base de C(A) con una base de C(B), entonces gen(S)
tiene dimensin menor o igual a r + s. Ahora, para j = 1; :::; n se tiene que
(A + B) j = (A) j + (B) j , por tanto (A) j como (B) j estn en gen(S), por
tanto (A + B) j tambin est en gen(S). Luego, C(A + B) gen(S). As,
rk(A + B)

dim (gen(S))

r + s = rk(A) + rk(B).

Teorema 1.2.9. Sea A m n con rk(A) = r > 0. Entonces existen matrices


B m r y C r n ambas de rango r tales que
A = BC

Demostracin. Supongamos que las columnas i1 ; :::; ir de A forman un


conjunto linealmente independiente, entonces una matriz E n n obtenida

1.2. RANGO

11

al reordenar las columnas de In de tal manera que tenga como primeras


columnas a ei1 ; :::; eir , es tal que AE tiene las mismas columnas de A, con
la propiedad de que las primeras r columnas de AE forman un conjunto
linealmente independiente. Sea
B = [A

i1

A ir ] m

r,

entonces las columnas r + 1; :::; n de AE son combinaciones lineales de las


columnas de B, por esto existen ar+1 ; :::; an r 1 tales que
(AE)

r+1

= Bar+1 ; :::; (AE)

= Ban .

Luego,
AE = [Be1

Ber Bar+1

y por tanto A = BC, donde C = [e1


que rk(B) = rk(C) = r.

Ban ] = B [e1
er ar+1

er ar+1
an ] E

an ]
n. Ntese

Teorema 1.2.10. Sea A una matriz m n de rango r. Entonces para cualesquiera r las linealmente independientes y r columnas linealmente independientes de A, la submatriz r r de A que se obtiene al eliminar las
otras m r las y n r columnas de A tiene rango r. Adems, A no tiene
submatrices con rango mayor que r.
Demostracin. Supongamos que las columnas A j1 ; :::; A jr de A forman
un conjunto linealmente independiente y que las las A i1 ; :::; A ir de A
forman tambin un conjunto linealmente independiente. Notamos primero
que la matriz
B = [A j1
A jr ] m r
tiene rango r. Ahora, eliminando de B todas las las, excepto las las i1 ; :::; ir ,
obtenemos la matriz
2
3
Aj1 i1 Aj2 i1
Ajr i1
6 Aj i Aj i
Ajr i2 7
1 2
2 2
6
7
C = 6 ..
..
.. 7 r r.
..
4 .
.
.
. 5
Aj1 ir Aj2 ir
Ajr ir

Veamos que C tiene rango r. En efecto, como rk(A) = r y fA i1 ; :::; A ir g


es linealmente independiente, se tiene que fA i1 ; :::; A ir g es una base para

12

CAPTULO 1. PRELIMINARES

el espacio la de A, por tanto toda la de A es combinacin lineal de


fA i1 ; :::; A ir g, y esto implica que toda la de B es combinacin lineal de
fC 1 ; :::; C r g. Luego, fC 1 ; :::; C r g es base para el espacio la de B y como
rk(B) = r, se sigue que fC 1 ; :::; C r g es linealmente independiente, y as
rk(C) = r.
Veamos ahora que A no tiene submatrices de rango mayor que r: supongamos que A tiene una submatriz D p q con rk(D) = s > r. Entonces si
A t1 ; :::; A ts son s columnas de A tales que al elinar (si es necesario) algunas
las de A se obtienen s las linealmente independientes D k1 ; :::; D ks de D,
se sigue que si c1 ; :::; cs son escalares tales que
c1 A

t1

+ cs A

ts

= 0,

c1 D

k1

+ cs D

ks

= 0.

entonces
Luego, la independencia lineal de fD k1 ; :::; D ks g implica que c1 =
=
cs = 0, de donde fA t1 ; :::; A ts g es un conjunto linealmente independiente
de s las de A, lo cual es imposible porque s > r = rk(A). La contradiccin
provien de haber supuesto la posibilidad de que A pudiera tener submatrices
con rango mayor que rk(A).
Denicin. Si A es una matriz m n, se dice que A tiene rango completo
si tiene rango columna completo o bin rango la completo.
Deniciones. Si A es una matriz m n, entonces una inversa a izquierda
de A es una matriz L n m tal que
LA = In .
Y una inversa a derecha de A es una matriz R n

m tal que

AR = Im .

Lema 1.2.11. Sea A una matriz m n. Entonces:


i) A tiene inversa a derecha si y slo si A tiene rango la completo.
ii) A tiene inversa a izquierda si y slo si A tiene rango columna completo.

1.2. RANGO

13

Demostracin. i) Si A m n tiene rango m, entonces n


m y A tiene
m columnas linealmente independientes en el espacio m dimensional de los
vectores m 1. Luego, las columnas de A contienen una base del espacio
antes mensionado, de donde cada columna ei de Im es combinacin lineal de
las columnas de A. Es decir, para cada i = 1; :::; m existe R i n 1 tal que
AR i = ei . Considerando la matriz R = [R 1
R m ] n m, tenemos que
AR = A [R

m]

= [AR

AR

m]

= [e1

em ] = Im .

As, R es una inversa a derecha de A.


Recprocamente, si existe R n m tal que AR = Im , entonces
m

rk(A)

rk(AR) = rk(Im ) = m.

Lo cual implica que rk(A) = m.


ii) rk(A) = n, si y slo rk(AT ) = n, si y slo si AT tiene inversa a derecha,
si y slo si A tiene inversa a izquierda.
Lema 1.2.12. Sean A,B matrices m n, C r m de rango columna completo
y D n p de rango la completo. Entonces:
i) CA = CB si y slo si A = B.
ii) AD = BD si y slo si A = B.
Demostracin. i) Si A = B se sigue de inmediato que CA = CB.
Ahora, si C tiene rango columna completo, entonces C tiene al menos una
inversa a izquierda L m r. Luego,
A = Im A = LCA = LCB = Im B = B.
ii) Si A = B se sigue de inmediato que AD = BD.
Si D tiene rango la completo, entonces D tiene al menos una inversa a
derecha R p n. As,
A = AIn = ADR = BDR = BIn = B.

14

CAPTULO 1. PRELIMINARES

Teorema 1.2.13. Sean T una matriz m m, U una matriz m q, V una


matriz n m y W una matriz n q. Si rk(T) = m (es decir, T es invertible),
entonces
rk

T U
V W

U T
W V

= rk

= rk

V W
T U

= rk

W V
U T

= m + rk

VT 1 U

Demostracin.
rk

T U
V W

U T
W V

= rk

(1.1)

porque tienen exactamente las mismas columnas.


rk

U T
W V

V W
T U

= rk

por (1.1) y porque


T U
V W

V W
T U

tienen exactamente las mismas las.


rk

V W
T U

= rk

W V
U T

porque tienen exactamente las mismas columnas.


Ahora, para demostrar la ltima igualdad, es suciente probar (por la transitividad de la igualdad) que
rk

T U
V W

= m + rk

En efecto, consideremos la matriz invertible


Im
VT

0
In

VT 1 U

1.2. RANGO

15

Entonces
rk

T U
V W

= rk

Im
VT

= rk

T
0 W

= rk(T) + rk
= m + rk

0
In

T U
V W

U
VT 1 U
W

VT 1 U

VT 1 U

16

CAPTULO 1. PRELIMINARES

Captulo 2
Inversas Generalizadas (I.G)
2.1.

Denicin y existencia

En esta seccin deniremos inversa generalizada de una matriz y demostraremos


que toda matriz tiene al menos una inversa generalizada.
Denicin. Una inversa generalizada de una matriz A m
matriz G tal que
AGA = A.
Ejemplo. Las matrices
2
3
1 0
4 0 0 5
0 0

son inversas generalizadas de la matriz


1 3 2
2 6 4

42
5
2

n es una

3
1
3 5
2

El ejemplo anterior muestra claramente que en general la inversa generalizada


no es nica.
Lema 2.1.1. Sea A una matriz n
inversa generalizada de A.

n invertible. Entonces A

17

es la nica

18

CAPTULO 2. INVERSAS GENERALIZADAS (I.G)

Demostracin. Claramente,
AA 1 A = A.
Ahora, si G es una inversa generalizada de A, entonces
G = In GIn = A 1 AGAA

= A 1 AA

= A 1 In = A 1 .

Teorema 2.1.2. Sean A m r de rango columna completo y B r n de


rango la completo. Si L es una inversa a izquierda de A y R es una inversa
a derecha de B. Entonces RL es una inversa generalizada de AB.
Demostracin.
AB(RL)AB = A(BR)(LA)B
=

AIr Ir B

Corolario 2.1.3. Toda matriz A m


lizada.

AB.

n tiene almenos una inversa genera-

Demostracin. Si A = 0 el resultado es evidente. Si A 6= 0 y tiene rango r,


entonces en virtud del Teorema 1.2.9 A se deja expresar como A = BC con B
m r de rango colunma completo y C r n de rango la completo. Luego,
por Teorema 2.1.2, A tiene al menos una inversa generalizada G = RL,
donde R es una inversa a derecha de C y L es una inversa a izquierda de B.

Notacin. Si A es una matriz m


generalizada cualquiera de A.

2.2.

n, entonces A denotara a una inversa

Sistemas lineales

En esta seccin daremos la denicin de sistema lineal y mostraremos algunos


resultados bsicos relacionados con este tipo de sistemas.

2.2. SISTEMAS LINEALES

19

Denicin. Un sistema lineal es una expresin de la forma


AX = B,
donde A es m n, B es m p y X es una matriz incgnita n p. Una
solucin del sistema lineal AX = B es cualquier matriz C n p tal que
AC = B. El sistema lineal AX = B es consistente si tiene al menos una
solucin.
Denicin. Un sistema lineal AX = B es compatible si kT B = 0 para
todo vector k (de tamao apropiado) tal que kT A = 0.
Teorema 2.2.1. Sean A m n y B m
consistente si y slo si es compatible.

p. Un sistema lineal AX = B es

Demostracin. (=)) Supongamos que el sistema lineal AX = B es consistente. Entonces, existe una matriz C tal que AC = B, y para todo vector
columna kT tal que kT A = 0 tenemos
kT B = kT AC = 0C = 0.
Esto es, AX = B es compatible.
((=) Supongamos que AX = B es compatible. Para esta parte es suciente
probar que existe una matriz C n p tal que Ai C = Bi para i = 1; :::; m.
En efecto, si r es el rango de A existen enteros positivos 1
k1 <
<
kr m tales que fAk1 ; :::; Akr g es una base para el espacio la de A. Sea
A1 la matriz cuyas las son Ak1 ; :::; Akr y B1 la matriz cuyas las son
Bk1 ; :::; Bkr . Como A1 tiene rango la completo, entonces tiene al menos
una inversa a derecha R, por tanto el sistema lineal A1 X = B1 es consistente,
tiene al menos la solucin X = RB1 n p. Entonces
Akj RB1 = Bkj

para j = 1; :::; r.

Para i 2 f1; :::; mg fk1 ; :::; kr g Ai est en el generado de fAk1 ; :::; Akr g,
es por tanto que existen escalares ik1 ; :::; ikr tales que
ik1 Ak1

ikr Akr

= Ai ,

20

CAPTULO 2. INVERSAS GENERALIZADAS (I.G)

de donde
i1 A1

con

it

i(i 1) A(i 1)

ii Ai

= 0 cuando t 2
= fk1 ; :::; kr ; ig y

i(i+1) A(i+1)
ii

im Am

=0

im Bm

=0

= 1. Luego,

kT A = 0
con
kT =

i1

ii

i(i 1)

im

i(i+1)

y por hiptesis kT B = 0. La ltima igualdad implica que


i1 B1

y como

i(i 1) B(i 1)
it

ii Bi

i(i+1) B(i+1)

= 0 cuando t 2
= fk1 ; :::; kr ; ig, encontramos que
ik1 Bk1

ikr Bkr

= Bi .

Luego,
Ai RB1 = (

ik1 Ak1

ik1 Ak1

RB1 +

ik1 Bk1

Teorema 2.2.2. Sean A m n y B m


AT AX = AT B es consistente.

ikr Akr

)RB1

ikr Akr

ikr Bkr

RB1

= Bi .

p. Entonces el sistema lineal

Demostracin. Para demostrar el teorema es suciente (a la luz del Teorema


2.2.1) con mostrar que el sistema lineal AT AX = AT B es compatible. Sea k
n 1 tal que kT AT A = 0, entonces kT AT A = 0AT A, luego por Corolario
1.1.5 kT AT = 0AT = 0, y as kT AT B = 0B = 0. Esto es, el sistema lineal
AT AX = AT B es compatible.
Corolario 2.2.3. Si A m
es invertible.

n tiene rango columna completo, entonces AT A

Demostracin. Para probar que AT A es invertible es suciente demostrar


que el sistema lineal AT AX = In es consistente, y esto ltimo equivale,

2.2. SISTEMAS LINEALES

21

segn Teorema 2;2;1, a demostrar que el sistema en cuestin es compatible.


En efecto, sea k n 1 tal que
kT AT A = 0,
entonces kT AT A = 0 = 0AT A, de donde (por Corolario 1.1.5) kT AT =
0AT = 0. Como A tiene rango columna completo existe L n m tal que
LA = In , por tanto
kT In = kT (In )T = kT (LA)T = kT AT LT = 0LT = 0.
As, AT AX = In es compatible.
Teorema 2.2.4. Sea A una matriz m n. Entonces para toda matriz B
m p tal que el sistema lineal AX = B es consistente, se tiene que GB es
solucin del sistema si y slo si G es una inversa generalizada de A.
Demostracin. Sean C una solucin del sistema lineal AX = B (tal solucin existe porque el sistema es consistente) y G una inversa generalizada de
A. Entonces
A(GB) =

(AG)B

= (AG)AC

= (AGA)C =

AC

= B.

Recprocamente, supongamos que GB es solucin de AX = B para toda


matriz B m p tal que AX = B es consistente. Para i = 1; :::; n; sea
Bi = [A i 0
0] m p. Ntese que para cada i el sistema
AX = Bi
es consitente, ya que Ci = [ei 0
0] es solucin. Luego, GBi es tambin
solucin del sistema AX = Bi para toda i. Pero
8i

AGBi = Bi
implica (AGBi )

= (Bi )

8i. Luego,
AGA i = A

As,

8i.

22

CAPTULO 2. INVERSAS GENERALIZADAS (I.G)

AGA = AG [A
=

[A

A n ] = [AGA

A n]

AGA n ]

= A.

Por tanto, G es una inversa generalizada de A.

2.3.

I.G y submatrices invertibles

Lema 2.3.1. Sea


A=

A11 A12
A21 A22

una matriz particionada m n de rango r donde A11 es r r. Si rk(A11 ) = r,


entonces
A22 = A21 A111 A12 .
Demostracin. Por Teorema 1.2.13
r = rk(A) = r + rk(A22

A21 A111 A12 ),

lo cual implica que


rk(A22

A21 A111 A12 ) = 0,

de donde
A22

A21 A111 A12 = 0,

o equivalentemente
A22 = A21 A111 A12 .
Teorema 2.3.2. Sea A una matriz m n de rango r, la cual se deja particionar de la forma
A11 A12
A=
A21 A22
donde A11 es invertible r
de A si y slo si

r. Entonces G n

m es una inversa generalizada

2.3. I.G Y SUBMATRICES INVERTIBLES

G=

A111

XA21 A111

A111 A12 Y
Y

23

A111 A12 ZA21 A111

X
Z

para algunas matrices X; Y; Z de tamaos apropiadas.


Demostracin.
Por Teorema 2.3.1 y propiedades del producto de matrices tenemos que
A=

A11
A12
A21 A21 A111 A12

A11
A21

A111 [A11 A12 ] .

G11 G12
n m, con G11 r r, es
G21 G22
una inversa generalizada de A si y slo si AGA = A, o equivalentemente, si
y slo si
Ahora, una matriz particionada G =

A11
A21

A111 [A11 A12 ] G

A11
A21

A111 [A11 A12 ]


(2.1)

A11
A21

A111 [A11 A12 ] :

Como
rk

A11
A21

= r = rk [A11 A12 ] ,

se sigue del Lema 1.2.12 que G satisface (2.1) si y slo si


A111 [A11 A12 ] G

A11
A21

A111 = A111 .

Pero
A111 [A11 A12 ] G

A11
A21

= G11 + A111 A12 G21

A111 = Ir A111 A12


G12 + A111 A12 G22

G11 G12
G21 G22
Ir
A21 A111

= G11 + A111 A12 G21 + G12 A21 A111 + A111 A12 G22 A21 A111 :

Ir
A21 A111

24

CAPTULO 2. INVERSAS GENERALIZADAS (I.G)

Luego, G satisface (2.1) si y slo si


G11 = A111

A111 A12 G21

G12 A21 A111

A111 A12 G22 A21 A111 .

Lema 2.3.3. Sea B una matriz m n, G una matriz n m, A una matriz


m m invertible y C una matriz invertible n n. Entonces:
i) G es una inversa generalizada de AB si y slo si G = HA 1 para alguna
inversa generalizada H de B.
ii) G es una inversa generalizada de BC si y slo si G = C 1 H para alguna
inversa generalizada de H de B.
iii) G es inversa generalizada de ABC si y slo si G = C 1 HA 1 para
alguna inversa generalizada de H de B.
Demostracin. i) y ii) son casos particulares de iii) (tomando C = In y
A = Im , respectivamente). Por tanto es suciente probar iii). En efecto, G
es una inversa generalizada de ABC si y slo si
ABCGABC = ABC,
o, equivalentemente (porque A y C son invertibles) si y slo si BCGAB = B.
As, G es una inversa generalizada de ABC si y slo si H = CGA es una
inversa generalizada de B o, equivalentemente, si y slo si G = C 1 HA 1
para una inversa generalizada H de B.
Denicin. Una matriz de permutacin es una matriz que se obtiene al
reordenar algunas las de una matriz identidad.
Denicin. Una matriz A n
A 1 = AT .

n invertible es una matriz ortogonal si

Lema 2.3.4. Toda matriz de permutacin es ortogonal.


Demostracin. Sea A n n una matriz de permutacin. Si i1 ; :::; in es un
reordenamiento de la lista 1; 2; :::; n, tal que
2
3
(In )i1
6
7
..
A=4
5,
.
(In )in

2.3. I.G Y SUBMATRICES INVERTIBLES

25

entonces
AT = [(In )

(In )

i1

in ] .

As,
2

(In )i1 (In )


6
..
T
AA = 4
.
(In ) in (In )

i1

..

(In )i1 (In )


..
.
(In )

i1

in

in (In ) in

3
2
1
0
7 6 .. . . .. 7
5 = 4.
. . 5 = In .
0
1
3

Teorema 2.3.5. Sean A una matriz m n de rango r, i1 <


< ir
enteros positivos en el conjunto f1; :::; mg tales que las las i1 ; :::; ir de A
forman un conjunto linealmente independientes y sean j1 <
< jr enteros
positivos en el conjunto f1; :::; ng tales que las columnas j1 ; :::; jr de A forman
un conjunto linealmente independiente. Sean P una matriz de permutacin
m m cuyas primeras r las son las las i1 ; :::; ir de Im y Q una matriz de
permutacin n n cuyas primeras r columnas son las columnas j1 ; :::; jr de
In . Sea B = PAQ y particionemos a B como
B=

B11 B12
B21 B22

donde B11 es r r. Entonces una matriz G n m es una inversa generalizada


de A si y slo si

G=Q

B111

XB21 B111

B111 B12 Y
Y

B111 B12 ZB21 B111 X


Z

P (2.2)

para ciertas matrices X; Y y Z (de tamaos apropiados).


Demostracin. Como P y Q son matrices de permutacin, ellas son ortogonales. Luego,
A = PT PAQQT = PT BQT ,
y por Lema 2.3.3 G es una inversa generalizada de A si y slo si G = QHP
para alguna inversa generalizada H de B. Ntese que B tiene rango r, que
sus primeras r las y r columnas son linealmente independientes y que B11
se obtiene al eliminar de B las las r + 1; :::; m y las columnas r + 1; :::; n,

26

CAPTULO 2. INVERSAS GENERALIZADAS (I.G)

por tanto el Teorema 1.2.10 garantiza que B11 es una matriz invertible y as,
el Teorema 2.3.2 implica que H es de la forma
B111

XB21 B111

B111 B12 Y
Y

B111 B12 ZB21 B111 X


Z

para algunas matrices X; Y y Z de tamaos apropiados. Concluimos que G


es una inversa generalizada de A si y slo si
G=Q

B111

XB21 B111

B111 B12 Y
Y

B111 B12 ZB21 B111 X


Z

P.

Tomando X; Y y Z iguales a las matrices nulas de los tamaos adecuados en


la expresin (7.31), tenemos que una inversa generalizada de la A es
G=Q

B111 0
0 0

P.

Ntese que esta inversa generalizada se puede hallar siguiendo los siguientes
pasos (se utiliza la notacin del Teorema 2.3.5):
1) Halle r = rk(A).
2) Determine valores para i1 ; :::; ir y j1 ; :::; jr .
3) Construya B11 y encuentre B111 .
4) Construya G de la siguiente manera: Gjs it = (B111 )st para s = 1; :::; r y
t = 1; :::; r, y cero en las restantes posiciones de G.
Ejemplo. Hallemos una inversa generalizada de la matriz
2

(1) (2) 2
6 2
4 4
A=6
4 (1) (0) 1
1
4 3

1
2
1
3

3
1
2 7
7:
0 5
2

2.3. I.G Y SUBMATRICES INVERTIBLES

27

El rango de A es 2. Las las 1 y 3 forman un conjunto linealmente independiente y las columnas 1 y 2 tambin forman un conjunto linealmente
independiente. Luego, podemos tomar
1 2
1 0

B11 =

la cual se obtiene al eliminar las las 2 y 4 de B, y las columnas 3; 4 y 5.


Encontramos ahora que
0 1
B111 = 1
.
1
2

As, una inversa generalizada de A


2
(0)
6 1
6 2
G=6
6 0
4 0
0

es
0
0
0
0
0

(1)
1
2

0
0
0

0
0
0
0
0

7
7
7.
7
5

Teorema 2.3.6. Sean A una matriz simtrica n n de rango r, i1 <


<
ir enteros positivos en el conjunto f1; :::; mg tales que las las i1 ; :::; ir de
A forman un conjunto linealmente independiente y sea P una matriz de
permutacin n n cuyas primeras r las son las las i1 ; :::; ir de In . Sea
B = PAPT y particionemos a B como
B=

B11 B12
B21 B22

donde B11 es r r. Entonces una matriz G n n es una inversa generalizada


de A si y slo si

G = PT

B111

XB21 B111

B111 B12 Y
Y

B111 B12 ZB21 B111 X


Z

para ciertas matrices X; Y y Z (de tamaos apropiados).


Demostracin. Se sigue inmediatamente del Teorema 2.3.5.

28

CAPTULO 2. INVERSAS GENERALIZADAS (I.G)

Lema 2.3.7. Toda matriz A n n simtrica no invertible tiene inversas


generalizadas simetricas y no simtricas.
Demostracin. Ejercicio.

2.4.

I.G en trminos de una I.G particular

Teorema 2.4.1. Sean A m n y G una inversa generalizada particular de


A. Entonces G n m es una inversa generalizada de A si y slo si
G =G+Z
para alguna matriz Z n
si y slo si

m. Adems, G es una inversa generalizada de A

G = G + (In
para ciertas matrices n

GAZAG

GA)T + S(Im

AG)

m T y S.

Demostracin. Ejercicio. Ayuda: Considere Z = S = G

2.5.

G y T = G AG.

I.G de matrices con rango completo

Lema 2.5.1. Sea A una matriz de rango columna completo y B una matriz
de ramgo la completo. Entonces:
i) G es una inversa generalizada de A si y slo si G es una inversa a
izquierda de A.
ii) G es una inversa generalizada de B si y slo si G es una inversa a
derecha de B.
Demostracin. Ejercicio.
Lema 2.5.2. Si una matriz A tiene rango columna completo, entonces
(AT A) 1 AT

2.6. ALGUNAS PROPIEDADES ELEMENTALES

29

es una inversa a izquierda de A. Similarmente, si A es de rango la completo, entonces


T
AT (AA ) 1
es una inversa a derecha de A.
Demostracin. Ejercicio.

2.6.

Algunas propiedades elementales

Lema 2.6.1. Sean A m n y k un escalar distinto de cero. Entonces


es una inversa generalizada de kA.

1
A
k

Demostracin.
(kA)( k1 A )(kA) = (k)( k1 )(k)(AA A) = kA.
Corolario 2.6.2. Sea A m
de A.

n. Entonces

Demostracin. Tome k =

1 en el Lema 2.6.1.

Lema 2.6.3. Sea A m


AT .

A es una inversa generalizada

n. Entonces (A )T es una inversa generalizada de

Demostracin.
AT (A )T AT = (AA A)T = AT .

Corolario 2.6.4. Sea A n


generalizada de A.

n simtrica. Entonces (A )T es una inversa

Demostracin. Ejercicio.
Lema 2.6.5. Sea A m n. Para cualquier matriz B m p, C(B) C(A) si
y slo si B = AA B, o, equivalentemente, si y slo si (Im AA )B = 0.

30

CAPTULO 2. INVERSAS GENERALIZADAS (I.G)

Y, para cualquier matriz C q n, F(C) F(A) si y slo si C = CA A,


o, equivalentemente, si y slo si C(In A A) = 0.
Demostracin. Ejercicio.
Corolario 2.6.6. Sea A m n. x m 1 est en C(A) si y slo si x = AA x.
Adems, y n 1 es tal que yT 2 F(A) si y slo si yT = yT A A.
Demostracin. Ejercicio.
Lema 2.6.7. Si A es m

n, entonces

F (A A ) = F(A) y C(AA ) = C(A).


Demostracin. Ejercicio.
Corolario 2.6.8. Si A es m

n, entonces

rk(A A) = rk(AA ) = rk(A)


Demostracin. Ejercicio.
Lema 2.6.9. Si A es m

n, entonces
rk(A )

rk(A).

Demostracin. Ejercicio.
Lema 2.6.10. Sean A y B matrices particionadas m
A=

T 0

B=

W
0

n de la forma
.

G1
(donde el nmero de las de
G2
G1 es igual al nmero de columnas en T) es una inversa generalizada de A
Una matriz particionada n

m; G =

2.7. INVARIANZA EN LA ESCOGENCIA DE UNA I.G

31

si y slo si G1 es una inversa generalizada de T. Similarmente, una matriz


particionada n m, H = H1 H2 , (donde el nmero de columnas en H1
es igual al nmero de las en W) es inversa generalizada de B si y slo si
H1 es una inversa generalizada de W.
Demostracin. Ejercicio.
A
B
(m + p) m es una inversa generalizada de la matriz particionada A B
si y slo si AA B = 0 y BB A = 0. Similarmente, la matriz A C
A
n (m + q) es una inversa generalizada de la matriz particionada
si
C
y slo si CA A = 0 y AC C = 0.
Lema 2.6.11. Sean A m

n, B m

p y C q

n. La matriz

Demostracin. Ejercicio.

2.7.

Invarianza en la escogencia de una I.G

Teorema 2.7.1. Sean A m n; B p n y C m q. Si F(B)


F(A)
y C(C) C(A), entonces BA C es una invariante a la escogencia de una
inversa generalizada de A. Recprocamente, si BA C es invariante para
cualquier A y si C es no nula, entonces F(B) F(A). Y, si BA C es
invariante para cualquier A y B es no nula, entonces C(C) C(A).
Demostracin. Supongamos que F(B) F(A) y C(C) C(A). Entonces
existen matrices L y R tales que B = LA y C = AR, por tanto
BA C = LAA AR = LAR.
Esto es, BA C es invariante a la es cogencia de A .
El resto de la demostracin se deja como ejercicio para el lector.
Corolario 2.7.2. Sean A q p, B p n y C m q. Si rk(CAB) = rk(C) =
rk(B), entonces B(CAB) C es invariante para cualquier inversa generalizada de CAB.

32

CAPTULO 2. INVERSAS GENERALIZADAS (I.G)

Demostracin. Supongamos que rk(CAB) = rk(C) = rk(B), entonces por


Teorema 1.2.3 F(B) = F(CAB) y C(C) = C(CAB). Basados en el Teorema
2.7.1 concluimos que B(CAB) C es invariante a la escogencia de cualquier
(CAB) .

2.8.

Consistencia de un sistema lineal

Lema 2.8.1. Un sistema lineal AX = B es consistente si y slo si


AA B = B.

Demostracin. =)) Si C es una solucin de AX = B, entonces


AA B = AA AC = AC = B.
(=) Ahora, si AA B = B, entonces D = A B es solucin del sistema
AX = B.

2.9.

Rango e I.G de matrices particionadas

Teorema 2.9.1. Sean T m


Q = W VT U. Si C(U)
rk

T U
V W

p; U m q; V n p, W n q y denamos
C(T) y F(V) F(T), entonces
= rk

W V
U T

(2.3)

= rk(T) + rk(Q).

Adems, las matrices particionadas


T + T UQ VT
Q VT

T UQ
Q

T
0

0
+
0

T U
Q
Iq

VT

In

y
Q
T UQ

Q VT
T + T UQ VT

son inversas generalizadas de

0 0
+
0 T

Iq
Q
T U

In

T U
W V
y
, respectivamente.
V W
U T

VT

2.9. RANGO E I.G DE MATRICES PARTICIONADAS

33

Demostracin. Ejercicio.
Corolario 2.9.2. Sean T m
C (V) C(W), entonces
rk

T O
V W

pyWn

p, V n

= rk

W V
O T

q. Si F (V)

F (T) o

= rk (T) + rk(W),

y matrices de bloques
T
WVT

0
W

T 0
V W

son inversas generalizadas de

W
0

W VT
T
W V
, respectivamente.
0 T

Demostracin. Ejercicio.
Corolario 2.9.3. Sean T y W matrices. Entonces la matriz particionada
T
0
T 0
es una inversa generalizada de
.
0 W
0 W
Demostracin. Ejercicio.
Teorema 2.9.4. Si T m
entonces
rk

p, R p

T R
LT W

= rk

q, L n

m, W n

W LT
TR T

q y Q=W

LTR,

= rk(T) + rk(Q).

Adems, las matrices particionadas


T + RQ L
Q L

RQ
Q

T
0

0
+
0

R
Q [ L In ]
Iq

y
Q
RQ

Q L
0 0
=
T + RQ L
0 T

son inversa generalizada de

T TR
LT W

Iq
Q [In
R

L]

W LT
, respectivamente.
TR T

34

CAPTULO 2. INVERSAS GENERALIZADAS (I.G)

Demostracin. Ejercicio.
Teorema 2.9.6. Sean T m p; U m q, V n p, W n q y Q =
W VT U. Si C (U)
C (T) y F (V)
F (T), entonces para cualquier
B11 B12
T U
inversa generalizada B =
de
, la submatriz B22 q
B21 B22
V W
n es una inversa generalizada de Q. Similarmente, para cualquier inversa
C11 C12
W V
generalizada C =
de
, la submatriz C11 q n es una
C21 C22
U T
inversa generalizada de Q.
Demostracin. Ejercicio.

2.10.

Sistemas de la forma AXC = B

Teorema 2.10.1. El sistema AXC = B es consistente si y slo si


AA BC = B,
o equivalentemente, si y slo si
AA B = B y BC C = B;
en cuyo caso A BC es una solucin de AXC = B.
Demostracin. Ejercicio.
Corolario 2.10.2. El sistema AXC = B es consistente si y slo si
C (B)
Demostracin. Ejercicio.

C (A) y F (B)

F (C) .

2.11. EJERCICIOS

2.11.

35

Ejercicios

4. Use la frmula (2.3) y encuentre la


2
0
6 0
6
A=6
6 0
4 0
0

inversa generalizada de la matriz


3
0
0
4
2 7
7
2
1 7
7:
3
3 5
8
4

36

CAPTULO 2. INVERSAS GENERALIZADAS (I.G)

Captulo 3
Matrices Idempotentes
Denicin. Una matriz A n

n es idempotente si
A2 = A.

Teorema La matriz In es la nica matriz n

n idempotente e invertible.

Demostracin. Claramente In es idempotente e invertible. Supongamos


ahora que A n n es idempotente e invertible, entonces
A = AIn = A(AA 1 ) = (AA)A

Teorema Si A n

= A2 A

= AA

n es idempotente, entonces Spec(A)

Demostracin. Sea
Ax = x. Entonces

2Spec(A), entonces existe x n

x = Ax = A2 x = A x = Ax =
de donde (
= 1:

)x = 0, pero x 6= 0 implica

Teorema La matriz In es la nica matriz n


igual a f1g :
37

= In .

f0; 1g :
1 no nulo tal que

x,

= 0. Luego,

=0o

n idempotente con espectro

38

CAPTULO 3. MATRICES IDEMPOTENTES

Demostracin. Es claro que el nico valor propio de In es 1 y que ella es


idempotente. Ahora, sea A 6= In una matriz idempotente tal que Spec(A) =
f1g, y sea fx1 ; :::; xk g una base para EA (1). Si k = n, sea P = [x1
xk ] :
Entonces
AP = A [x1

xk ] = [Ax1

Axk ] = [x1

xk ] = P.

As, A = PP 1 = In , lo cual es absurdo. Si k < n existe xk+1 n 1 tal que


fx1 ; :::; xk ; xk+1 g es linealmente independiente. Ahora, si Axk+1 = 0 se tiene
que 0 es un valor propio de A, lo cual es absurdo. Y si Axk+1 6= 0 se tiene
que
A(Axk+1 ) = A2 xk+1 = Axk+1 ,
de donde Axk+1 resulta ser un vector propio de A asociado al valor propio
1, por tanto existen escalares c1 ; ::::; ck tales que
Axk+1 = c1 x1 +

+ cn xn = c1 Ax1 +

+ cn Axn ;

entonces
A(xk+1

c1 x1

cn xn ) = 0.

Pero, como xk+1 no se deja generar por fx1 ; :::; xk g se tiene que xk+1 c1 x1
cn xn 6= 0, en consecuencia 0 es un valor propio de A, lo cual es absurdo.
Se concluye nalmente que no existen matrices n n distintas de In que sean
idempotentes y tengan como nico valor propio a 1.
Teorema La matriz nula n
espectro igual a f0g :

n es la nica matriz n

n idempotente con

Demostracin.
Una cuestin que debemos anotar es que las matrices nulas y las matrices identidad no son las unicas matrices idempotentes, existen muchas. Por
ejemplo, la matriz
3
2 1 1
0 0
2
2
6 1 1 0 0 7
2
2
7
A=6
4 0 0 1 1 5
2
2
0 0 12 12

es idempotente.

39

Teorema Si A n

n una matriz idempotente, entonces es diagonalizable.

Demostracin. Sea fx1 ; :::; xk g una base para EA (0) y escojamos (si es necesario) vectores xk+1 ; :::; xn tales que fx1 ; :::; xk ; xk+1 ; :::; xn g sea una base para
Cn . Entonces fAxk+1 ; :::; Axn g es un conjunto linealmente independiente de
vectores propios de A asociados al valor propio 1. Luego, por Teorema 3.4.2
fx1 ; :::; xk ; Axk+1 ; :::; Axn g
es un conjunto linealmente independiente, en consecuencia la matriz
P = [x1

Axn ] 2 Cn

xk Axk+1

es invertible y
AP =

0 A2 xk+1

A2 xn = [0

= P diag(0; :::; 0; 1; :::; 1)

Axn ]

0 Axk+1

(k ceros y n

k unos).

Luego, P 1 AP es diagonal.
Lema 10.1.1. La nica matriz idempotente n
identidad In .

n de rango n es la matriz

Demostracin. Supongamos que A es una matriz n


rango n. Entonces
A = AIn = A(AA 1 ) = (AA)A

= A2 A

n idempotente y de

= AA

= In .

Lema 10.1.2. Sea A una matriz n n. Entonces:


i) AT es idempotente si y slo si A es idempotente.
ii) In A es idempotente si y slo A es idempotente.
Demostracin. i) AT es idempotente si y slo si (AT )2 = AT , si y slo si
(A2 )T = AT , si y slo si A2 = A, si y slo si A es idempotente.
ii) In A es idempotente si y slo si (In A)2 = In A, si y slo si
In

2A + A2 = In

A,

40

CAPTULO 3. MATRICES IDEMPOTENTES

si y slo si A2 = A, si y slo si A es idempotente.


Lema 10.1.3. Si A es una matriz n
inversa generalizada de ella misma.

n idempotente, entonces A es una

Demostracin. AAA = AA2 = AA = A2 = A.

3.1.

Algunos resultados bsicos

Teorema 10.2.1: Para alguna matriz cuadrada A tal que A2 = kA, para
algun escalar k,
tr (A) = krank (A)
Corolario 10.2.2: Para alguna matriz idempotente A,

rank (A) = tr (A)


Corolario 10.2.3: Si la traza de una matriz idempotente A es cero,
A = 0.
Lema.10.2.4: Para alguna matriz A idempotente n

rank (I

A) = tr (I

A) = n

n,

rank (A) :

Lema.10.2.5: Sea A una matriz m n. Entonces, la matirz A A n


la matriz AA m m son idempotentes.
Lema.10.2.6:Sea A una matriz m

rank I

A A = tr I

n. Entonces,

A A =n

rank (A) ;

ny

3.1. ALGUNOS RESULTADOS BSICOS

rank I

AA

= tr I

AA

41

=m

rank (A) :

Teorema 10.2.7: Sea A una matriz m n y B una matriz n m. Entonces, B


una inversa generalizada de A si y slo si BA es idempotente y rank (BA) =
rank (A).similarmente, B una inversa generalizada de A si y slo si AB es
idempotente y rank (AB) = rank (A).

42

CAPTULO 3. MATRICES IDEMPOTENTES

Captulo 4
Matrices idempotentes
Este captulo es dedicado a una clase especial de matrices llamadas matrices
idempotentes. Aqu se proporcionan algunas propiedades y resultados bsicos
referentes a las matrices idempotentes. Las matrices idempotentes juegan un
papel importante en la teora de los modelos lineales estadsticos (especialmente en lo relacionado con la teora de los mnimos cuadrados y el anlisis
de varianza) y (no es coincidencia) que aparezca frecuentemente en algunos
de los prximos captulos de este libro (incluyendo captulos 12 y 17). Realizar matrices idempotentes es el tema de un captulo separado (aun cuando
da lugar a un capitulo muy corto) es conveniente y sirve para acentuar su
importancia.

4.1.

10.1 Denicin Y Algunas Propiedades


Bsicas

Una matriz cuadrada A se dice idempotente si


A2 = A:
Un ejemplo de matrices idempontes n n son, la matriz identidad In , la
matriz nula 0 n n y la matriz (1=n) Jn, donde cada uno de sus elementos
son iguales a 1=n:
Tal como se indica en el siguiente lema, son matrices idempotentes n n ,con
una excepcin particular.

43

44

CAPTULO 4. MATRICES IDEMPOTENTES

Lema 10.1.1. La nica matriz idempotente n


identidad In :

n de rango n es la matriz

Demostracin. Supongamos que A es una matriz idempotente de rango n.


Entonces,
A = In A = A 1 AA = A 1 A = In .
Si una matriz cuadrada A es idempotente, entonces
(AT )2 = (AA)T = AT
y
(I

A)2 = I

2A + A2 = I

2A + A = I

Por lo tanto, observando que A = (AT )T y A = I


siguiente lema.

(I

A:
A), se obtiene el

Lema 10.1.2 Sea A una matriz cuadrada. Entonces, (1) AT es idempotente


si y solo si A es idempotente, y (2) I A es idempotente si y solo si A es
idempotente.
Para alguna matriz idempotente A; tenemos que AAA = (AA)A = AA = A,
dando lugar al siguiente lema.
Lema10.1.3 Si una matriz (cuadrada) A es idempotente, entonces A es una
inversa generalizada de si misma (i.e., de A).

4.2.

10.2 Algunos Resultados Bsicos

Supongamos que A es una matriz cuadrada tal que


A2 = kA
para alguna escalar k distinto de cero. O, equivalentemente supongamos que
[(1=k)A]2 = (1=k)A,

4.2. 10.2 ALGUNOS RESULTADOS BSICOS

45

esto es, (1=k)A es una matriz idempotente (de modo que, si k = 1 k 6= 1, A


es una matriz idempotente o un multiplo escalar de una matriz idempotente).
Entonces, a la luz del siguiente teorema,
rank(A) = (1=k)tr(A),
y por consiguiente el rango de A es determinable por la traza de A.
Teorema 10.2.1 Para alguna matriz A tal que A2 = kA para algn escalar
k,
tr(A) = k rank(A):
Prueba. Solo analizaremos el caso donde A es no nulo.[El caso donde A = 0
es trivial si A = 0, entonces tr(A) = 0 = k rank(A)].
Sea n el orden de A , y sea r = rank(A). Entonces, de acuerdo con el teorema
4.4.8, existe una matriz B n r y una matriz L r n tal que A = BL:
Por otro lado, rank(B) = rank(L) = r: As tenemos que
BLBL = A2 = kA = kBL = B(kI)L;
implicando (a la luz del lema 8.3.1) que
LB = kI:
De este modo, haciendo uso del lema 5.2.1, encontramos que
tr(A) = tr(BL) = tr(LB) = tr(kI) = k tr(Ir ) = kr

En el caso especial donde k = 1, el teorema 10.2.1 puede ser expuesto en


forma modicada como se muestra a continuacin.
Corolario 10.2.2 Para alguna matriz idempotente A,
rank(A) = tr(A):
Sobre la observacin que solo una matriz nula puede tener rango cero, obtenemos el siguiente corolario adicional (del teorema 10.2.1).

46

CAPTULO 4. MATRICES IDEMPOTENTES

Corolario 10.2.3 Si la traza de una matriz idempotente A es igual a 0,


entonces A = 0. Haciendo uso del lema 10.1.2 y corolario 10.2.2, encontramos
que, para alguna matriz idempotente A n n;
rank(I

A) = tr(I

A) = tr(In )

tr(A) = n

rank(A);

de tal modo se establece el siguiente lema.


Lema 10.2.4 Para alguna matriz idempotente A n
rank(I

A) = tr(I

A) = n

n;

rank(A):

Para alguna matriz A, A AA A = A A y AA AA = AA : As, tenemos el siguiente lema.


Lema 10.2.5 Sea A una matriz m n. Entonces, la matriz A A n n y la
matriz AA m m son ambas idempotentes.
Observese que este lema, junto con el corolario 9.3.8 y el corolario 10.2.2,
implican que, para alguna matriz A,

rank(A) = rank(A A) = rank(AA ) = tr(A A) = tr(AA ):

(4.1)

A la luz del lema 10.2.4 [y del resultado(2.1.1)], una implicacin adicional


del lema 10.2.5 seria la siguiente.
Lema 10.2.6 Sea A una matriz m

n. Entonces,

rank(I

A A) = tr(I

A A) = n

rank(A);

(4.2)

rank(I

AA ) = tr(I

AA ) = m

rank(A):

(4.3)

El siguiente teorema amplia los resultados del lema 10.2.5 y el colorario 9.3.8.
Teorema 10.2.7. Sea A una matriz m n y B una matriz n m. Entonces,
B es una inversa generalizada de A si y solo si BA es idempotente y el
rank(BA) = rank(A). Similaremente, B es una inversa generalizada de A si
y solo si AB es idempotente y rank(AB) = rank(A):

4.3. EJERCICIOS

47

Prueba. En funcin del lema 10.2.5 y corolario 9.3.8, es suciente mostrar


que B es una inversa generalizada de A si BA es idempotente y rank(BA) =
rank(A) o si AB es idempotente y rank(AB) = rank(A):
Supongamos que BA es idempotente y rank(BA) = rank(A). Entonces,
segn el corolario 4.4.7, R(A) = R(BA), y se sigue del lema 4.2.2 que
A = SBA para alguna matriz S: As,
ABA = SBABA = SBA = A.
Alternativamente, supongamos que AB es idempotente y que rank(AB) =
rank(A). Entonces, segn el colorario 4.4.7, C(A) = C(AB), y por lo tanto
A = ABT para alguna matriz T. As,
ABA = ABABT = ABT = A

4.3.

Ejercicios

Seccin 10.1
1. Muestre que si una matriz A n n es idempotente, entonces
(a)Para alguna matriz no singular B n n, B 1 AB es idempotente.
(b)Para algn nmero entero k mayor o igual que 2; Ak = A.
2. Sea P una matriz m n (donde m n) tal que PT P = In ; o equivalentemente una matriz m n cuyas columnas son ortonormales (con respecto al
producto interno generalmente). Muestre que la matriz simtrica PPT m m
es idempotente.
3. Muestre que, para alguna matriz A simtrica e idempotente, la matriz
I 2A es ortogonal.
4. Sea A una matriz m
AAT es idempotente.

n: Muestre que si AT A es idempotente, entonces

5. Sea una matriz A simtrica y k un nmero entero mayor o igual que 1.


Muestre que si Ak+1 = Ak ; entonces A es idempotente.

48

CAPTULO 4. MATRICES IDEMPOTENTES

6. Sea A una matriz n n: Muestre que (1=2) (I + A) es idempotente si y


solo si involutory (donde involutory es como se denio en el ejercicio 8.2).
7. Sean A y B matrices simtricas e idempotentes n
C (A) = C (B) ; entonces A = B:

n. Muestre que si

8. Sea A una matriz r m y B una matriz m n:


(a) Muestre que B A es una inversa generalizada de AB si y solo si
A ABB es idempotente.
(b) Muestre que si A tiene rango columna completo B tiene rango la
completo, entonces B A es una inversa generalizada de AB.
Seccin 10.2
9. Sea T una matriz m p; U una matriz m q; V una matriz n p y W
una matriz n q; y denamos Q = W VT U: Usando la parte (a) del
ejercicio 9.8, junto con el resultado (2.1.1), muestre que si
(1) I TT U (I Q Q) = 0;
(2) I QQ V (I T T) = 0; y
(3) I TT UQ V (I T T) = 0;
entonces
rank

T U
= rank (T) + rank (Q) :
V W

10.Sea T una matriz m


una matriz n

p; U una matriz m q; V una matriz n p y W


T U
q; tomemos A =
y denimos Q = W VT U:
V W

Adems, iet

ET = I

TT ; FT = I

T T; X = ET U; Y = VFT ; EY = I

FX = I

X X; Z = EY QFX y Q = FX Z EY :

(a) (Meyer 1973, Teorema 3.1) muestre que la matriz

YY;

4.3. EJERCICIOS

49

(4.4)

G = G 1 + G2 ;
donde

2
3
T
T U (I Q Q) X ET
6
FT Y (I QQ ) VT
FT Y (I QQ )7
7
G1 = 6
4 FT Y (I QQ ) QX ET
5
(I Q Q) X ET
0
G2 =

T
Iq

VT ; In ;

es una inversa generalizada de A.


(b) (Meyer 1973, Teorema 4.1) muestre que

rank (A) = rank (T) + rank (X) + rank (Y) + rank (Z) :

(4.5)

[Sugerencia. Utilizar la parte (a) junto con el resultado (2.1.1)].


(c) Muestre que si C (U)
C (T) y R (V)
R (T) ; entonces la formula
(E.2) para el rank (A) se reduce a la formula (9;61) ; y de laformula (9;62)
para una inversa generalizada de A se puede obtener como un caso especial
de la formula (E.1) :

50

CAPTULO 4. MATRICES IDEMPOTENTES

Captulo 5
Formas Lineales, Biliniales y
Cuadrticas
Este captulo est dedicado a ciertas funciones de un vector (ndimensional)
que se denen en la seccin 14.1 y que se conocen como formas lineales, bilineales y cuadrticas. Las formas bilineales que tienen ciertas caractersticas
(conocidas, como su simetra y denidas positivas), son de inters (por lo
menos en parte) porque calican como productos internos para Rn (como se
discute en la seccin 14.10). Las formas cuadrticas y bilineales son de gran
importancia en estadstica; las sumas de cuadrados en un anlisis de varianza
son formas cuadrticas y la suma de productos en un anlisis de covarianza
son formas bilineales.

5.1.

Preliminares

Denicin. Sea a = [a1


an ]T 2 Rn . Una funcin
que asigna a cada
Pn
T
n
T
vector x = [x1
xn ] de R el valor a x =
i=1 ai xi es llamada una
forma lineal.
Debemos hacer notar que aT x es un polinomio homogneo de grado uno.
Ntese adems que la forma lineal aT x puede ser expresada tambin como
xT a. a1 ; :::; an son los coecientes y a es el vector de coecientes de la
forma lineal aT x.
Denicin. Una funcin lineal es una funcin f de Rn en R tal que
51

52CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS

f (cx1 + x2 ) = cf (x1 ) + f (x2 )


para todas las x1 ; x2 de Rn y toda c de R.
Proposicin. Una funcin f : Rn
es una forma lineal.

! R es una funcin lineal si y slo si

Demostracin. Ejercicio.
Proposicin. Dos formas lineales aT x y bT x son iguales si y slo si a = b.
Demostracin. Ejercicio.
Denicin. Sea A una matriz m n. Una funcin de Rm Rn en R que
asigna a cada pareja (x; y) 2 Rm Rn el valor xT Ay es llamada una forma
bilineal.
Respecto a la denicin anterior, ntese que si x = [x1 x2
[y1 y2
yn ]T , entonces
T

x Ay =

m X
n
X

x m ]T y y =

aij xi yj .

i=1 j=1

As, una forma bilineal es una clase especial de polinomio homogneo de


segundo grado en las m + n variables x1 ; :::; xm ; y1 ; :::; yn , en el cual, para
un x jo, es homogneo de primer grado en las variables y1 ; :::; yn y en el
que para un y jo, es homogneo de primer grado en las variables x1 ; :::; xm .
Es costumbre referirse a A, como la matriz de la forma bilineal xT Ay.
Ntese adems que xT Ay = yT AT x.
RRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRR
Una funcin, f (x; y);de x y y se dice bilineal si, para cada x jo, esta es una
funcin lineal de y, y si para cada y jo, esta es una funcin lineal de x. Para
cada y jo, la forma bilineal xT Ay es una forma lineal en xcon un vector
coeciente Ay: (Y, para cada x jo, xT Ay es una forma lineal en y) ya que
(segn lo observado anteriormente) una forma lineal es una funcin lineal, una
forma bilineal es una funcin bilineal. Inversamente, cualquier funcin bilineal
es expresable como una forma bilineal par ver esto, sea f (x; y) una funcin

5.1. PRELIMINARES

53

bilineal arbitraria en x = (x1 ; x2 ; :::; xm )T y = (y1 ; y2 ; :::; yn )T y tomemos A


como una matriz m n con ij simo elemento aij = f (ei ; ui ) donde ei es la
i sima columna de Im , y uj la j sima columna de In . Entonces
X
X
f (x; y) = f ( xi ei ; y) =
xi f (ei ; y)
=

xi f (ei ;

y j ; uj )

X X
X
=
xi yj f (ei ; uj ) =
aij xi yj = xT Ay
i

i;j

Si las matrices A y B las dos de formas bilineales xT Ay y xT By (en x y y)


son iguales entonces claramente las dos formas bilineales son idnticamente
iguales (i.e., para cada x y y). Inversamente, si las dos formas bilineales son
idnticamente iguales entonces A = B como es evidente sobre la observacin
que, para x = ei (la i sima columna de In ) y y = uj (la j sima columna
de In ) aij = xT Ay = xT By =bij ; (i = 1; :::; m; j = 1; :::; n).
Una formula bilineal xT Ay de los vectores x = (x1 :::xn )T y y = (y1 :::yn )T
(de la misma dimensin) se dice que es simtrica si xT Ay = yT Ax para
toda x y y. Dado que yT Ax = (yT Ax)T = xT Ay, la forma bilineal xT Ay es
simtrica si y solo si xT Ay = xT AT y para toda x y y y en consecuencia si
y solo si A = AT :Por lo tanto, la formula bilineal es simtrica si y solo si la
matriz de la forma bilineal es simtrica.
Finalmente, sea A = aij que representa una matriz arbitraria n n y consideremos la funcion que asigna a cada vector x = (x1 ; :::; xn )T (en Rn ) el
valor
X
X
X
xT Ax =
aij xi xj =
aii x2i +
aij xi xj :
i;j

i;j6=i

Una funcin x que se deja expresar de la forma xT Ax es llamada una forma


cuadrtica en x. As, una forma cuadrtica es un polinomio homogneo de
grado dos. Se acostumbra a referirse a A como la matriz de la forma cuadrtica xT Ax. Claramente, la forma cuadrtica xT Ax puede ser obtenida de la
forma bilineal xT Ay (en x y y) simplemente estableciendo y = x.
Sea B = fbij g que representa una segunda matriz n n: Bajo que circunstancia estas dos formas cuadrticas xT Ax y xT Bx son identicamente iguales?
Claramente una condicin suciente para xT Ax = xT Bx es que A = B.

54CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS


Sin embargo, excepto en el caso especial, donde n = 1; A = B no es una
condicin necesaria.
Para nes de establecer una condicin necesaria, suponga que xT Ax =
xT Bx.
Estableiendo x igual ala isima columna de In encontramos que
aii = xT Ax = xT Bx = bii (i = 1; :::; n).

(5.1)

Es decir, los elementos de la diagonal de A son iguales a los de B. Considere


ahora la diagonal opuesta de los elementos de A y B: Estableciendo x igual
a la columna n dimencional del vector cuyos isimo y jsimo elementos
son iguales a uno y cuyos elementos restantes son iguales a cero, encontramos
que
aii + aij + aij + aij = xT Ax = xT Bx = bii + bij + bij + bij

(j 6= i = 1; :::; n):
(5.2)

Simultneamente, los resultados (1.1) y (1.2) implican que


aii = bij ; aij + aji = bij + bji (j 6= i = 1; :::; n)
o equivalentemente que:
A + AT = B + BT

(5.3)

As, la condicin (1.3) es una condicin necesaria para que xT Ax y xT Bx sean


idnticamente iguales. Tambin es una condicin suciente. Para comprender
esto, observe que (dado que una matriz 1 1 es simtrica) la condicin (1.3)
implica que
xT Ax =
=
=
=

(1=2)[xT Ax + (xT Ax)T ] = (1=2)(xT Ax + xT AT x)


(1=2)xT + (A + AT )x
(1=2)xT + (B + BT )x
(1=2)[xT Bx + (xT Bx)T ] = xT Bx

En resumen, tenemos el siguiente lema.


Lema 14.1.1. Sean A = faij g y B = fbij g que representan matrices arbitrarias n n

5.2. FORMAS CUADRTICAS Y MATRICES NO NEGATIVAS

55

Las dos formas cuadrticas xT Ax y xT Bx (en x) son idnticamente iguales si


y solo si, para j 6= i = 1; :::; n aii = bii y aij +aji = bij +bji o, equivalentemente,
si y solo si A + AT = B + BT :
Note que el lema 14.1.1 implica en particular que xT AT x = xT Ax para toda
x.
Cuando B es simtrica, la condicin A + AT = B + BT es equivalente a la
condicin B = (1=2)(A + AT ), y, cuando ambas A y B son simtricas, la
condicin A + AT = B + BT es equivalente a la condicin A = B. De este
modo, tenemos los dos siguientes corolarios del lema 14.1.1
Corolario 14.1.2. Correspondiente a alguna forma cuadrtica xT Ax, hay
una matriz simtrica B tal que xT Bx = xT Ax para toda x, es decir, la
matriz B = (1=2)(A + AT ):
Corolario 14.1.3. Para algn par de matrices simtricas A n n y B n n
, las dos formas cuadrticas xT Ax = xT Bx en x son idnticamente iguales
(i.e, xT Ax = xT Bx para toda x) si y solo si A = B.
Como un caso especial del corolario 14.1.3 (cuando B = 0), tenemos el siguiente corolario adicional.
Corolario 14.1.4. Sea A n n una matriz simtrica. Si xT Ax = 0 para
todo vector x (n 1), entonces A = 0.

5.2.
5.2.1.

Formas cuadrticas y matrices no negativas


Deniciones

Sea xT Ax que representa una forma cuadrtica arbitraria (en un vector x =


(x1 :::xn )T n dimensional). La forma cuadrtica xT Ax se dice que es denida
no negativa si xT Ax 0 para todo x en Rn :
Note que xT Ax = 0 para al menos un valor de x, es decir, x = 0. Si xT Ax
es denida no negativa y si, adems el vector no nulo 0 es el nico valor de
x para el cual xT Ax = 0, entonces xT Ax se dice que esta denida positiva.
Es decir xT Ax es denida positiva si xT Ax > 0 para toda x excepto en
x = 0. Una forma cuadrtica que es denida no negativa, pero no denida

56CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS


positiva, es llamada semidenida positiva. As, xT Ax es semidenida positiva
si xT Ax 0 para toda x 2 Rn y xT Ax = 0 para algn x no nulo.
Considere, por ejemplo, las dos formas cuadraticas xT Ix = x21 + x22 +; :::; x2n
y xT Jx = xT 11T x = (1T x)T 1xT = (x1 + x2 +; :::; xn )2 : Claramente, xT Ix
y xT Jx son ambas denida no negativa. Adems, xT Ix > 0 para toda x no
nula, mientras (asumiendo que n
2) xT Jx = 0 para el vector no nulo
x = (1 n; 1; 1; :::; 1)T : Por lo tanto, xT Ix es denida positiva, y xT Jx es
semidenida positiva
La forma cuadrtica xT Ax se dice que es denida no positiva, denida negativa o semidenida negativa si xT Ax es denida no negativa, denida positiva o semidenida positiva, respectivamente. Por lo tanto xT Ax es denida
no positiva si xT Ax 0 para toda x en Rn ; es denida negativa si xT Ax < 0
para todo x no nulo en Rn ; y es semidenida negativa si xT Ax 0 para toda
x en Rn y xT Ax = 0 para algn x no nulo.
Una forma cuadrtica que no es denida no negativa ni denida no positiva
se dice que es indenida. As, xT Ax es indenida si xT Ax < 0 para algn
x y xT Ax > 0 para algn (otro) x:
Los trminos denida no negativa, denida positiva, semidenida positiva,
denida no positiva, denida negativa, semidenida negativa e indenida son
aplicadas a matrices como tambin a formas cuadrticas. Una matriz An n
se dice que es denida no negativa, denida positiva, o semidenida positiva
si la forma cuadrtica xT Ax (en x) es denida no negativa, denida positiva, semidenida positiva respectivamente. Similarmente A se dice denida
no positiva, denida negativa, o semidenida negativa si la forma cuadrtica
xT Ax se dice denida no positiva, denida negativa, semidenida negativa
o equivalentemente si A es denida no negativa, denida positiva, o semidenida positiva. Adems A se dice que es indenida si la forma ciuadrtica
xT Ax es indenida o equivalentemente si A ni es denida no negativa ni es
denida no positiva
(Simtrica) las matrices denidas no negativa son encontradas con considerable frecuencia en modelos lineales estadsticos y en otras reas de la estadstica. En particular, la matriz varianza covarianza de algn vector aleatorio
es inherentemente denida no negativa (y simtrica).
Nuestro uso de los trminos no negativa, denida positiva, semidenida positiva, denida no positiva, denida negativa, semidenida negativa e indenida diere ligeramente de la que se emple en otras presentaciones. En particular, aplicamos estos trminos a ambas matrices simtricas y no simtricas,
mientras que en muchos otros casos su aplicacin se limita a las matrices

5.2. FORMAS CUADRTICAS Y MATRICES NO NEGATIVAS

57

simtricas. Adems, su uso de los trminos semidenida positiva, semidenida negativa no es completamente normal. En algunas presentaciones, estos
trminos son usados de la misma manera que denida no negativa y denida
no positiva usados aqu.
Este es un instructivo, a considerar el siguiente lema, el cual caracteriza los
conceptos precisos de denida no negativa, denida positiva y semidenida
positiva aplicado a matrices diagonales y el cual es fcil de vericar
Lema 14.2.1 Si D = fdi g n n representa una matriz diagonal. Entonces,
(1) D es denida no negativa si y solo si d1 ; :::; dn son no negativos; (2) D es
denida positiva si y solo si d1 ; :::; dn son positivos ; y (3) D es semidenida
positiva si y solo si di
0; para i = 1; :::; n con la igualdad contenida para
uno o mas valores de i: Suponga que una matriz simtrica A n n es a la vez
denida negativa y denida no positiva. Entonces, para cada vector x n 1;
xT Ax 0 y xT Ax 0 ( equivalentemente xT Ax 0): Concluimos que
xT Ax = 0 para cada x y de aqu (de acuerdo con el corolario 14.14) A = 0:
As tenemos el siguiente lema
Lema 14.2.2. La nica matriz n n simtrica que es tanto denida no
negativa como denida no positiva es la matriz nula n n:

5.2.2.

Algunas propiedades bsicas de matrices denidas


no negativas

Ahora, consideremos algunas de las propiedades ms elementales de las matrices denida no negativa. No consideraremos, explcitamente las propiedades
de las matrices denida no positiva. Sin embargo, como A es denida positiva, denida negativa, o semidenida negativa si y solo si A es denida
no negativa, denida positiva semidenida positiva respectivamente, las
propiedades de las matrices no positivas denidas podran deducirse fcilmente de las matrices denidas no negativas.
Los siguientes dos lemas dan algunos resultados bsicos sobre multiplicacin
y sumas de matrices denida no negativa
Lema 14.2.3 Sea k > 0 que representa un escalar (positivo) y An n una
matriz. Si A es denida positiva, entonces kA tambin es denida positiva;
Si A es semidenida positiva, entonces kA tambin es semidenida positiva

58CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS

Prueba Considere las formas cuadrticas xT Ax y xT (kA) x (en x). Claramente, xT (kA) x = kxT Ax. Por tanto, si xT Ax es denida positiva, entonces
xT (kA) x es denida positiva; similarmente, si xT Ax es semidenida positiva, entonces xT (kA) x es semidenida positiva. O equivalentemente si A
es denida positiva, entonces kA es denida positiva; y si A es semidenida
positiva, entonces kA es semidenida positiva.
Lema 14.2.4 Sean An n y Bn n matrices. Si A y B son ambas denida
no negativa, entonces A + B es denida no negativa. Adems, si A B
es denida positiva y la otra es denida no negativa (i.e denida positiva
semidenida positiva), entonces A + B es denida positiva.
Prueba Suponga que una de las dos matrices, digamos A, es denida positiva
y que la otra (B) es denida no negativa. Entonces, para todo vector nu nulo
x en Rn ; xT Ax > 0 y xT Bx 0 y en consecuencia
xT (A + B) x = xT Ax + xT Bx > 0
Por tanto, A + B es denida positiva.
Un argumento similar muestra que si A y B son ambas denidas no negativa,
entonces A + B es denida no negativa.
La primera implicacin del lema 14.2.4 se repite en la siguiente generalizacin.
Corolario 14.2.5. Sea A1 ; :::; Ak matrices n n: Si A1 ; :::; Ak son todas
denidas no negativa, entonces su suma A1 +; :::; +Ak es tambin denida
no negativa.
Adems, si una o mas de las matrices A1 ; :::; Ak es denida positiva y las
otras son denidas no negativa,entonces A1 +; :::; +Ak es denida positiva.
Como una consecuencia inmediata del lema 14.1.1, tenemos el siguiente lema
y corolario.
Lema 14.2.6 Sea A una matriz n n y tomemos B alguna matriz n n
tal que B + BT = A + AT : Entonces A es denida positiva si y solo si B
es denida positiva; es semidenida positiva si y solo si B es semidenida
positiva, y es denida no negativa si y solo si B es denida no negativa.

5.2. FORMAS CUADRTICAS Y MATRICES NO NEGATIVAS

59

Corolario 14.2.7. Una matriz A n n es denida positiva si y solo si


AT es denida positiva y si y solo si (1=2) A + AT es denida positiva;
es semidenida positiva si y solo si AT es semidenida positiva y si y solo
si (1=2) A + AT es semidenida positiva; y es denida no negativa si y solo
si AT es denida no negativa y si y solo si (1=2) A + AT es denida no
negativa.
Si A es una matriz simtrica entonces A = AT y (1=2) A + AT = A:
As, solo en el caso de una matriz no simtrica denida positiva, semidenia
positiva o denida no negativa el corolario 14.2.7 es signicativo.
Una propiedad bsica de las matrices denidas positivas es descrita en el
siguiente lema.
Lema 14.2.8. Cualquier matriz denida positiva es no singular.
Prueba. Sea A n n una matriz denida positiva. Con el propsito de establecer una contradiccin, supngase que A es singular , equivalentemente,
que rank (A) < n: Entonces, las columnas de A son linealmente dependientes, y en consecuencia de esto existe un vector no nulo x tal que Ax = 0:
encontramos que.
xT Ax = xT (Ax ) = xT 0 = 0;
con el cual (desde que A sea denida positiva ) establecemos la contradiccin
deseada.
El lema 14.2.8 implica que las matrices denida no negativa singulares, son
semidenida positiva. Sin embargo lo contrario no es necesaria mente verdad.
Es decir, que existen matrices semidenidas positivas no singulares como
tambin matrices semidenidas positiva no singulares.
Unas propiedades bsicas adicionales de las matrices denidas no negativa
son descritas en el siguiente teorema y corolarios.
Teorema 14.2.9. Sea A una matriz n n y P una matriz n m: (1) Si
A es denida no negativa, entonces PT AP es denida no negativa. (2) Si
A es denida no negativa, y el rk (P) < m; entonces PT AP es semidenida

60CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS


positiva. (3) Si A es denida positiva, y el rk (P) = m; entonces PT AP es
denida positiva
Prueba. Suponga que A es denida no negativa (cualquiera de las dos denida positiva o semidenida positiva). Entonces, yT Ay 0 para toda y en Rn
y en particular para toda y que es expresable de la forma Px. As, para cada
vector x m dimensional,
xT PT AP x = (xP)T APx

0;

(5.4)

el cual establece que PT AP es denida no negativa, con lo cual se completa


la prueba de la parte (1) :
Si el rk (P) < m; entonces
rk PT AP

rk (P) < m;

el cual (de acuerdo con el lema 14.2.8) establece que PT AP no es denida


positiva y por tanto (desde que PT AP es denida no negativa) que PT AP
es semidenida positiva, por lo tanto se completa la prueba de la parte (2).
Si A es denida positiva, entonces la igualdad es obtenida en la desigualdad
(2.1) solo cuando Px = 0: Adems, si el rk (P) = m; entonces (de acuerdo
con el lema 11.3.1) Px = 0 implica que x = 0: As, si A es denida positiva
y el rk (P) = m; entonces la igualdad es obtenida en la desigualdad (2;1) solo
cuando x = 0; implicando (dado que PT AP es denida no negativa) que
PT AP es denida positiva
Corolario 14.2.10 Sea A una matriz n n y P una matriz n n no
singular: (1) Si A es denida positiva, entonces PT AP es denida positiva:
(2) Si A es semidenida positiva, PT AP es semidenida positiva
Prueba. (1) Que PT AP sea denida positiva si A es denida positiva es
una consecuencia directa de la parte (3) del teorema 14.2.9.
(2) Supngase que A es semidenida positiva. Entonces, de acuerdo con la
parte (1) del teorema 14.2.9, PT AP es denida no negativa. Adems, ya que
existe un vector no nulo y tal que yT Ay = 0: Sea x = P 1 y: Entonces,
y = Px; y encontramos que x 6= 0 (de otro modo tendramos que y = 0) y
que

5.2. FORMAS CUADRTICAS Y MATRICES NO NEGATIVAS

61

xT PT AP x = (xP)T APx = yT Ay = 0:
Concluimos que PT AP es semidenida positiva.
Corolario 14.2.11. (1) Una matriz denida positiva es invertible, y su inversa es denida positiva. (2) Si una matriz semidenida positiva es no singular,
entonces esta es invertible y su inversa es semidenida positiva.
Prueba. (1) Sea A una matriz denida positiva. Entonces, de acuerdo con
el lema 14.2.8, A es no singular y por lo tanto (acorde al teorema 8.14)
T
T
invertible. Como (A 1 ) = (A 1 ) AA 1 ; se sigue de la parte (1) del coroT
lario 14.2.10 (simultneamente con el resultado (2;5)) que (A 1 ) es denida
positiva y por lo tanto (a la luz del corolario 14.2.7) A 1 es denida posotiva
(2) Utilizando un razonamiento similar, podemos mostrar que la parte (2)
del colorario 14.2.11 desprende de la parte (2) del corolario 14.2.10.
Corolario 14.2.12. Cualquier submatriz principal de una matriz denida
positiva es denida positiva; cualquier submatriz principal de una matriz
semidenida positiva es denida no negativa.
Prueba. Sea A una matriz n n; y considere la submatriz principal de A
obtenida por extender todas sus las y columnas excepto su i1 ; i2 ; :::; im las
y columnas (donde i1 < i2 ; ::: < im ) Esta submatriz se expresa como PT AP,
donde P es la n m matriz cuyas columnas son i1 ; i2 ; :::; im columnas de
In : Como el rk (P) = m; sigase la parte (3) del teorema 14.2.9 que PT AP
es denida positiva si A es denida positiva. Adems, sigase la parte (1)
del teorema 14.2.9 que PT AP es es denida no negativa si A es denida no
negativa (y en particular si A es semidenida positiva).
Corolario 14.2.13 Los elementos de la diagonal de una matriz denida
positiva son positivos; los elementos de la diagonal de una matriz semidenida
positiva son no negativos.
Prueba. Este corolario se sigue inmediatamente del corolario 14.2.12 observando. (1) que el i simo de la diagonal de la matriz A (cuadrda) es
el elemento de una submatriz principal 1 1 (que se obtiene por extender
todas las las y columnas de A excepto la i sima la y columna y (2) que

62CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS


el elemento de una matriz denida positiva 1 1 es positivo y el elemento
de una matriz denida no negativa 1 1 es no negativo.
Corolario 14.2.14 Sea P una matriz n m arbitraria .la matriz PT P es
denida no negativa.si el rk (P) = m; PT P es denida positiva [si rk (P) <
m]; PT P es semidenida positiva.
Prueba. Este corolario se sigue del teorema 14.2.9 observando que PT P =
PT IP y que (como se demostr en la en la subseccin a) I es denida positiva.

Corolario 14.2.15 Sea P una matriz n n no singular y D = fdj g n n


una matriz diagonal. Entonces (1) PT DP es denida no negativa si y solo si
d1 ; ::; dn son no negativos; (2) PT DP es denida positiva si y solo si d1 ; ::; dn
son positivos; y (3) PT DP es semidenida positiva si y solo si di 0 para
i = 1; :::; n contenida en la igualdad para uno o mas valores de i:
Prueba. Sea PT DP: Entonces claramente D = (P 1 ) AP 1 : As sgase de
la parte (1) del teorema 14.2.9 que A es denida no negativa si y solo si D
es denida no negativa; y sgase de las partes (1) y (2) del colorario 14.2.10
que A es denida positiva si y solo si D es denida positiva y que A es
semidenida positiva si y solo si D es semidenida positiva. Segn el lema
14.2.1, la prueba esta completa.
Corolario 14.2.16 Sea An n una matriz simtrica y D = fdj g n n
una matriz diagonal. tal que PT DP = D para alguna matriz no singular P.
Entonces (1) A es denida no negativa si y solo si d1 ; ::; dn son no negativos;
(2) A es denida positiva si y solo si d1 ; ::; dn son positivos; y (3) A es
semidenida positiva si y solo si di
0 para i = 1; :::; n contenida en la
igualdad para uno o mas valores de i:
Prueba. El corolario 14.2.16 se sigue del corolario 14.2.15, observando que
A = (P 1 ) DP 1 :
Note que los corolarios 14.2.15 y 14.2.16 se pueden mirar como generalizacin
del lema 14.2.1.

5.3. DESCOMPOSICIN DE MATRICES SIMTRICA

5.2.3.

63

Matrices denidas no negativas simtricas e idempotentes

Suponga que A es una matriz simtrica idempotente. Entonces, A = AA =


AT A, y sgase del corolario 14.2.14 que A es denida no negativa. As, tenemos el siguiente lema.
Lema 14.2.17. Toda matriz simtrica idempotente es denida no negativa.
Note (segn los lemas 14.2.8 y 10.1.1) que la matriz identidad In es la nica
matriz idempotente n n (simtrica de otro modo) que es denida positiva.

5.3.

Descomposicin de matrices simtrica

De acuerdo al Corolario 14.2.14, toda matriz A que se expresa de la forma


A = PT P es una matriz denida no negativa (simtrica). Lo contrario
es cierto? Es decir, toda matriz A denida no negativa simtrica se deja
expresar de la forma A = PT P?
En la subseccin b, se estableci que la respuesta a esta pregunta es cierta.
Como un preliminar, la consideracin dada esta estrechamente relacionada
con la pregunta, la cual es de algn inters en su propio derecho. Es A una
matriz simtrica que se expresa en la forma A = PT DP, donde P es una
matriz no singular y D una matriz diagonal? En la subseccin a, se estableci
que la respuesta a esta pregunta es tambin cierta
Para seguir esto, es conveniente tener a nuestra disposicin el siguiente lema

5.3.1.

Descomposicin de matrices simtricas

Lema 14.3.1 Sean A; D; P y Q matrices n n con P y Q invertibles,


tales que A = PDQ. Entonces rk (A) es igual al nmero de elementos no
cero sobre la diagonal principal de D.
Demostracin. Haciendo uso del Teorema 1.2.5 y del Corolario 1.2.6, encontramos que
rk(A) = rk(PDQ) = rk(DQ) = rk(D).
Pero, rk(D) es igual al nmero de elementos no cero que estan en la diagonal
de D.

64CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS

Denicin. Una matriz L n n es triangular inferior unitaria, si ella


es triangular inferior con Lii = 1 para toda i = 1; :::; n.
Lema 14.3.2 Sea A una matriz simtrica n n (con n 2) tal que A11 = 0
y Ak1 6= 0 para k 2 f1; :::; ng, y . Denamos B = LT AL; donde L n n
1 0
es una matriz triangular inferior unitaria L =
. Particionemos A
` In 1
como
a
aT
A = 11
:
a A22
Supngase que a11 = 0 pero que a 6= 0 o, equivalentemente que a1j 6= 0
para algn j > 1, digamos j = k. Entonces, el vector ` (n 1) dimensional
puede escogerse tal que b11 6= 0; esto puede hacerse tomando el elemento
(k 1)simo de ` siendo algn escalar c no cero tal que cakk 6= 2a1k y
tomando otro elemento n 2 de `, siendo cero.
Demostracin. Como a1k 6= 0 en esto existe (sea o no akk = 0) un escalar
c, no cero tal que cakk 6= 2a1k . Tomando el (k 1) simo elemento de `
siendo algn escalar c no cero y los elemetos que sobran de `, que son cero,
encontramos que

b11 = a11 + eT a + aT e + eT A22 `


= 0 + cak1 + ca1k + c2 akk
= c(cakk + 2a1k ) 6= 0
Lema14.3.3 Sea A = faij g una matriz n n (donde n
2):Denamos
B = fbij g = UT AL; donde U n n es una unidad de la matriz triangular
1 uT
: Particionemos A y B como
superior de la forma U =
0 In 1
a11 aT
b11 bT
:Supngase que a11 6= 0. Entonces,
yA=
a A22
b B22
el vector u (n 1)-dimensional puede escogerse tal que b = 0; esto puede
hacerse tomando u = a111 a
B=

5.3. DESCOMPOSICIN DE MATRICES SIMTRICA

65

Prueba Encontramos que.

b = (u; I)A

1
0

= a11 u + a;

El cual para u = a111 a donde b = a a = 0


Ahora estamos en posicin de establecer el siguiente teorema.
Teorema 14.3.4 Sea A que corresponde a alguna matriz simtrica n n,
as existe una matriz no singular Q tal que QT AQ es una matriz diagonal.
Prueba. La prueba es por induccin matemtica. El teorema es claramente
valido para matrices 1 1. Supongamos ahora que esto es verdad para alguna
matriz (n 1) (n 1), y considere una matriz A = faij g n n simtrica
arbitraria. Con el propsito de establecer la existencia de una matriz
no singular Q talque QT AQ sea diagonal, es conveniente partir A como
a
aT
y procedemos por casos
A = 11
a A22
Caso (1): a = 0. La submatriz A22 es una matriz simtrica (n 1) (n 1)
por tanto, por supocisin, se tiene que existe una matriz no singular Q tal
que QT A22 Q es una matriz diagonal. Tome Q = (1; Q ).Entonces Q es no
singular y QT AQ = diag(a11 ; QT A22 Q ) lo cual (igual que QT A22 Q ) es
una matriz diagonal
Caso (2):a 6= 0 y a11 6= 0. De acuerdo con el lema 14.3.3, se tiene que
existe una unidad de la matriz triangular superior U tal que UT AU =
diag(b11 ; B22 )
para algn escalar b11 y alguna matriz B22 (n 1) (n 1) Adems, por
suposicin existe una matriz no singular Q tal que QT B22 Q es una matriz
diagonal.
Tome Q = Udiag (1; Q ) Entonces Q; es no singular (como Q es el producto
de 2 matrices no singulares) y
QT AQ = diag 1; QT diag (b11 ; B22 ) diag (1; Q ) = diag b11 ; QT B22 Q
Lo cual (igual que QT B22 Q ) es una matriz diagonal

66CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS


Caso(3): a 6= 0 pero a11 = 0:Sea B = fbij g = LT AL;donde L es una unidad
de la matriz triangular inferior, escogemos que b11 6= 0 la existencia de que
esta opcin es garantizada por el lema 14.3.2. Entonces de acuerdo con el
lema 14.3.3, existe una unidad de la matriz triangular superior U tal que
UT BU = diag (c11 ; C22 ) para algn escalar c11 , y alguna matriz.C22 (n 1)
(n 1). Adems por suposicin, se tiene que existe una matriz no singular
Q tal que QT C22 Q es una matriz diagonal. Tome Q = LUdiag(1; Q ).
Entonces, Q es no singular (como Q es el producto de tres matrices no
singulares), y

QT AQ = diag(1; Q )UT BUdiag(1; Q )


= diag(1; Q )diag (c11 ; C22 ) diag(1; Q ) = diag(c11 ; QT C22 Q )
La cual igual que QT C22 Q es una matriz diagonal
Note que si Q es una matriz no singular tal que QT AD = D para alguna
matriz diagonal D, entonces

A= Q

1 T

QT AQQ

= Q

1 T

DQ

Por tanto tenemos el siguiente corolario del teorema 14.3.4


Corolario14.3.5 Es el primer resultado siguinete de las formas cuadrticas
Corolario14.3.6 Sea A una matriz n n, entonces existe una matriz no
singular P y n escalares d1 ; :::; dn tal que la forma cuadrtica xT Ax
Xn(en un
vector x; ndimensional) se expresa como una combinacin lineal
di yi2
i=1
de los cuadrados de los elementos y1 ; :::; yn del vector transformado y = Px
Prueba. De acuerdo al corolario 14.1.2 hay una nica matriz simtrica B,
talque xT Ax = xT Bx para todo x adems, la matriz. B = (1=2) A + AT Y
de acuerdo al corolario 14.3.5, existe una matriz no singular P y una matriz
diagonal D; tal que B = PT DP. As, siendo d1 ; :::; dn los elementos que
representan la diagonal D y y1 ; :::; yn los elementos del vector y = Px,
tenemos que

5.3. DESCOMPOSICIN DE MATRICES SIMTRICA

xT Ax = xT PT DPx = (Px)T DPx =

67

di yi2

5.3.2.

Descomposicin de matrices simtricas denida


no negativa

Ahora especicaremos para las matrices simtricas denidas no negativas,


comenzando con el siguiente teorema
Teorema 14.3.7 Una matriz A n n es una matriz simtrica denida no
negativa de rango r > 0 si y solo si existe una matriz P de rango r tal que
A = PT P
Prueba. Supongamos que A es una matriz simtrica denida no negativa
de rango r.
Entonces, de acuerdo al corolario 14.3.5 existe una matriz no singular T y
una matriz diagonal D tal que A = TDT.
Sea d1 ; :::; dn que representan los primeros,. . . , n esimos elementos de la
diagonal de D y tT1 ; :::; tTn las primeras,. . . , n esimas las de T. Se sigue del
lema 14.3.1 que r elementos de la diagonal de D es decir k1 ; :::; kr elementos
de la diagonal son distintos de cero (y por lo tanto, a la luz del corolario
14.2.15,son
positivos). Ahora, se toma P la matriz r n cuya i sima la
p
T
es dki tki entonces
A=

n
X
i=1

dk tTk tk

r
X
i=1

dki tTki tki

r
X
p

dki tki

i=1

dki tTki = PT P;

y rank(P) = rk PT P = rk (A) = r:
Recprocamente si existe una matriz P r n de rango r tal que A = PT P;
entonces
rk (A) = rk PT P = rk (P) = r;
A es simtrica y (de acuerdo al corolario 14.2.14) A es denida no negativa.

68CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS


A la luz del corolario 14.2.14 (y sobreobservando que 0 = 00 0) ;tenemos el
siguiente corolario del teorema 14.3.7.
Corolario14.3.8 Una matriz A n n es una matriz simtrica denida
no negativa si y solo si existe una matriz P (teniendo n columnas) tal que
A = PT P.
Como un corolario adicional del teorema 14.3.7 tenemos el siguiente resultado
de formas cuadrticas.
Corolario14.3.9 Si A representa una matriz n n (no nula) ; y sea r =
rk (A + A0 ) : Entonces, la forma cuadrtica xT Ax
(en un vector x ndimensional) es denida no negativa si y solo si para
alguna matriz Pr n de rango r, xT Ax = (Px)T Px para todo x (es
decir; xT Ax es expresable como la suma de los cuadrados de los elementos
del vector Px)
Prueba. De acuerdo al corolario 14.1.2 existe una nica matriz B tal que
xT Ax = xT Bx para toda x, a saber, la matriz B = (1=2) A + AT :suponga
que la forma cuadrtica xT Ax, equivalentemente la forma cuadrtica
xT Bx, es denida no negativa, caso en el cual B es una matriz denida no
negativa. Entonces, se sigue del teorema 14.3.7 que existe una matriz Pr n
de rango r tal que B = PT P y por lo tanto tal que xT Bx = (Px)T Px
para todo x , equivalentemente, tal que xT Ax = (Px)T Px para todo
x:Recprocamente, suponga que, para alguna matriz Pr n de rango r,
xT Ax = (Px)T Px para todo x, , equivalentemente, xT Ax = xT PT Px
para todo x: Dado que (de acuerdo al teorema 14.3.7 o, alternativamente,
de acuerdo 14.2.14) PT P es una matriz denida no negativa, xT PT Px o,
equivalentemente xT Ax; es una forma cuadrtica denida no negativa.
Implicaciones adicionales del teorema 14.3.7 estn dadas en el corolario 14.3.10
a 14.3.12
Corolario14.3.10 Si A representa una matriz n n, sea r = rk (A) ; y
tomemos m un entero positivo mayor o igual a r. Si A es simtrica y denida
no negativa, entonces existe una matriz Pm n tal que A = PT P
Prueba. Supongase que r > 0 (cuando r = 0; A = 0T 0): De acuerdo al

5.3. DESCOMPOSICIN DE MATRICES SIMTRICA


teorema 14.3.7 existe una matriz P1 tal que A = PT1 P1 .Tomando P =

69
P1
:
0

Entonces claramente A = PT P
Corolario14.3.11 Para alguna matriz Xn m y alguna matriz simtrica
An n denida no negativa, AX = 0 si y solo si XT AX = 0:
Prueba. De acuerdo al corolario 14.3.8, existe una matriz P tal que A =
PT P y por lo tanto tal que XT AX = (PX)T PX. As que, si XT AX = 0,
entonces (a luz del corolario 5.3.2) PX = 0; implica que AX = PT (PX) = 0:
Que XT AX = 0 si AX = 0 es obvio
Corolario14.3.12 Una matriz simtrica denida no negativa es deninida
positiva si y solo si esta es no singular (o, equivalentemente. es semidenida
positiva si y solo si esta es singular).
Prueba Sea A una matriz n n simtrica denida no negativa.Si A es
denida positiva, entonces tenemos, como una consecuencia inmediata del
lema 14.2.8 que A es no singular.
Supngase que la matriz simtrica A denida no negativa es no singular,
y considere la forma cuadrtica xT Ax (en x). Si xT Ax = 0; entonces de
acuerdo con el corolario 14.3.11, Ax = 0, y consecuentemente x = A 1 Ax =
0: As que, la forma cuadrtica xT Ax es denida positiva y por lo tanto la
matriz A es denida positiva
Como caso un especial del teorema 14.3.7 (donde r = n); tenemos (a la luz
del corolario 14.3.12) el siguiente corolario.
Corolario14.3.13 Una matriz A n n es una matriz simtrica denida
positiva si y solo si existe una matriz no singular P tal que A = PT P:
El Corolario14.3.13 es una variante del teorema 14.3.7 que especica las
matrices simtricas denidas positivas. Similarmente, el siguiente corolario
es una variante del colorario 14.3.9 que especica las formas cuadrticas
denidas positivas.
Corolario14.3.14 Una forma cuadratica xT Ax
(en un vector x ndimensional) es denido positivo si y solo si, para alguna
matriz Pn n no singular, xT Ax = (Px)T Px para todo x (esto es, xT Ax
es expresable como la suma de cuadrados de los elemntos del vector Px)

70CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS

Prueba. Si xT Ax es denida positiva, entonces (de acuerdo al corolario


14.2.7) (1=2) A + AT es denida positiva y por lo tanto (a la luz del lema
14.2.8 ) es de rango n, as que se sigue del corolario 14.3.9 que, para alguna
matriz Pn n no singular, xT Ax = (Px)T Px para toda x. Recprocamente,
si para alguna matriz Pn n no singular , xT Ax = (Px)T Px para toda x,
entonces dado que (de acuerdo al corolario 14.2.14 o, corolario 14.3.13) PT P
es denida positiva, x0 Ax (que equivale a xT PT Px) es denida positiva.

5.4.

I.G de matrices simtricas denidas no


negativas

Una matriz simtrica denida positiva es invertible, y esta inversa es denida


positiva y simtrica [corolario14.2.11y resultado (8.2.4)] :Una matriz simtrica semidenida positiva es no invertible (corolario 14.3.12).cual es la naturaleza de una inversa generalizada de una matriz simtrica semidenida
positiva?.En particular ,son algunas o todas las inversas generalizadas de
una matriz simtrica semidenida positiva denidas no negativa?
Sea A una matriz n n de rango r y suponga que.
A = PDQ;

(5.5)

donde P y Q son matrices n n no singulares y D = fdi g es una matriz n n


diagonal. De acuerdo con el lema 14.3.1, r de los elementos de la diagonal de
D, digamos i1 ; :::; ir esimo elementos de la diagonal, son no cero y los otros
n r elementos de la diagonal de D son iguales a cero. Sea
S = fi1 ; :::; ir g y denotamos por S el conjunto cuyos elementos consisten de
esos n r de los primeros n enteros positivos 1; :::; n no contenidos en S
Sea D que representa una matriz n n de la forma general
D = diag (d1 ; :::; dn ) ;
donde, para i 2 S, di = 1=di y para i 2 S, di es un escalar arbitrario. Note
que D es una inversa generalizada de D.

5.5. DESCOMPOSICIONES LDU, UT DU Y DE CHOLESKY

71

Denamos G = Q 1 D P 1 , y G = Q 1 D P 1 : De acuerdo con el lema


9.2.4 G es una inversa generalizada de A. En particular, G es una inversa
generalizada de A.
Supongase ahora que A es simtrica y que la descomposicin (4;1) es tal que
P = QT ; as que la descomposicin (4;1) es de la forma
A = QT DQ:

(5.6)

Entonces, a la luz del resultado (8;2;3),


G = Q 1D

1 T

(5.7)

Por lo tanto, G es una inversa generalizada simtrica de A. Adems, si


di se toma distinto de cero pra cada i en S; entonces G es una inversa
generalizada (simtrica) no singular de A:
Luego, supongase que A es denida no negativa, como tambin simtrica y contina a suponer que P = QT y por lotanto la descomposicin
(4;1) es de la forma (4;2) entonces se sigue el corolario 14.2.15 que di > 0
para toda i en S . As, si di se toma mayor que cero para toda i en
S; entonces (a la luz del caorolario 14.2.15) G es una inversa generalizada
simtrica denida positiva de A: (si di se toma mayor o igual a cero para toda
i en S e igual a cero para por lo menos un i en S; entonces G es semidenida
positiva; si di se toma menor que cero para por lo menos un i en S; entonces
asumiendo que A es no nula G es indenida): Dado qu (de acuerdo
con el corolario 14.3.5) toda matriz simtrica tiene una descomposicin de la
forma (4;2) ; tenemos el siguiente lema
Lema 14.4.1. Toda matriz simtrica denida no negativa tiene una inversa
generalizada denida positiva.

5.5.

Descomposiciones LDU, UT DU y de Cholesky

Fue establecido en la seccin 14.3 que toda matriz denida no negativa A


tiene una descomposicin de la forma A = PT P. Las armaciones mas fuertes
de este resultado son posible. De hecho, es probado en la siguiente seccin
que toda matriz A simtrica denida no negativa tiene una descomposicin
de la forma TT T = A, donde T es una matriz triangular superior. [ y en una

72CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS


secuencia del capitulo (seccin 21.9), es probado que A tiene descomposicin
(nica) de la forma A = R2 , donde R es una matriz simtrica denida no
negativa].
Es conveniente empezar, considerando algunas preguntas acerca de la descomposicin de matrices (no necesariamente denidas no negativa). Es
una matriz cuadrada A expresable de la forma A = LDU, donde L es
una matriz triangular inferior unitaria, D es una matriz diagonal y U es
una matriz superior triangular unitaria? Y, mas especcamente, Es una
matriz A simtrica expresable de la forma A = UT DU? Subsecuentemente,
el termino descomposicin LDU es usado para cualquier descomposicin de
la forma A = LDU y el termino descomposicin UT DU, para cualquier
descomposicin de la forma A = UT DU

5.5.1.

Preliminares

El siguiente lema se reere a la descomposicin LDU de una matriz An


que conduce a (n 1) (n 1) una submatriz principal de A

Lema 14.5.1 Sean A una matriz n n, L una matriz triangular inferior


n n, U una matriz triangular superior unitaria n n y D una matriz
diagonal n n (donde n 2) Separando A; L; U y D como
A=

A
bT

a
;L =
c

L
lT

0
;U =
1

D=

D
0

0
k

U
0

u
1

Donde A ; L ; U y D ;son de dimensiones (n


LDU si y solo si

1)

(n

1) entonces A =

L D U =A ;

(5.8)

L D u = a;

(5.9)

UT D ` = b;

(5.10)

5.5. DESCOMPOSICIONES LDU, UT DU Y DE CHOLESKY

k=c

`T D u

73

(5.11)

El Lema 14.5.1 puede ser vericado simplemente por la ecuacin de las 4


submatrices A ,a,bT y c para las correspondientes submatrices de la matriz
producto LDU. Respecto a la condicin (5.1a) notar que L es una submatriz principal de una matriz triangular inferior y por tanto es la misma
triangular inferior unitaria, y similarmente que U es triangular superior unitaria y D es diagonal. As la condicin (5.1 a) establece que L D U es una
descomposicin LDU de A
El siguiente teorema relaciona la existencia y construccin de una descomposicin LDU UT DU de un a matriz n n para la existencia y construccin de una descomposicin LDU UT DU de la submatriz principal de
(n 1) (n 1) A
Teorema 14.5.2 Sea A una matriz n
A como
A=

A
bT

n (donde n

2); y la particin de

a
c

donde A es de dimendiones (n 1) (n 1)
(1)Si A tiene descomposicin LDU; es decir A = L D U y si a 2 C (A )
y bT 2 F (A ) ; entonces existen vectores ` y u tales que UT D ` y tomando
` y u para ser cualquiera de esos vectores, y tomando k = c `T D u y la
descomposicin LDU de A es
A=

L
`T

0
1

D
0

0
k

U
0

u
1

(5.12)

(10 ) Si A es simtrica (caso en que AT = A y b = a); si AT tiene descomposcion UT DU; es decir A = UT D U ; y si a 2 C (A ) ; entonces existe un
vector u tal que UT D U = a; y tomando u para ser cualquier vector, y
tomando k = c uT D u y la descomposicin UT DU de A es
A=

U
0

u
1

D
0

0
k

U
0

u
1

(5.13)

(2)la matriz A tiene descomposicin LDU solamente si A tiene una descomposicin LDU, a 2 C (A ) y bT 2 F (A )

74CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS


(20 )la matriz A tiene descomposicin UT DU solamente si A es simtrica,A
tiene una descomposicin UT DU; y a 2 C (A )
Prueba (1) Supongase que A tiene descomposicin LDU; es decir A =
L D U y que a 2 C (A ) y bT 2 F (A ) ; entonces existen vectores s y
r tales que a = A r y bT = sA . Dado que UT D LT s = A s = b
y L D (U r) = A r = a; existen vectores ` y u tales que UT D l = b y
L D u = a. Adems, (5;2) es na consecuencia inmediata del lema 14.5.1
(10 ) AT = A ; entonces a 2 C (A ) implica aT 2 F (A ) : As la parte (10 )
puede ser obtenida como un caso especial de la parte (1) poniendo b = a y
L = UT y colocando ` = u.
(2) y (20 ) Supngase que A tiene descomposicin LDU es decir A = LDU.
Separando L; U y D como
L 0
U u
D 0
;U =
;y D =
`T 1
0 1
0 k
Donde L ; U y D ;son de dimensiones (n 1) (n 1) ; entonces se sigue
del lema 14.5.1 que A = L D U y por lo tanto que A tiene una descomposicin LDU: Como una consecuencia adicional, tenemos que
a = L D u = A U 1 u 2 C (A ) y bT = `T D U = lT L 1 A 2 F (A ) :
En el caso especial donde L = UT (es decir, donde A = LDU es una descomposicin UT DU);tenemos que L = UT y por tanto que A = UT D U :As
que si A tiene una descomposicin UT DU entonces A tambin tiene una
descomposicin UT DU; Adems si A tiene una descomposicin UT DU entonces claramente A es simtrica.
Notar que juntas (1) y (2) del teorema 14.5.2 implica en particular, que A
tiene una descomposicin LDU si y solo si A tiene una descomposicion
LDU, a 2 C (A ) y bT 2 F (A ) : Similarmente las partes (10 ) y (20 ) implica
que A tiene una descomposicin UT DU si y solo si A es simtrica, A tiene
una descomposicion UT DU, a 2 C (A )
El siguiente teorema se reere a la descomposicin LDU de cualquier submatriz principal de una matriz A n n para la misma A
L=

Teorema 14.5.3 Sea A una matriz n n (donde n


2); y sea A11 la
submatriz k k principal de A (donde 1
k
n 1) supngase que A
tiene una descomposicion LDU es decir A = LDU; y particin L; D y U
como

5.5. DESCOMPOSICIONES LDU, UT DU Y DE CHOLESKY

L=

L11 0
;U =
L21 L22

U11 U12
;y D =
0 U22

75

D1 0
0 D2

Donde L11 , U11 y D1 ;son de dimensiones k k; entonces una descomposicin


LDU de A11 es A11 = L11 D1 U11
El teorema 14.5.3 puede ser vericado simplemente igualando A11 a la submatriz principal k k de la matriz producto LDU: Notar que en el caso
especial del Teorema 14.5.3 donde A = LDU es una descomposicion UT DU
(es decir donde L = UT ); L11 = UT11 y por tanto A11 = L11 D1 U11 es una
descomposicin UT DU de A: El teorema 14.5.3 implica en particular que
si A tiene una descomposicin LDU UT DU, entonces cada una de sus
submatrices principales tiene respectivamente, una descomposicin LDU
UT DU.

5.5.2.

Existencia, construccin recursiva y unicidad de


una descomposicin LDU o UT DU

Es fcil ver que una matriz A tiene una (nica) descomposicin LDU (y
UT DU) es decir, A = (1)A(1). El siguiente teorema arroja resultados sobre
la existencia y construccin de una descomposicin LDU UT DU de una
matriz (cuadrada) de orden dos o ms.
Teorema 14.5.4 Sea A = faij g una matriz n n (donde n 2):Denotamos Ai
la submatriz principal de A de orden i (i = 1; :::; n) : Para i = 2; :::; n tomamos
ai = (a1i ; :::; ai 1;i )T y bTi = (ai1 ; :::; ai;i 1 ) ; o equivalentemente se dene ai y
bTi por
A=

Ai 1 ai
:
aii
bTi

(1) Sea L1 = (1) ; U1 = (1) y D1 = a11 ; y supngase que para i = 2; :::; n


,ai 2 C (Ai 1 ) y bTi 2 F (Ai 1 ). Entonces para i = 2; :::; n; existe una matriz
unitaria triangular inferior Li ; una matriz Ui triangular superior unitariay
una matriz diagonal Di tales que

Li =

Ui
Li 1 0
; Ui =
1
0
`Ti

ui
1

y Di =

Di
0

0
di

(5.14)

76CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS


Donde UTi 1 Di 1 `i = bi ; Li 1 Di 1 ui = ai ; y di = aii `Ti Di 1 ui ; y tomando
Li ; Ui y Di para ser cualquier matrices, una descomposicin LDU de A es
A = Ln Dn Un
(10 ) Sea U1 = (1) y D1 = a11 ; y supngase que A es simtrica (caso en el
que ATi 1 = Ai 1 y bi = ai para i = 2; :::; n) y que, para i = 2; :::; n
ai 2 C (Ai 1 ) : Entonces, para i = 2; :::; n existe una matriz triangular
superior U1 y una matriz diagonal D1 tales que
Ui =

Ui
0

ui
1

y Di =

Di
0

0
di

(5.15)

Donde UTi 1 Di 1 ui = ai ; y di = aii uTi Di 1 ui ; y tomandoUi y Di para ser


cualquier matrices, una descomposicin UT DU de Ai es Ai = UTi Di Ui : En
particular una descomposicin UT DU de A es A = UTn Dn Un
(2)la matriz A tiene descomposicin LDU solamente si para i = 2; :::; n; ai 2
C (Ai 1 ) y bTi 2 F (Ai 1 ) :
(20 )la matriz A tiene descomposicin UT DU solamente si A es simtrica, y
para i = 2; :::; n; ai 2 C (Ai 1 )
Prueba(1) Con el n de probar la parte (1) ; Supngase que para.i =
2; :::; n; ai 2 C (Ai 1 ) y bTi 2 F (Ai 1 ) : La prueba es por induccin matemtica. Se sigue del teorema 14.5.2 que, para i = 2, existe una matriz Li unitaria
triangular inferior ; una matriz Ui triangular superior unitaria y una matriz
diagonal Di de la forma (5;4) y que A2 = L2 D2 U2 para cualquiera mtarices
L2 ; U2 y D2 : Supngase ahora que para i = k 1 (donde 3 k n); existe
una matriz Li unitaria triangular inferior ; una matriz Ui triangular superior
unitaria y una matriz diagonal Di de la forma (5;4) ;tomando Lk 1 ; Uk 1 y
Dk 1 para ser cualesquiera matrices tal que A = Lk 1 Uk 1 Dk 1 : La prueba
se completa sobreobservando que para i = k; existe (como una consecuencia
del teorema 14.5.2) una matriz Li unitaria triangular inferior; una matriz Ui
triangular superior unitaria y una matriz diagonal Di de la forma (5;4) y que
Ak = Lk Dk Uk para cualesquiera Lk ; Uk y Dk :
(10 ) :Una prueba de la parte (10 ) ; analoga a la parte (1), puede ser construida
haciendo uso de la parte (10 ) del teoreama 14.5.2
(2) Supngase que A tiene una descomposicin LDU: Entonces se sigue

5.5. DESCOMPOSICIONES LDU, UT DU Y DE CHOLESKY

77

del teorema 14.5.3 que las submatrices principales A2; A3 ; :::; An 1 de orden
2por n 1 (tambin como la submatriz principal An = A de orden n) tienen
descomposicin LDU: Basado en la parte (2) del teorema 14.5.2 se concluye
que para i = 2; :::; n; ai 2 C (Ai 1 ) y bTi 2 F (Ai ) :
(20 )Una prueba de la parte (20 ) ; analoga a la parte (2) ; pude ser construida
haciendo uso del teorema 14.5.3 y parte (20 ) del teorema 14.5.2
Note que, las partes (1) y (2) del teorema 14.5.4 implican en particular que
A tiene una descomposicin LDU: si y solo si, para para i = 2; :::; n; ai 2
C (Ai 1 ) y bTi 2 F (Ai ) : similarmente, las partes (10 ) y (20 ) implican que
A tiene una descomposicin UT DU si y solo si, A es simtrica y,para i =
2; :::; n; ai 2 C (Ai 1 ) :
Para nes de ilustracin, considere una matriz 2 2 A = faij g y suponga
que a11 = 0: Entonces, A tiene una descomposicin LDU. si y solo si a21 =
a12 = 0 esto es, si y solo si A es de la forma
A=

0 0
:
0 a22

Cuando A es de esta forma, una descomposicin LDU de A es


A=

1 0
` 1

0 0
0 a22

1 u
0 1

Donde ` y u son escalares arbitrarios.


En qu medida la descomposicin LDU de una matriz n n es nica?. Esta
pregunta esta dirigida en el siguiente teorema
Teorema 14.5.5 Sea A una amtriz n n de rango r que tiene una descomposicin LDU: Sea L = flij g que representa una matriz unitaria triangular
n n inferior, una matriz U = fuij g n n triangular superior unitaria y
D = fdi g una matriz n n diagonal tal que A = LDU; esto es, tal que
A = LDU es una descomposicin LDU de A. (1) La matriz diagoanal D es
nica.(2) Supngase que los i1 ; :::; ir elementos de la diagonal de D (donde
i1 < ::: < ir ) son no cero ( y los elementos restantes de D son cero). Entonces para i 2 fi1 ; :::; ir g y j > i; uij y lji son nicos, y para i 2
= fi1 ; :::; ir g y
j > i; uij y lji son complementariamente arbritarios. Esto es, De los elementos
de U por encima de la diagonal, esos en la i1 ; :::; ir sima las son nicos y
aquellos en las restantes las son completamente arbitrarios; y similarmente,

78CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS


los elementos de L de la diagonal, esos en la i i1 ; :::; ir sima columnas son
nicos y los otros en las restantes columnas son completamente arbitrarios.
Prueba Sea L = lij que representa una matriz unitaria triangular inferior, U = uij triangular superior unitaria , y D = fdi g una matriz
diagonal tal que A = L D U ; as que A = L D U como A = LDU; es
una descomposicin LDU de A: Entonces,

LD = L

(LDU)U

=L

(L D U )U

=D U U

(5.16)

As (de acuerdo al corolario 8.5.9 ) L 1 es triangular unitaria inferior y U 1


es triangular superior unitaria se sigue del lema 1.3.1 que los elementos de
L 1 LD son d1 ; :::; dn respectivamente, y que los elementos de D U U 1 son
d1 ; :::; dn respectivamente, implicando a luz de laigualdad (5;6) que di = di
(i = 1; :::; n) equivalentemente que D = D; el cual se establecio en la parte
(1) del teorema 14.5.5.
A los efectos de lo probado en la parte (2) ; tomando A11 una submatriz
obtenida sacando todas las las y columnas de A excepto las i1 ; :::; ir sima
las y columnas. Sea D1 = diag(di ; :::; dir ): Denote por L1 y L1 las submatrices r n obtenidas al sacar todas las las de L y L respectivamente, excepto
las i1 ; :::; ir esimas las y por L11 y L11 las submatrices obtenidas al sacar
todas las las y columnas de L y L respectivamente, excepto las i1 ; :::; ir
sima las y columnas. Similarmente denote por U1 y U1 las submatrices n r
obtenidas al sacar todas las columnas de U y U ; respectivamente, excepto
las i1 ; :::; ir sima columnas, y por U11 y U11 las submatrices n r obtenidas
al sacar todas las las y columnas de U y U ; respectivamente, excepto las
i1 ; :::; ir sima las y columnas. Entonces, A11 = L1 DU1 = L11 D1 U11 y
(de hay que D = D) A11 = L1 D U1 = L1 DU1 = L11 D1 U11 ; implicando
que
L11 D1 U11 = L11 D1 U11

(5.17)

Las matrices L11 y L11 son submatrices principales de matrices triangulares


unitarias inferiores y de hay que son en s mismas triangulares unitarias
inferiores. similarmente U11 y U11 son triangulares superior unitarias premultiplicando ambos lados de la igualdad (5;7) por L11 1 y postmultiplicando
ambos lados por U111 D1 1 , encontramos que

5.5. DESCOMPOSICIONES LDU, UT DU Y DE CHOLESKY

L11 1 L11 = D1 U11 U111 D1 1

79

(5.18)

De acuerdo con el corolario 8.5.9 L11 1 es triangular unitaria inferior y U111


es triangular superior unitaria. Observe que (de acuerdo con el lema 1.3.1)
L11 1 L11 es triangular unitaria inferior. De hay que D1 U11 U111 D1 1 es triangular superior, se sigue de la igualdad (5;8) que L11 1 L11 = I o equivalentemente
que
L11 = L11
y a la luz de la igualdad (5;7) y la no singularidad de L11 y D1 que
U11 = U11
Ahora tome A1 una submatriz n r obtenida al sacar todas las columnas
de A excepto las i1 ; :::; ir sima columnas, y tome A2 una submatriz r n
obtenida al sacar todas las las de A excepto las i1 ; :::; ir sima las. Denote
por L2 y L2 las submatrices n r obtenidas al sacar todas las columnas de L
y L ; respectivamente, excepto las i1 ; :::; ir sima columnas. Similarmente,
denote por U2 y U2 las sunmatrices r n obtenidas al sacar todas las las
deU y U ;respectivamente excepto las i1 ; :::; ir sima las. entonces A1 =
LDU1 = L2 D1 U11 y (de hay que D = D y U11 = U11 ) A1 = L D U1 =
L DU1 = L2 D1 U11 = L2 D1 U11 ; implicando que L2 D1 U11 = L2 D1 U11 ; y
por lo tanto (ya que D1 y U11 son no singulares) tenemos que
L2 = L2

(5.19)

Similarmente, A2 = L1 DU = L11 D1 U2 y A2 = L1 D U = L1 DU
= L11 D1 U2 = L11 D1 U2 ; implicando que L11 D1 U2 = L11 D1 U2 de hay
que
U2 = U2

(5.20)

los kjesimos elementos de U2 y U2 son uik j y uik j respectivamente, y los


jk esimos elementos de L2 y L2 son `jik y `jik respectivamente (k = 1; :::; r
; j = 1; :::; n ):As,. se sigue de las igualdades (5;9) y (5;10) que, para i 2
fi1 ; :::; ir g y para j = 1; :::; n (y en particular para j = i + 1; :::; n) tenemos
que uij = uij y `ji = `ji :

80CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS


Al completar la prueba de la parte (2) del teorema 14.5.5 observamos que
A = LDU = L2 D1 U2 y de hay que A = LDU; incluso si los elementos de
L (por debajo de la diagonal.) que no son elmentos de L2 y/o elementos de
U (por encima de la diagonal) que no son elementos de U2 son cambiados
arbitrariamente
Bajo qu circunstancias una matriz An n tiene una nica descomposicin
LDU?:Esta pregunta es abordada en el siguiente corolario
Corolario14.5.6. Si una matriz An n tiene una descomposicin LDU y si
la primera submatriz principal de (A) de orden n 1 es no singular, entonces
la descomposicin LDU de A es nica.
Prueba. Sea A11 (n 1) (n 1) la primera submatriz principal de A:
Suponga que tiene una descomposicin LDU; digamos A = LDU; y que
A11 es no singular. Particionemos L; D; y U como
L11 0
U11 u
D1 0
;U =
;y D =
T
`
1
0 1
0 d
[Donde L11 ; U11 y D1 son de dimensiones (n 1) (n 1)] : De acuerdo al
lema 14.5.1, una descomposicin LDU; de A11 es A11 = L11 D1 U11 : As (ya
que A11 es no singular); se sigue del lema 14.3.1 que todos los n 1 de los elementos de la diadonal de D1 son no cero equivalentemente que los primeros
n 1 elemrntos de la diagonal de D son no cero. Basado en el teorema 14.5.5
se concluye que la descomposicin LDU es nica.
L=

Colorario 14.5.7 Sea A una matriz n n (donde n


2) y, para i =
1; :::n 1, sea ,Ai representa la primers submatriz principal de A de orden i
.Si A1 ; :::; An 1 son no singulares, entonces A tiene una nica descomposicion
LDU
Prueba. Sea aij que representan los ij simos elementos de A (i; j =
1; :::; n); y para i = 2; :::; n denamos ai = (a1i ; :::; ai 1:i )T y bTi = (ai1 ; :::; ai:i 1 ).
Suponga que A1 ; :::; An 1 son no singulares. entonces, para i = 2; :::; n;
ai 2 C (Ai 1 ) y bTi 2 F (Ai 1 ) ; y se sigue de la parte (1) del teorema 14.5.4
que A tiene una descomposicin LDU: Que esta descomposicin se nica
es una consecuencia inmediata del corolario 14.5.6 (De hay que An 1 es no
singular) :

5.5. DESCOMPOSICIONES LDU, UT DU Y DE CHOLESKY

81

Para una matriz simtrica, la singularidad de una descomposicin LDU tiene


la siguiente implicacion.
Lema14.5.8. Si una matriz simtrica A tiene una nica descomposicin
LDU; digamos A = LDU; entonces L = UT as que, la nica descomposicin LDU es una descomposicin UT DU
Prueba. Supongase que la matriz simtrica A tiene una nica descomposicin LDU; A = LDU: Entonces, A = AT = UT DLT ; implicando (ya que
UT es triangular unitaria inferior y L0 es triangular superior unitaria) que
A = UT DLT es una descomposicin LDU de A y por lo tanto a la luz
de la singularidad de la descomposicin LDU que L = UT ( equivalentemente U = LT ):
Note que si una matriz cuadrada tiene una descomposicin LDU, digamos
A = LDU; entonces, siendo L = LD y U = DU esto puede asimismo ser
descompuesto como A = L U; el cual es el producto de una matriz triangular
inferior y una matriz triangular superior unitaria, como A = LU ;el cual es
el producto de una matriz triangular unitaria inferior y una matriz triangular
superior.
El termino LU en la descomposicin es algunas veces usado en referencia a
alguna descomposicion de la matriz cuadrada A de la forma general A = LU;
donde L es una matriz triangular inferior y U es una matriz triangular superior ver e.g, steward (1973). En el casoespecial donde L es triangular
unitaria inferior , steward reere una descomposicion semejante como una descomposicin de Doolittle, en el caso especial donde U es triangular superior
unitaria el hace referencia as a una descomposicin como la descomposicin
de Crout. Golub y Van Loan (1989) restringeron el uso del termino LU en la
descomposicin al caso especial donde L es triangular inferior, que es segun
Steward llamado descomposicin de Doolittle

5.5.3.

Descomposicin de matrices denidas positivas

Si ahora consideramos la implicacin de los resultados de la subseccin b


aplicados a las matrices denidas positivas. Una matriz denida positiva
necesariamente tiene una descomposicin LDU; y esta descomposicin LDU
de una matriz denida positiva es nica?. Estas preguntas son resueltas
en forma (armativa) por elsiguiente teorema el cual tambin proporciona

82CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS


alguna informacin sobre la naturaleza de la descomposicin LDU de una
matriz deida positiva.
Teorema 14.5.9. una matriz An n denida positiva tiene una nica
descomposicin LDU; digamos A = LDU y los elementos de ladiagonal de
la matriz diagonal son positivos
Prueba. De acuerdo al corolario 14.2.12 alguna submatriz principal de una
matriz denida positiva es denida positiva y por lo tanto (de acuerdo al
14.2.8) es no singular. As, se sigue del corolario 14.5.7 que A tiene una
nica descomposicin LDU; digamos A = LDU:
Se sigue para demostrar que los elemntos de la diagonal, digamos d1 ; :::dn ;
de la matriz diagonal D son positivos. Para este n, consideremos la matriz
T
T
B = DU (L 1 ) . De hay (a la luz del corolario 8.5.9) (L 1 ) (como U) es
triangular superior unitaria, se sigue del lema 1.3.1 que los elementos de la
diagonal de B son los mismo que los elementos de la diagonal d1 ; :::dn ; de
D: Por otra parte,
B=L

(LDU) L

1 T

= L 1A L

1 T

implicando (a la luz del corolario 14.2.10) que B es denida positiva. As


concluimos (en base al corolario 14.2.13) que d1 ; :::dn son positivos
En el caso especial de una matriz simtrica denida positiva, la conclusin
del teorema 14.5.9 puede (como una consecuencia del lema 14.5.8) ser hecha
ms especica, como se describe en el siguiente corolario
Corolario 14.5.10. una matriz An n simtrica denida positiva tiene
una nica descomposicion U0 DU digamos A = UT DU; y los elementos de
la diagonal de la matriz diagonal D son positivos.
Note que, como una consecuencia del corolario 14.2.15, tenemos lo opuesto
al corolario 14.5.10. Si una matriz An n tiene una descomposicion UT DU;
digamos A = UT DU y si los elementos de la diagonal de la matriz diagonal
D son positivos, entonces A es denida positiva (y simtrica).
Una descomposicin alternativa de una matriz simtrica denida positiva es
descrita en el siguiente teorema.

5.5. DESCOMPOSICIONES LDU, UT DU Y DE CHOLESKY

83

Teorema 14.5.11. Para alguna matriz An n simtrica denida positiva


existe una nica matriz triangular superior T con elementos en la diagonal
positivos tal que
A = TT T

(5.21)

por otra parte, tomando U como la nica matriz triangular superior unitaria
y D = fdi g como la nica matriz diagonal tal que A = UT DU;
T = D1=2 U;
p
p
Donde D1=2 = diag d1 ; :::; dn :
Prueba. Note que el corolario 14.5.10 garantiza la existencia y unicidad de
la matriz triangular superior unitaria U y la matriz diagonal D y tambin
garantiza que los elementos de la diagonal de D son positivos. note adems
que D1=2 U es triangular superior, y que los elementos de la diagonal de
p
p
T
D1=2 U son d1 ; :::; dn , y que A = D1=2 U D1=2 U: As existe una matriz triangular superior T con los elementos de la diagonal positivos tal que
A = TT T: Le sigue para mostrar que slo hay una matriz triangular superior
con los elementos de la diagonal positivos.
Supngase que T = ftij g es una matriz triangular superior n n con
los elemntos de la diagonal positivos tal que A = TT T: Denamos D =
diag (t211 ; :::; t2nn ) y
U = [diag (t11 ; :::; tnn )]

T = diag (1=t11 ; :::; 1=tnn ) T:

Entonces, U es triangular superior unitaria, y A = UT D U es una descomposicin UT DU de A: As se sigue del corolario 14.5.10
p que D = D o,
equivalenemente (ya que tii es positivo) se tiene que tii = di (i = 1; ::::; n)
y que U = U: Consecuentemente, T = D1=2 U = D1=2 U: Concluimos que la
unica matriz triangular superior T con los elementos de la diagonal positivos
tal que A = TT T es T = D1=2 U
La desconmposicin (5;11) de la matriz simtrica defnda positiva A es
conocida como la descomposicin de Cholesky

84CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS

5.5.4.

Descomposicin de matrices simtricas denida


no negativa

Si ahora extendemos los resultados del corolario 14.5.10 y teorema 14.5.11


(los cules esta aplicadas a matrices simtricas denidas positivas) a matrices
simtricas denidas no negativas que no puedan ser denidas positivas. El
siguiente teorema proporciona las bases pra esta denicin
Teorema 14.5.12. Corresponde para cualquier matriz simtrica A denida
no negativa entonces exite una matriz triangular superiuor unitaria U tal
que UT AU es una matriz diagonal.
Para elproposito de probar este teorema es til establecer el siguiente lema.
Lema 14.5.13 Sea A = faij g que representa una matriz n n denida
no negativa.si aii = 0; entonces, para j = 1; :::; n; aij = aji ; esto es si el
isimo elemento de ladiagonal de A es igual a cero, entonces (ai1 ; :::; ain ); el
cual es la isima la de A es igual a (a1i ; :::; ani ), el cual es 1 al tiempo
de transponer la iesima columna de A (i = 1; :::; n):
Prueba. (del lema 14.5.13) supngase que que aii = 0 y tomando x = fxk g
que es un vector columna ndimensional tal que xi < ajj ; xj = aij + aji ;y
xk = 0; para k excepto k = i y k = j (donde j 6= i): Entonces,
xT Ax = aii x2i + (aij + aji ) xi xj + ajj x2j

(5.22)

= (aij + aji ) (xi + ajj )


0
con la igualdad unicamente si aij + aji = 0; equivalentemente, unicamente
si aij = aji : Por otra parte dado que A es denida no negativa xT Ax
0; el cual de acuerdo con la desigualdad (5;12) implica que xT Ax = 0:
Concluimos que aij = aji
Si la matriz denida no negativa A en ellema 14.5.13 es simtrica, entonces
aij = aji () 2aij = 0 () aij = 0: As, tenemos el siguiente corolario
Corolario 14.5.14. Sea A = faij g que representa una matriz simtrica n n
denida no negativa. Si aii = 0; entonces, para j = 1; :::; n; aji = aij = 0;

5.5. DESCOMPOSICIONES LDU, UT DU Y DE CHOLESKY

85

esto es, si el i simo elemento de ladiagonal de A es igual a cero, entonces


la i sima columna (a1i ; :::; ani )T de A y la isima la (ai1 ; :::; ain ) de A
son nulas. Por otra parte si todos los n elementos de a diagonal a11 ; :::; ann
de A son iguales a cero, entonces A = 0:
Prueba. (Del teorema 14.5.12) la prueba es por induccin matmatica y es
similar a la prueba del teorema 14.3.4. El teorema es claramente verdadero
para cualquier matriz 1 1. Ahora supongamos que que esto no es cierto
para cualquier matriz simtrica denida no negativa (n 1) (n 1) ; y
consideremos una matriz simtrica n n denida no negativa arbitraria A =
faij g : Para propositos de establecer la existencia de matriz triangular supeior
unitaria tal que UT AU es diagonal, es conveniente considerar separadamente
el caso en que a11 = 0 y el caso en que a11 6= 0:
Caso(1) : a11 = 0: Se sigue del corolario 14.5.14 que la primera la y la
primera columna de A son nulas , equivalentemente,a A = diag (0; A22 )
para alguna matriz A22 (n 1) (n 1) : Adems, A22 es una submatriz
principal de A; simtrica y denida no negativa, por lo tanto, por suposicin
existe una matriz triangular superior unitaria U tal que UT A22 U es una
matriz diagonal. Tomando U = diag (1; U) : Entonces U es triangular superior unitaria y UT AU = diag 0; UT A22 U ; el cual (como UT A22 U ) es
una matriz diagonal
Caso(2) : a11 6= 0: De acuerdo con el lema 14.3.3, exite una matriz triangular
superior unitaria U1 tal que UT1 AU1 = diag (b11 ; B22 ) para algun escalar
b11 y alguna matriz B22 (n 1) (n 1) : Adems, U01 AU1 es (a la luz delteorema 14.2.9) simtrica y denida nonegativa. As, por suposicin existe
una matriz triangular superior unitaria U2 tal que U02 B22 U2 es unamatriz
diagonal. Tomando U = U1 diag (1; U2 ) : Entonces U es una matriz triangular superior unitaria (de hay que diag (1; U2 ) :es triangular superior unitaria
y el producto de dos matrices triangulares superior unitaria es triangular
superior unitaria) , y
UT AU = diag 1; UT2 diag (b11 ; B22 ) diag (1; U2 ) = diag b11 ; UT2 B22 U2 ;
El cual (como UT2 B22 U2 ) es una matriz diagonal.
El corolario 14.5.10 indica que, en el caso especial en que una matriz A
simtrica denida positiva, la matriz P no singular en el corolario 14.3.5

86CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS


puede ser escogida como una matriz triangular superior unitaria en cada
caso la descomposicin A = PT DP es una descomposicin UT DU: En el
siguiente corolario (del teorema 14.5.12 ) indica que P puede ser esogida
como una matriz triangular superior unitaria incluso si A es (simetrica)
semidenida positiva.
Corolario 14.5.15. Una matriz simtrica denida no negativa A n n tiene
una descomposicin UT DU y para alguna descomposiscin A = UT DU los
elementos de la diogonal de la matriz diagonal D son no negativos.
Prueba. A la luz delcorolario 14.2.15, es suciente probar que A tiene una
descomposicin UT DU: De acuerdo al teorema 14.5.12, existe una matriz
triangular superior unitaria T tal que TT AT = D para alguna matriz diagonal D. Tomando U = T 1 : Entonces, A = U0 AU; y (de acuerdo al corolario
8.59).
U es una matriz triangular superior unitaria. As, A = UT DU es una descomposicin UT DU de A
Note que como una consecuencia inmediata del corolario 14.2.15 tenemos lo
opuesto al corolario 14.5.15. si una matriz A n n tiene una descomposicin
U T DU; digamos A = UT DU y si los elementos de la diagonal de lamatriz
diagonal D son no negativos, entonces A es denida nonegativa (y simtrica).
El teorema 14.5.11 establece que alguna matriz A denida positiva tiene una
nica descomposicin de la forma (5;11) y esta se reere a la descomposicin
UT DU de A: el siguiente teorema extiende estos resultados a alguna matriz
simtrica denida no negativa.
Teorema 14.5.16. Sea A una matriz n n simtrica denida no negativa,
y sea r = rank (A) : Entonces existe una nica matriz triangular superior T
con r elementos de la diagonal positivos y n r las nulas tal que
A = TT T

(5.23)

Adems, tomando a U como una matriz triangular superior unitaria y D =


fdi g como la nica matriz diagonal talque A = UT DU;
T = D1=2 U
Donde D1=2 = diag

p
d1 ; :::; dn

(5.24)

5.5. DESCOMPOSICIONES LDU, UT DU Y DE CHOLESKY

87

Prueba. Note que el corolario 14.5.15 y el teorema 14.5.5 garantizan la


existencia de la matriz triangular superior unitaria U y la existencia de
la singularidad de la matriz diagonal D y tambin garantiza que los elementos de la diagonal de D son no negativos. Adicionalmente (en base
al Lema 14.3.1), tenemos que r de los elementos de la diagonal de D digamos los elementos i1 ; :::; ir (donde i1 < ::: < ir ) son no cero y por lo tanto positivos y los restantes n r elementos de la diagonal de D iguales a
1=2
cero. Admas, D
p U es
p triangular superior y los elementos de la diagonal
1=2
de D U son d1 ; :::; dn ; (r de los cuales son positivos), n r las de
D1=2 U son nulas (aquellas las que no sean de las i1 ; :::; ir esimas las), y
T
A = D1=2 U D1=2 U: As existe una matriz triangular superior T con r
elementos positivos en la diagonal y con n r las nulas tal que A = TT T:
Resta probar que hay una nica matriz triangular superior con r elemntos
positivos en la diagonal y con n r las nulas. Supngase T = ftij g es una
matriz n n triangular superior con r elementos positivos en la diagonal
digamos los k1 ; :::; kr elementos de la diagonal (donde k1 < ::: < kr ) y con
n r las nulas tal que A = TT T: Tomando D como una matriz diagonal
n n cuyos k1 ; :::; kr elementos de la diagonal son t2k1 k1 ; :::; t2kr kr , respectivamente, y cuyos otros n r elementos de la diagonal son iguales a cero.
Adicionalmente, si tTk1 ; :::; tTkr ; representan las k1 ; :::; kr esimas las de T, y
tomando U como una matriz triangular superior unitaria cuyos k1 ; :::; kr
esimas las son 1=tk1 k1 )tTk1 ; :::; (1=tkr kr tTkr respectivamente claramente
tal matriz triangular superior existe. Entonces,
A = tk1 tTk1 + ::: + tkr tTkr = UT D U ;
As que A = UT D U es una descomposicin U T DU De A: As, se sigue del
teoremap
14.5.5 que D = p
D; en cuyo caso k1 = i1 ; :::; kr = ir ; y
di1 ; :::; tir ir =
dir ; y que las i1 ; :::; ir esimas las de U son
ti1 i1 =
respectivamente iguales a las i1 ; :::; ir esimas las de U: Consecuentemente.
T = D1=2 U = D1=2 U:
Concluimos que la nica matriz triangular superior T con r elementos en la
diagonal positivos y con n r las nulas talque A = TT T es T = D1=2 U
En alcaso especial donde la matriz simtrica denida no negativa A es denida positiva, la descomposicin (5.13) se simplica a la descomposicin (5;11)
y, como en el caso especial la descomposicin es llamada la Descomposicin
de Cholesky.

88CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS

5.5.5.

Formulas recursivas para LDU y descomposicin


de Cholesky

Sea A = faij g una matriz n n: Considerese el problema de encontrar una


matriz triangular superior unitaria U = fuij g ;una matriz triangular unitaria
inferior L = flji g ; y una matriz diagonal D = fdi g tal que A = LDU
(cuando ellas existen). las formulas dadas en laparte (1) del teorema 14.5.4
pueden ser usadas para construir L; D, y U en n pasos. En cada paso una
columna adicional de U; una la adicional de L y un elemento adicional de la
diagonal de D son obtenidos resolviendo el sistema lineal con coecientes de
la matriz triangular. Haciendo uso de los resultados de la seccin 11.8 (una
solucin del sistema lineal con matrices triangulares no singulares o bloques
de los coecientes de las matrices triangulares ), las formulas dadas en la
parte (1) del teorema 14.5.4 pueden ser expresedas como siguen:
(5.25)

d1 = a11
d1 u1j = a1j ;
di uij = aij

i 1
X

`ik dk ukj (i = 2; :::j

1)

uki dk `jk (i = 2; :::j

1)

k=1

d1 `j1 = aj1;
di `ji = aji

i 1
X
k=1
j 1

dj = ajj

ukj dk `jk

k=1

(j = 2; :::; n) :
El primer paso en los n pasos en el procedimiento para la construccin de
U; L y D consiste en establecer d1 = a11 : El j simo paso (2
j
n);
consiste en determinar secuencialmente a uij y `ji para i = 1; :::; j 1; y
entonces determinar [por medio de la formula (5;15)] dj : Si di = 0; entonces
uij y `ji pueden ser escogidas arbitrariamente; por ejemplo escogiendo uij =
`ji = 0: Si di 6= 0; entonces dependiendo si i = 1 i > 1; tomemos
uij = aij =di y `ji = aji =di
!
!
i 1
i 1
X
X
uij = aij
`ik dk ukj =di y `ji = aji
uki dk `jk =di ;
k=1

k=1

5.5. DESCOMPOSICIONES LDU, UT DU Y DE CHOLESKY

89

respectivamente
Hay un procedimiento alternativo de n pasos para construir U; L y D en
elcual U es formado la por la ms bien columna por columna y L es
formada columna por columna la por la. El primer paso consiste en
establecer d1 = a11 y, dependiendo si d1 = 0 d1 6= 0; escogemos u12 ; :::; u1n
y `21 ; :::; `n1 arbitrariamente (para j = 2; :::; n); denamos u1j = a1j =d1
y `j1 = aj1 =d1 :El i simo paso (2
i
n 1); consiste en determinar
[por medio de la formula (5;15)] di :y, dependiendo si di = 0 di 6= 0 escogemos ui:i+1 ; :::; ui 1 y `i+1:i ; :::; `ni arbitrariamente (para j = i + 1; :::; n )
tomamos.
uij = aij

i 1
X

`ik dk ukj =di y `ji =

aji

k=1

i 1
X

uki dk `jk =di

k=1

El paso nal (nsimo) consiste en asignar


X
dn = an
ukn dk `nk

Note que (con cualquiera de estos procedimientos )una vez d1 fue determinado, ajj no es necesario (al menos no para construir una descomposicin
LDU) similarmente una vez uij haya sido determinada, aij no es requerida
y, una vez `ji haya sido determinada aji no es requirida, esto tambien en
la implementacin del proceso en lacomputadora esto puede ser solucionado si tanto dj ; uij y `ji son determinadas, ellas son encontradas previamente
utlizando ajj ; aij y aji respectivamente.
En lo que concierne, fue asumido que A tiene una descomposicin LDU; la
no existencia de una descomposicin LDU puede (al menos en un principio
es determinado durante el curso del proceso incorporando siertas pruebas, si
d1 = 0; entonces antes de la asignacin de valores a u1j y `j1 deberiamos
probar si a1j =0 y aj1 =0; similarmente si di = 0 (2 i n 1); entonces
antes de la asignacin de valores a uij y `ji deberiamos probar que si
aji

i 1
X

`ik dk `kj = 0 y aji

aji =

uki dk `jk = 0

k=1

k=1

equivalentemente

i 1
X

i 1
X
k=1

`ik dk `kj y aji =

i 1
X
k=1

uki dk `jk

90CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS


si el resultado de alguna prueba es negativa,terminamos el procedimiento
y concluimos (en base en el teorema 14.5.4) que A no tiene una descomposicin LDU; si el resultado de todas las pruebas son positivas, entonces
elprocedimiento es correcto y produce una descomposicin LDU:
Suponiendo que A no es simtrica y considere el problema d determinar si A
tiene una descomposicin UT DU; y de construir la descomposicin UT DU.
Este problema puede ser resuelto" empleando una versin simplicada del
procedimiento para comprobar la existencia de una descomposicin LDU y
para la construccin de una descomposicin LDU La simplicacin viene de
establecer `ji = uij ; para j = 2; :::; n e i = 1; :::; j 1 y ms especicamente
del resultado de la reduccin computacional y almacenamiento requerido.
Finalmente supongamos que A es una matriz simtrica denida no negativa, y considere el problema de encontrar la descomposicin de Cholesky de
A: Esto es, considere el problema de encontrar la nica matriz triangular
superior T = ftij g con r elementos positivos en la diagonal y n r las
nulas
[donde r = rank(A)] tal que A = TT T.
Una aproximacin es encontrar la descomposicin UT DU de A y entonces
determinar T de la formula (5.14). Sin embargo, existe un mtodo
ms directo, el cual es veces llamado el mtodo de la raz cuadrada. Este mtodo esta basado en las siguientes formulas, las cuales pueden ser obtenidas de
las formulas de la parte (10 )del teorema 14.5.4 por aplicacin de los resultados
de la seccin 11.8 y
haciendo uso de la relacin (5.14)
t11 =

si t11 > 0

t1j = a1j =t11 ;


=0

tij =

aij

i 1
X
k=1

(5.26)

a11

si, t11 = 0

tki tkj

tii

= 0 si tii = 0
(i = 2; 3::::; j

1),

(5.27)
(5.28)

si tii > 0

(5.29)
(5.30)

5.5. DESCOMPOSICIONES LDU, UT DU Y DE CHOLESKY

tjj =

aij

i 1
X
k=1

t2kj

!1=2

91

(5.31)

(j = 2; 3; :::; n)
En el mtodo de la raz cuadrada, T es construido la por la columna
por columna en n pasos, una la columna por paso. por ejemplo, el primer
paso de la versin la por la consiste en la determinacin de t11 ; t12 ; :::; t1n ;
[por medio de las formulas (5.16) y (5.17)] el paso i simo (2 i n 1)
consiste en la determinacin de tii ; ti;i+1 ; :::; tin por medio de las formulas
(5.19) y (5.18) ; y el paso nal (n simo) consiste en la determinacin de
tnn por de la formula (5.19).
Si hay incertidumbre acerca de si A es denida no negativa, entonces, en
la aplicacin del mtodo de la raz cuadrada a A. Varias modicaciones
deben ser incorporadas. Debemos (determinar previamente a t11 ) ensayando
si a11
0; y si a11 = 0, debemos (denir a t1j = 0 ) ensayando si a ii
X
Xi 1
t2ki
0, y si a ii
t2ki = 0, debemos (denir a tij = 0) ensayando
k=1 X
si aij
tki tkj = 0. Finalmente, debemos ( determinar a tnn ) ensayando
X
si ann
t2kn 0.
Si el resultado de algn ensayo es negativo, se sigue del teorema 14.5.4 y
14.5.16 que en cualquiera de los casos, A no tiene una descomposicin
UT DU para una descomposicin (de A), expresar A = UT DU, uno
ms de los elementos de la diagonal de la matriz diagonal D son negativos.
Asi, si el resultado de algn ensayo es negativo terminamos el mtodo de
la raz cuadrada procediendo y concluyendo (en base al corolario 4.5.15) que
A no es denida no negativa. Si el resultado de cada ensayo es positivo,
entonces A es no negativa, y el procedimiento es llevado a la terminacin y
produccin de la descomposicin de Cholesky.
Supngase, por ejemplo que
0

4
@
2
A=
2

1
2
2
1
1 A
1 10

Si aplicamos el mtodo de la raz cuadrada (de la p


versin nal la por la).
Observando que a11 > 0, encontramos que t11 = 2 4 = 2; t12 = 2=2 = 1 y
t13 = 2=2 = 1. Adicionalmente, sobre la observacin de que a22 t212 = 0,

92CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS


encontramos que t22 = 0, y despus observando que a23 t12 t13X
= 0, vemos
que t23 = 0. Finalmente, acerca de la observacin de que a33
t2k3 = 9,
p
encontramos que t33 = 2 9 = 3. As concluimos que A es no negativa puesto
que t22 = 0, esta es semidenida positiva y la descomposicin de Cholesky
de A es:
0

2 1
@
0 0
A=
0 0

1T 0
1
2 1
A
@
0
0 0
3
0 0

1
1
0 A
3

Note que si a23 = a32 hubieran sido igualadas a otro nmero diferente de 1
se hubiera dado el caso de que a23 t12 t13 6= 0; y A no hubiera sido denida
no negativa. O, si el valor de a 22 hubiera sido ms pequeo que uno, se habra
tenido el caso de que a22 t212 < 0, y A no habra sido denida no negativa.

5.5.6.

Factorizaciones LDU, UT DU y de Cholesky en


la obtencin de una I.G

Supngase que A es una matriz n n que tiene una factorizacin LDU, es


decir, A = LDU. Entonces, se sigue de lo discutido en la seccin 14.4 que la
matriz
G = U 1D L

(5.32)

es una inversa generalizada de A y que una eleccin para D es la matriz


diagonal obtenida al reemplazar los elementos no cero de la diagonal D por
sus respectivos inversos multiplicativos. As que, un camino para la obtencin
de una inversa generalizada de A es obtener la descomposicin LDU de A
y entonces aplicar la formula (5.32). Ntese que en el caso especial L = UT ,
la formula (5.32) se convierte en
G = U 1D

1 T

(5.33)

Supngase ahora que A es una matriz n n denida no negativa con rango r,


entonces podemos obtener una inversa generalizada de A en trminos de la
descomposicin UT DU usando la formula (5.33). Podemos tambin obtener
una inversa generalizada de A directamente en trminos de la descomposicin
de Cholesky. Sea A = TT T que representa la descomposicin de Cholesky
de A, por denicin, T es una matriz triangular superior con r elementos

5.5. DESCOMPOSICIONES LDU, UT DU Y DE CHOLESKY

93

positivos en la diagonal, digamos estos elementos i1 ; i2 ; :::; ir elementos de la


diagonal (donde i1 < i2 <
< ir ), y con n r las nulas. Tomando T1 una
matriz r n obtenida al eliminar las las nulas de T. Entonces claramente,
A = TT1 T1 , y rk(T1 ) = rk(A) = r. Se sigue del Lema 8.1.1 que T1 tiene una
inversa a derecha, digamos R. De all que
ARRT A = TT1 T1 R(T1 R)T T1 = TT1 T1 = A;
RRT es una inversa generalizada de A. Una inversa a derecha de T1 puede
ser obtenida haciendo uso del procedimiento descrito en la seccion 8.5d para
invertir una matriz triangular no singular. Observando esto, si T11 representa
la submatriz r r obtenida al eliminar todas las columnas de T1 excepto las
i1 ; i2 ; :::; ir columnas. Note que T11 es una submatriz principal de T y por lo
tanto (como T) es triangular superior y (se tiene que los elementos de T11
son no ceros) tal que T11 es no singular. Tomando R una matriz n r cuyas
i1 ; i2 ; :::; ir son la primera, segunda, ..., r sima la de T111 y cuyas otras
n r las son nulas. Entonces, claramente, T1 R = T11 T 1 = I, asi que R
es una inversa a derecha de T1:

5.5.7.

Matrices Seudo Simtricas

Una matriz n nA = faij g. Se dice que es seudo simtrica si AT = A


o equivalentemente si (aij = aij , 2aij = 0 , aij = 0), si aii = 0 para
i = 1; :::; n y aij = aij para
0 1
j 6= i = 1; 2; :::; n. Por ejemplo, la matriz 2 2
es seudo
1 0
simtrica.
Una submatriz principal de una matriz seudo simetrica es seudo simtrica
, como es fcilmente vericado.Otras propiedades bsicas de matrices seudo
simtrica son descritas en los siguientes dos lemas.
Lema 14.6.1. La nica matriz n
simtrica es la matriz nula.

n que es a la vez simtrica y seudo

Prueba: Si una matriz An n es a la vez simtrica y seudo simtrica ,


entonces A = AT = A, implicando que 2A = 0 y que por lo tantoA = 0
.

94CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS


Lema 14.6.2. Sea A una matriz n n y P una matriz n
simtrica , entonces PT AP es seudo simtrica .

m. Si A es seudo

Prueba. si A es seudo simtrica ,entonces


(PT AP)T = PT AT P = PT ( A)P =

PT AP

El siguiente lema es una consecuencia inmediata del lema14.1.1, caracteriza


la seudo simtrica de una matriz cuadrada de la forma cuadrtica.
Lema 14.6.3 Una matriz A n n es seudo simtrica si y solo si, para cada
vector columna x n-dimensional, xT Ax = 0.
Hay una relacin entre la seudo simtrica y las deniciones de no negatividad,
las cuales son descritas en el siguiente lema.
Lema 14.6.4 Una matriz An n, A = faij g es seudo simtrica si y solo
esta es denida no negativa y los elementos de la diagonal a11 ; a22 ; :::; ann son
iguales a cero.
Prueba. supngase que A es seudo simtrica .Entonces, por denicin, aii =
0 (i = 1; 2::::; n). Por otra parte, se sigue del lema 14.6.3 que A es denida
no negativa. Recprocamente, supngase que A es denida no negativa y que
sus elementos de la diagonal son iguales a cero.Entonces se sigue del lema
14.5.13 que aji = aij para i; j = 1; 2; ::::n. Asi que es seudo simtrica.

5.6.
5.6.1.

Traza de una matriz denida no negativa


Resultados bsicos

Los siguientes resultados son una consecuencia inmediata del corolario 14.2.13
Teorema 14.7.1. Para alguna matriz A denida positiva, tr(A) > 0.
El siguiente teorema extiende el resultado del teorema 14.7.1 a matrices
denidas no negativas que no son denidas positivas, esto es, matrices semidenidas positivas.

5.6. TRAZA DE UNA MATRIZ DEFINIDA NO NEGATIVA

95

Teorema 14.7.2. Sea A = faij g una matriz n n no negativa. Entonces,


tr(A) 0, con la igualdad si y solo si los elementos de la diagonal a11 ; :::; ann
de A son iguales a cero, o equivalentemente, si y solo si A es seudo simtrica.
Prueba. De acuerdo con el corolario 14.2.13, a ii
que,
tr(A) = a11 + a22 + :::: + ann

0 (i = 1; 2; :::::n). As

con tr(A) = 0 si y solo si a11 + a22 + :::: + ann 0 son iguales a cero. Que la
matriz no negativa A sea seudo simtrica es equivalente a que los elementos
de la diagonal de A sean ceros. es una consecuencia inmediata del Lema
14.6.4.
En el caso especial en que A es una matriz simetrica no negativa,el Teorema
14.7.2 ( a la luz del Lema 14.6.1) puede ser restaurado como sigue.
Corolario 14.7.3 Sea A = faij g una matriz n n simtrica no negativa.Entonces, tr(A)
0, con la igualdad si y solo si los elementos de la
diagonal de A, a11 ; a22 ; :::; ann son iguales a cero o equivalentemente si A = 0:

5.6.2.

Extensin a productos de matrices denidas no


negativas

El siguiente teorema es una extensin del Teorema 14.7.1.


Teorema 14.7.4 Para alguna matriz An n denida positiva y alguna
matriz B n n no nula simtrica no negativa, tr(AB) > 0.
Prueba. Sea r = rk(B). Entonces,de acuerdo con el Teorema 14.3.7 B =
QT Q para alguna matriz Q r n de rango r. De all que (de acuerdo con
el Teorema 14.2.9) QAQT es denida positiva, (usando el lema 5.2.1 y el
teorema 14.7.1) encontramos que
tr(AB) = tr(AQT Q) = tr(QAQT ) > 0
Como una consecuencia inmediata del teorema 14.7.4, tenemos el siguiente
corolario el cual es una extensin del corolario 14.7.3

96CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS


Corolario14.7.5 Sea A una matriz n n denida positiva y B una matriz
n n simtrica no negativa. Entonces tr(AB) 0, con la igualdad si y solo
si B = 0.
En el caso especial en que B = I,el teorema 14.7.4 se reduce al teorema 14.7.1,
y en el caso especial en que A = I, el corolario 14.7.5 se reduce a el corolario
14.7.3.
El siguiente teorema es una extensin del teorema 14.7.2.
Teorema 14.7.6 Sea A una matriz n x n no negativa y B una matriz
simtrica no negativa. Entinces tr(AB)
0, con la igualdad si y solo si
BAB es seudo simtrica.
Prueba. El teorema es verdadero en el caso especial en que B = 0, de all
que segn en el caso especial tr(AB) = 0 y BAB = 0. As que en la prueba
del teorema es suciente prestar atencin a la restriccin en el caso en que
B 6= 0.
Supngase que B 6= 0, y sea r = rk(B). Entonces, de acuerdo con el teorema
14.3.7, B = QT Q para alguna matriz Qr n de rango r.[a la luz del resultado
(5.2.3)] observemos que
tr(AB) = tr(AQT Q) = tr(QT AQ)

(5.34)

De acuerdo al teorem a14.2.9, QAQT es denida no negativa.As que, se sigue


del teorema 14.7.2 que tr(QAQT ) 0 , o equivalentemente, a que tr(AB)
0, con la igualdad si y solo si QAQT es seudo simtrica o equivalentemente,
si y solo si,
QAQT =

QAQT

(5.35)

De aqui que Q es de rango la completo y que QT de rango columna completo, (como consecuencia del lema 8.3.1) tenemos que la condicin (7.2) es
equivalente a la condicin
QT QAT QT Q =

QT QAQT Q

Ms aun,la condicin (7.3) puede ser expresada como


(BAB)T =

BAB

(5.36)

5.6. TRAZA DE UNA MATRIZ DEFINIDA NO NEGATIVA

97

As que la condicin (7.3) se sastiface si y solo si BAB es seudo simtrica.


En el caso especial en que B = I, el teorema 14.7.6 se reduce al teorema
14.7.2. Si A es simetrica (o bien denida no negativa), entonces los resultados
del teorema 14.7.6 pueden estar apuntados, como se describen el siguiente
corolario, el cual generaliza el corolario 14.7.3 ( en un camino diferente al
corolario 14.7.5)
Corolario 14.7.7 Si A y B representan matrices n n simtricas no negativas. Entonces, tr(AB) 0, con la igualdad si y solo si AB = 0
Prueba. Claramente, (BAB)T = BT AT BT ; el que BAB se simtrica implica ( a la luz del lema 14.6.1) que BAB es seudo simtrica si y solo si
BAB = 0. As que, se sigue del teorema 14.7.6 que tr(AB)
0, con la
igualdad si y solo si
BAB = 0

(5.37)

Para completar la prueba, es suciente demostrar que la condicion (7.4) es


equivalente a la condicin AB = 0. En el caso especial en que A = 0 ,estas
dos condiciones son claramente equivalentes. As que es suciente prestarle
atencin a la restriccin en el caso A 6= 0. Supngase que A 6= 0, y sea r =
rk(A).De acuerdo con el teorema 14.3.7, A = QT Q para alguna matriz Q de
rango r. As que, la condicin (7.4) puede ser expresada como (QB)T QB = 0,
el cual ( de acuerdo con el corolario 5.3.2) es equivalente a la condicin
QB = 0

(5.38)

Por otra parte, dado que QT es de rango columna completo, se sigue del lema
8.3.1 que la condicin (7.5) es equivalente a la condicin
QT QB = QT 0
la cual se puede expresar como AB = 0 se concluye que la condicin (7.4)
es equivalente a la condicin AB = 0.
En el caso especial en que A = I B = I, el corolario 14.7.7 se reduce al
corolario 14.7.3.

98CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS

5.7.

Particin de Matrices Denidas No Negativas

5.7.1.

Aplicabilidad de las formulas para rangos, determinantes, inversas e inversas generalizadas

Considere una matriz A (cuadrada) particionada de la forma


A=

T U
V W

Donde T es una matriz m m (cuadrada), W es una matriz n n (cuadrada),


U de dimensiones m n y V de dimensiones n m, consideremos una
particin de la matriz B de la forma
B=

W V
U T

Supngase que T es no singular. Entonces la formula (13.3.13) puede ser


usada para expresar jAj jBj en trminos de el determinante de T y el
determinante de el complemento de Schur W VT 1 de T, y la formula
(8.5.15) puede ser usada para expresar rk(A) rk(B) en trminos del orden
m de T y del rango de el complemento de Schur de T. Supngase adicionalmente que A B es no singular. Entonces, la formula (8.5.15) (8.5.16)
pueden ser usadas para expresar A 1 B 1 en trminos de la inversa de T
y la inversa de el complemento de Schur de T.
Es A B no singular (y T no singular) si A B es denida no negativa ?
Si A B es denida positiva, entonces es claro por el lema 14.2.8 que A
B, respectivamente, es no singular y del corolario 14.2.12 T es no singular.
Si A B es una matriz simtrica semidenida positiva, entonces es claro por
el corolario 14.3.12 que A B, respectivamente, es singular. Si A B es
una matriz no simtrica semidenida positiva , es singular, entonces A B,
respectivamente, puede o no puede ser no singular. Adems, igual si A B
es una matriz no singular semidenida positiva, T puede ser singular.
Supngase ahora que T es posiblemente singular si C(U) C(T) y R(V)
R(T) entonces la formula (9.6.2) (9.6.3) dan una inversa generalizada de
A B, respectivamente, en trminos de una inversa generalizada arbitraria
T de T y una inversa generalizada arbitraria de el complemento de Schur

5.7. PARTICIN DE MATRICES DEFINIDAS NO NEGATIVAS

99

W VT U de T y la formula puede ser usado para expresar rk(A) rk(B)


en trminos del rango de T y el rango de el complemento de Schur de T.
Son las condiciones C(U)
C(T) y F(V)
F(T) satisfechas si A B
son semidenidas positivas? Si A B son simtricas bien semidenidas
positivas. La respuesta a esta pregunta es si, como lo es evidente por el
corolario del siguiente lema.
Lema 14.8.1 Si A representa una matriz simtrica denida no negativa que
esta particionada asi:
A=

T U
V W

donde T (y por lo tanto W) son cuadradas.Entonces existen R y S matrices


tales que
T = RT R; U = RT S; V = ST R; W = ST S:
Prueba.De acuerdo con el corolario 14.3.8 existe una matriz X tal que A =
XT X.Particionando X como X = (R; S) (donde R tiene igual nmero de
columnas que T). Entonces,
A = XT X =

RT
ST

RT R R T S
ST R ST S

(R; S) =

De all que RT R, RT S, ST R y ST S son de igual dimensin que T, U, V y


W, respectivamente, T = RT R; U = RT S; V = ST R y W = ST S.
Corolario 14.8.2 Sea A una matriz simtrica denida no negativa que ha
sido particionada asi
A=

T U
V W

donde T ( y por supuesto W) son cuadradas. Entonces C(U)


F(V) F(T). Similarmente, C(V) C(W) y F(U) F(W).

C(T) y

Prueba.De acuerdo al lema 14.8.1 existen matrices R y S tales que :


T = RT R; U = RT S; V = ST R; W = ST :

100CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS


As que, haciendo uso del corolario 4.2.3 y 7.4.5, encontramos que:
C(U)

C(RT ) = C(T)

F(V)

F(R) = F(T):

Esto puede ser probado de manera similar que C(V)


R(W)

5.7.2.

C(W) y R(U)

Matrices Diagonales

El lema 14.2.1 caracteriza los conceptos de deniciones no negativas, positivas y semidenidas positiva como su aplicacin a las matrices diagonales.El
siguiente resultado extiende el resultado del lema 14.2.1 a matrices diagonales
.
Lema 14.8.3 Si Ai representa una matriz ni ni con (i = 1; 2; ::::::k); siendo
n = n1 + n2 + ::: + nk y se dene la matriz A diagonal como
A = diag(A1 ; A2 ; :::; Ak ):
Entonces,(1) A es denida no ngativa si y solo si A1 ; A2 ; :::; Ak son denidas
no negativas; (2) A es denida positiva si y solo si A1 ; A2 ; :::; Ak son denidas
positivas; (3) A es semidenida positiva si y solo si el bloque diagonal
A1 ; A2 ; :::; Ak son denidas no negativas con al menos uno del bloque diagonal semidenido positivo.
Prueba. Considere la forma cuadratica xT Ax ( donde x es un vector columna n dimensional) y A una matriz. La particin de xT como
xT = (xT1 ; xT2 ; :::; xTk ), donde ( para i = 1; 2; :::; k) xi es un vector columna
ni dimensional. Entonces claramente,
xT Ax = xT1 Ax + xT A2 x2 + ::: + xTk Ak xk :
(1) Si A1 ; A2 ; :::; Ak son denidos no negativos, entonces por denicin
xTi Ai xi 0 para cada xi con (i = 1; 2; :::; k), implicando que xT Ax 0 para
cada x y de all que A es denida no negativa. Inversamente, si A es denida

5.7. PARTICIN DE MATRICES DEFINIDAS NO NEGATIVAS

101

no negativa, entonces se sigue del corolario 14.2.12 que A1 ; A2 ; :::; Ak son


denidas no negativas.
(2) Si A1 ; A2 ; :::; Ak son denido positivo, entonces, por denicin, xTi Ai xi >
0 para cada xi no nulo con (i = 1; 2; :::; k) implicando que xT Ax > 0 para
cada x no nulo y de all que A es denida positiva. Inversamente, si A es
denida positiva, entonces se sigue del corolario14.2.12 que A1 ; A2 ; :::; Ak
son denidos positivos.
(3) Supngase que A1 ; A2 ; :::; Ak son denidos no negativos y que para algn i, digamos i = i , Ai es semidenido positivo. Entonces por denicin
xTi Ai xi 0 para cada xi con (i = 1; 2; :::; k) y de all que existe algn valor
no nulo de xi , digamos xi = xi para el cual xTi Ai xi = 0 se sigue que
T

xT Ax 0 para cada x con la igualdad para x0 (0; :::; 0; xi ;0; :::; 0). As que,
A es semidenida positiva.
Inversamente, supngase que A es semidenida positivo. Entonces se sigue
de la parte (1) que A1 ; A2 ; :::; Ak son denidos no negativos.Por otro lado se
sigue de la parte (2) que no todas las matrices A1 ; A2 ; :::; Ak son denidas
positivas y de aqu que (ellos son denidos no negativos) tal que al menos
una de ellas es semidenida positiva.

5.7.3.

Deniciones no negativa de un complemento de


Schur

Algunas condiciones sucientes para las denidas positivas semidenida


positiva de un complemento de Schur estan dadas por el siguiente teorema.
Teorema 14.8.4 Sea
A=

T U
V W

donde T es de dimensiones m m, U de dimensiones m n, V de dimensiones


n m y W de dimensiones n n.
(1) Si A es denida positiva, entonces el complemento de Schur W VT 1 U
de T y el complemento de Schur T UW 1 V de W son denidos positivos.
(2) Si A es simtrica semideda positiva, entonces el complemento de Schur
W VT U de T y el complemento de Schur T UW V de W son
denidos no negativos.

102CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS


(3) Si A es semidenida positiva ( pero no necesariamente simtrica) y si
C(U)
C(T) F(V)
F(T), entonces el complemento de Schur W
VT U de T ( referente a T ) es denido no negativo.
(3) Si A es semidenida positiva y si C(V)
C(W) F(U)
F(W);
entonces el complemento de Schur T UW V de W es denido no negativo.
Prueba. Si centramos nuestra atencin al resultado (3) y a las partes delos
resultados (1) y (2) que pertenecen a el complemento de Schur de T . El
resultado (3) y las partes de los resultados (1) y (2) que pertenecen a el complemento de Schur de W pueden ser establecidos con argumentos anlogos.
Denamos
P=

Im
0

T U
In

De acuerdo al lema 8.5.2, P es no singular. Adicionalmente,


PT AP =

T
T
V (T U) T

TT
Q

donde Q = W VT U (T U)T (I TT ) U.
Supngase que A es denida positiva. Entonces de acuerdo con el corolario
14.2.10, PT AP es denida positiva. As que, se sigue del corolario 14.2.12 que
Q es denido positivo. Una implicacin adicional del corolario 14.2.12 es que
T es denida positiva y por lo tanto no singular, as que Q = W VT 1 U.
Concluimos que si A es denida positiva, entonces el complemento de Schur
de T es denido positivo.
Supngase ahora que A es semidenida positiva. Entonces de acuerdo con
el corolario 14.2.10, PT AP es semidenida positiva. As que se sigue del
corolario 14.2.12 que Q es denida no negativa.Si C(U) C(T) el cual (a
la luz del corolario 14.8.2) deba ser el caso si A era simtrica - entonces ( de
acuerdo al lema 9.3.5) (I TT )U = 0, y por lo tanto Q = W VT U.
Concluimos que si A es simtrica semidenida positiva, ms generalmente,
si A es semidenida positiva y C(U) C(T) , entonces el complemento de
Schur de T es denido no negativo.
Que el complemento de Schur de T es de denido no negativo si A es semidenida positivo y F(V)
F(T) puede ser establecido en un argumento
similar

5.7. PARTICIN DE MATRICES DEFINIDAS NO NEGATIVAS

103

Como una onversacin"parcial del corolario 14.8.4, tenemos el siguiente resultado.


Teorema 14.8.5 Sea
A=

T U
UT W

donde T es de dimensiones m m, de dimensiones m n y W de dimensiones


n n.
(1) Si T es simtrica denida positiva y el complemento de Schur W
UT T 1 U de T es denido positivo, si W es simtrica denida positiva y el
complemento de Schur T UW 1 UT de W es denido positivo, entonces
A es denida positiva.
(2) Supngase que A es simtrica denida no negativa y que el complemento
de Schur W UT T U de T es denido no negativo .Supngase
adicionalmente que C(U) C(T). Entonces, A es denida no negativa.
(2) Supngase que W es simtrica denida no negativa y que el complemento
de Schur T UW UT de W es denido no negativo.Supngase adicionalmente que F(U) F(W). Entonces, A es denido no negativo.
Prueba. Supngase que T es simtrica denida positiva (en caso T es no
singular) ms generalmente T es simtrica denida no negativa y C(U)
C(T).
Denamos
P=

Im
0

T U
In

De acuerdo al lema 8.5.2, P es no singular.


PT AP = diag T; W

UT T U

como puede ser vericado fcilmente utilizando el lema 9.3.5, equivalentemente


A = (P 1 )diag (T; W

UT T U)P

(5.39)

Si W UT T U es denida no negativa, entonces se sigue del lema 14.8.3


que diag(T
W UT T U) es denida no negativa, implicando [a la luz de

104CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS


la igualdad (8.1) y el corolario 14.2.10] que A es denida no negativa. Similarmente, si T es denida positiva ( por lo tanto invertible) y W UT T 1 U
es denida positiva, entonces diag (TW UT T U) es denida positiva,
implicando que A es denida positiva.
Concluimos que si T es simtrica denida no negativa, W UT T U es no
negativa, y C(U) C(T); entonces A es denida no negativa, y que si T es
simtrica denida positiva y W UT T 1 U es denida positiva, entonces A
es denida positiva. Se puede probar, de modo similar, si W es simtrica no
negativa, T UW UT es denida no negativa, y F(U) F(W), entonces
A es no negativa, y que si W es simtrica denida positiva y T UW 1 UT
es denida positiva, entonces A es denida positiva.
En el caso especial de una matriz simtrica particionada, tenemos ( a la luz
del teorema 14.8.4 y el corolario 14.2.12) el siguiente corolario del teorema
14.8.5.
Corolario 14.8.6 Supngase que una matriz A es simtrica es particionada
as
A=

T U
UT W

(donde T y W son cuadradas). Entonces, A es denida positiva si y solo


si T y el complemento de Schur W UT T 1 U de T son ambas denidas
positivas. Similarmente, A es denida positiva si y solo W y el complemento
de Schur T UW 1 UT de W son ambos denidos positivos.

5.8.

Algunos resultados sobre determinantes

5.8.1.

Determinante de una matriz denida no negativa

Lema 14.9.1. El determinante de una matriz simtrica denida positiva es


positivo. Adems, el determinante de una matriz simtrica semidenida positiva es igual a cero.
Demostracin. Sea A una matriz n n simtrica denida positiva. De
acuerdo al Corolario 14.3.13 existe una matriz P invertible tal que A = PT P

5.8. ALGUNOS RESULTADOS SOBRE DETERMINANTES

105

de aqu (de acuerdo al teorema 13.3.7) det(P) 6= 0, se sigue entonces que


det(A) = det(PT P) = det(PT ) det(P) = det(P) det(P) = (det(PT ))2 > 0.
Las matrices no simtricas denidas no negativas que son no singular, y tienen
determinantes distintos de cero rerindose al teorema 13.73.7 puede
adems decirse algo acerca de sus determinantes?. En particular, es el determinante de una matriz no singular, no simtrica y denida no negativa
como el de una matriz simtrica denida positiva, necesariamente positivo?.
Se sigue que las respuestas a estas preguntas se demostraron que son armativas.
Preliminarmente considerando el determinante de una posible matriz no
simtrica denida no negativa es conveniente establecer el siguiente resultado sobre el determinante de matrices semi-simtrica recordando (el lema
14.6.4) que una matriz es semi-simtrica s y slo si es denida no negativa
y los elementos de su diagonal son ceros.
Teorema 14.9.2 Sea A una matriz n n antisimtrica. Si n es un nmero
impar, entonces det(A) = 0. Y, si n es un nmero par, entonces det(A) 0.
Demostracin. Por denicin AT =
13.2.1 y el Corolario 13.2.5

A, de modo que de acuerdo al Lema

det(A) = det(AT ) = det( A) = ( 1)n det(A).


En consecuencia, si n es un numero impar det(A) = det(A), de donde
det(A) = 0.
La prueba de que det(A)
0 cuando n es un nmero par se hace por
induccin matemtica: si n = 2
A=

0 c
c 0

para algn escalar c, luego


det(A) = c2

0.

Suponga ahora que el determinante de toda matriz antisimtrica (n 2)


(n 2) es mayor o igual a cero, donde n es un nmero par arbitrario (mayor o

106CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS


igual a 4) para completar el argumento de induccin debemos demostrar que
el determinante de una matriz arbitraria antisimtrica A n n es mayor o
igual a cero. Para este propsito, es suciente restringir la atencin en el caso
donde al menos uno de los n elemento de la primera la es distinto de cero
(si la primera la de A es nula, entonces det(A)). Asumamos que a1m 6= 0
para algn entero m (2 m n). Sea B = PT AP, donde P es una matriz
de permutacin obtenida al intercambiar la segunda y la m sima columna
de In (si m = 2, tomamos P = In ). Ntese que (de acuerdo al Teorema 13.3.4
y el Corolario 13.3.6)
det(B) = (det(P))2 det(A) = det(A).
Ahora, la particin de B como
B=

B11 B12
,
B21 B22

donde el tamao de B11 es 2 2. De acuerdo al Lema 14.6, B es antisimtrica,


0
a1m
lo que implica que B11 =
, BT12 = B21 y BT22 = B22 . Como
a1m 0
a1m 6= 0, obtenemos que
det(B11 ) = (a1m )2 > 0,
y se sigue del Teorema 13.3.8 que
det(B) = (a1m )2 det(B22

B21 B111 B12 ).

Pero,
(B22

B21 B111 B12 )T = BT22 BT12 (BT11 ) 1 BT21


=
B22 ( B21 )( B111 )( B12 )
=
(B22 B21 B111 B12 ).

De modo que B22 B21 B111 B12 , que tiene tamao (n


antisimetrica. As, por hiptesis inductiva,
det(B22
Luego, det(B)

B21 B111 B12 )

0 y de all que det(A)

0.

0.

2)

(n

2), es

5.8. ALGUNOS RESULTADOS SOBRE DETERMINANTES

107

Estamos ahora en una posicin de establecer el siguiente resultado sobre el


determinante de una matriz denida no negativa.
Teorema 14.9.3 Para cualquier matriz A denida no negativa, det(A)

Demostracin. La prueba es por induccin matemtica. Claramente el determinante de cualquier matriz denida no negativa 1 1 es no negativa.
Suponga ahora que el determinante de toda matriz denida no negativa
(n 1) (n 1) es no negativo, y consideremos una matriz A n n denida
no negativa (para completar el argumento de induccin debemos demostrar
que det(A) 0). Es suciente restringirse al caso donde al menos uno de los
elementos de la diagonal de A formada por las componenetes a11 ; : : : ; ann de
A es no negativo, y por lo tanto positivo (si todas las componentes en esa diagonal de A son cero, entonces, de acuerdo al Lema 14.6.4, A es antisimtrica
y tenemos como consecuencia del Teorema 14.9.2 que el det(A) 0). Asumiendo que amm > 0 para algn entero m (1
m
n). Sea B = PT AP,
donde P es una matriz de permutacin obtenida al intercambiar la primera
y la m sima columna de In (si m = 1 tomamos P = In ). Observamos (de
acuerdo al Teorema 14.2.9) que B es denida no negativa y que
det(B) = (det(A))2 det(A) = det(A).
Consideremos la particin de B como
B=

B11 B12
,
B21 B22

donde el tamao de B11 es 1 1. Claramente, B11 = [amm ] y consecuentemente se sigue del Teorema 13.3.8 que
det(B) = amm det(B22

B21 B111 B12 ).

Adems, de acuerdo a las partes (1) y (3) del Teorema 14.8.4, B22 B21 B111 B12
(que es (n 1) (n 1)) es denida no negativa. Luego, por hiptesis de
induccin
det(B22

B21 B111 B12 )

0.

108CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS


As,
det(A) = det(B) = amm det(B22

B21 B111 B12 )

0.

De acuerdo al Lema 14.2.8 y al Corolario 14.3.2 tenemos como un corolario


del Teorema 14.9.3 el siguiente resultado el cual generaliza al Lema 14.9.1.
Corolario 14.9.4 El determinante de una matriz denida positiva o de una
matriz no singular, no simtrica y semidenida positiva (estrictamente) positiva. El determinante de una matriz simtrica semidenida positiva o de una
matriz singular no simtrica y semidenida positiva es cero.
Que una matriz simtrica sea denida positiva puede ser averiguado desde los
determinantes de su cabecera principal de submatrices, el siguiente teorema
nos da las bases para hacer eso.
Teorema 14.9.5 Sea A una matriz
2
a11
6a21
6
Ak = 6 ..
4 .
ak1

simtrica n
a12
a22
..
.
ak2

n y para k = 1; : : : ; n sea
3

a1k
a2k 7
7
.. 7
..
.
. 5
akk

representan la cabecera principal de submatrices de A de orden k entonces,


A es denida positiva si y slo si para k = 1; 2; : : : ; n det(Ak ) > 0; es decir, si
y slo si los determinantes de todo n de la cabecera principal de submatrices
de A1 ; : : : ; An de A son positivos.
En la demostracin del teorema 14.9.5, es conveniente hacer uso de los siguientes resultados los cuales son de inters, para sta verdad.
Lema 14.9.6. Sea A una matriz simtrica n
de A como
A=

A
aT

n (donde n

2) y la particin

a
;
c

Donde la dimensin de A son (n 1) (n 1): Entonces, A es denida


positiva si y slo si A es denida positiva y det(A) > 0

5.8. ALGUNOS RESULTADOS SOBRE DETERMINANTES

109

Demostracin. (Del lema 14.9.6). Si A es denida positiva, entonces es


evidente del corolario del 14.2.2 que A es denida positiva y del lema 14.9.1
que det(A) > 0.
Suponga que A es denida positiva (y por consiguiente no singular) y que
det(A) > 0 entonces, de acuerdo al teorema 13.3.8
det(A) = det(A ) (c

aT A 1 a)

por consiguiente (de acuerdo la lema 14.9.1) det(A ) > 0 (y de ah det(A) >
0), concluimos que el complemento Schur c aT A 1 a de A (como A misma)
es denida positiva y de ah, [de acuerdo a la aparte (1) del teorema 14.8.5]
que A es denida positiva.
Demostracin. (Del teorema 14.9.5) que los determinantes de A1 ; A2 ; : : : ; An
son positivos si A es denida positiva es una consecuencia inmediata del corolario 14.2.12 y lema 14.9.1.Para el propsito de probar esto, suponga que los
determinantes de A1 ; A2 ; : : : ; An son positivos. La prueba consiste en establecer por medio de argumentos de induccin matemtica, que A1 ; A2 ; : : : ; An
son denidos positivos, el cual (desde A = An ), implica en particular que A
es denida positiva. Claramente A1 es denida positiva. Suponga ahora que
Ak 1 es denida positiva (donde 2 k n) y la particin de Ak es
Ak =

Ak 1 ak
aTk
akk

Donde ak = (a1k ; a2k ; :::; ak 1;k )T . De ah Ak 1 es (por suposicin )denida


positiva( y de ah jAk j > 0), se sigue del lema 14.9.6 que Ak es denida positiva. Concluimos, en base del argumento de induccin, que A1 ; A2 ; : : : ; An
son denidos positivos y que A en particular es denida positiva.
Podemos establecer una condicin necesaria y suciente para la denicin no
negativa de una matriz simtrica. Esta condicin es anloga a la condicin
necesaria y suciente para la denicin positiva dada por el siguiente teorema
(el cual es distinto de la condicin necesaria y suciente para deniciones
positivas dada en el teorema 14.9.5).
Teorema 14.9.7 Sea A una matriz simtrica n n, entonces, A es denida
positiva si y slo si (1) A es no singular y (2) el determinante de toda

110CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS


submatriz principal de A es no negativa.
La prueba del teorema 14.9.7, requiere el siguiente resultado, el cual es importante para la demostracin del teorema 14.9.7.
Teorema 14.9.8 Sea A una matriz simtrica no singular n
n 3) y la particin de A es:
A=

n (donde

B a
;
aT c

donde la dimensin de B es (n 1) (n 1). Entonces, B es no singular B


contiene una submatriz principal no singular (n 2) (n 2). Adems , si B
es singular y B es cualquiera submatriz principal no singular (n 2) (n 2)
de B, entonces, jB jjAj < 0(i:e:; jB j y jAj son de signos opuestos).
Demostracin: (del teorema 14.9.8) suponga que B es singular y sea A1 =
(B; a); De aqu las las de A son linealmente independientes y las las de A1
son tambin linealmente independientes y por lo tanto el rk(A1 ) = n 1:
As, A1 contiene n 1 columnas linealmente independientes, implicando que
B contenga (por lo menos ) n 2 columnas linealmente independiente. De
all (suponiendo) B es singular, tenemos que
rk(B) = n

Adems B es simtrica. Concluimos (de acuerdo al teorema 4.4.11) que B


contiene una submatriz principal no singular(n 2) (n 2):
Sea B una submatriz principal no singular (n 2) (n 2) de B; esta
se obtiene sacando las k-simas las y columnas (de B). Sea U =(U ; u);
donde U es la submatriz (n 1) (n 2) de In 1 obtenida por sacar las
k-simas columnas (de In 1 ) y u es la k-sima columna de In 1 . Entonces,
U es una matriz de permutacin, y
UT BU =

B
u BU
T

UT Bu
uT Bu

[es decir la submatriz de la cabecera principal (n


B ].
Sea P una matriz n n

2)

(n

2) de UT BU es

5.8. ALGUNOS RESULTADOS SOBRE DETERMINANTES

P=

111

U 0
:
0T 1

Entonces, P es una matriz de permutacin, y


0
B
T
T
U BU U a
T
T
@
P AP =
= u BU
aT U
c
aT U

1
UT Bu UT a
uT Bu uT a A :
aT u
c

Asi haciendo uso del teorema 13.3.8 encontramos que

jAj = jPj2 jAj = jPT APj = jB jjFj


donde F =

f11 f12
f21 f22

con

f11 = uT Bu uT BU B 1 UT Bu;
f12 = uT a uT BU B 1 UT a;
f22 = c aT U B 1 UT a:
Adicionalmente,
j B j=j U j2 j B j=j UT BU j=j B j (uT Bu

uT BU B 1 UT Bu) =j B j f11

de aqu (suponiendo) B es singular y de ah (por denicin) B es no singular, tenemos que jBj = 0 y jB j =


6 0, implica [de acuerdo al resultado (9.8) ]
2
que f11 = 0 y por lo tanto que jF j = f12
: Haciendo uso del resultado (9.7)
obtenemos que
jAj =

2
f12
jB j:

Concluimos que jB j y jAj son de signos opuestos.


Demostracin: (del teorema 14.9.7). Si A es denida positiva, entonces, es
claro del lema 14.2.8, corolario 14.1.12 y lema 14.9.1 que A es no singular
y que el determinante de toda submatriz principal de A es positivo (y de all
no negativa).

112CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS


Asi, es suciente probar que si A es no singular y el determinante de toda
submatriz principal de A es no negativa entonces A es denida positiva. La
prueba de esto es por induccin matemtica.
Considere el primer caso relativamente trivial de una matriz de (1 1),
A = (a11 ) que es no singular y cuya submatriz principal solamente (de A
misma) tiene un determinante no negativo. Tenemos que a11 6= 0 y a11 0;
implica que a11 > 0 y de ah que A es denida positiva.
a11 a12
Ahora considere el caso de una matriz A simtrica (2 2); A =
a21 a22
que es no singular y cuyas tres submatrices principales [(a11 ) , (a22 ) y A
misma] tienen determinantes no negativos. Tenemos que el determinante
jAj 6= 0; implica (de ah jAj 0) que jAj > 0: Y a11 0; es decir a11 > 0
(de ah si a11 = 0, podra ser el caso que jAj = a212
0). Basados en el
teorema 14.2.5 concluimos que A es denida positiva.
Ahora suponga que toda matriz simtrica (n 1) (n 1) que es no singular
y que todas submatrices principales tienen determinantes no negativos es
denida positiva y considere una matriz simtrica A n n que es no singular
y cuyas submatrices principal todas tienen determinantes no negativos. Para
completar el argumento de induccin debemos demostrar que A es denida
positiva.
Observe que j A j6= 0 (de aqui A es no singular) y que j A j 0 (de que
A es una matriz subprincipal de ella misma) y por lo tantoj A j> 0 . La
particin de A es :
A=

B a
aT c

donde la dimensin de B es (n 1) (n 1): observe que toda submatriz


principal de B es una submatriz principal de A y por lo tanto toda submatriz
principal de B tiene un determinante no negativo. Observe tambin que B es
no singular [ de ahi si B era singular, B podria (de acuerdo al teorema 14.9.8)
contener una submatriz principal (n 2) (n 2) cuyo determinante podra
ser en signo, opuesto a j A j, y de ahi negativo]. y por nuestra supocisin B
es denida positiva.
Concluimos (en base al lema 14.9.5) que A es denida positiva.
Para el propsito de establecer una condicin necesaria y suciente para la
denicin no negativa de una matriz simtrica, anlogo a la condicin nece-

5.8. ALGUNOS RESULTADOS SOBRE DETERMINANTES

113

saria y suciente dada en el teorema 14.9.7 para la denicin positiva de una


matriz simtrica, esto ayuda a introducir los siguientes dos lemas:
Lema 14.9.9: Sea A una matriz simtrica n n de rango r. Entonces, A ,
(r r) corresponde a cualquier submatriz principal no singular de A, donde
existe una matriz Q (r n) de rango r, tal que A = QT A Q
Demostracin: Suponga que A es la submatriz principal no singular r r
obtenida de sacar todas las columnas y las de A excepto la i1 ; i2 ; i3 ; :::; ir
sima las y columnas (donde i1 < i2 < i3 < ::: < ir ). Tome P como cualquier matriz de permutacin cuya primera, segunda, ..., r-esimas
columnas son las i1 ; i2 ; i3 ; :::; ir columnas respectivamente de In .
Sea B = PT AP, y la particin de P como P =(P1 ; P2 ); donde P1 es de
dimensin n r: Entonces, A = PT1 AP1 y de ahi
B=

A B12
BT12 B22

donde B12 = PT1 AP2 y B22 = PT2 AP2 , de ahi, rk(B) = rk(A) = r; se sigue
del lema 9.2.2 que B22 = BT12 A 1 B12 , asi:
B =(Ir ; A 1 B12 )T A (Ir ; A 1 B12 );
es decir que,
A = PBPT = QT A Q ,
donde, Q = (Ir ; A 1 B12 )PT :
Adems, rk(Q)
rk(A) = r, y (por lo tanto Q es de dimensin r
rk(Q) r: As, rk(Q) = r.

n )

Lema 14.9.10: Sea A una matriz simtrica n n de rk(A) = r y sea A


una submatriz principal no singular de A (r r). Entonces, A es denida
no negativa si y slo si A es denida positiva.
Demostracin: Suponga que A es denida no negativa. Entonces, de acuerdo al cororario 14.2.12 A es denidad no negativa, por consiguiente A es
simtrica, y A es simtrica. asi, se sigue del cororario 14.3.12 que A es
denida positiva.

114CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS


Por otra parte suponga que A es denida positiva. Entonces, de acuerdo al
lema 14.9.9
existe una matriz Q tal que A = QT A Q: Asi, se sigue del teorema 14.2.9
que A es deda no negativa.
El siguiente teorema da una condicin necesaria y suciente para la denicin
no negativa de una matriz simtrica, anloga a la condicin necesaria y
suciente dada en el teoreama 14.9.7 para la denicin positiva de una matriz
simtrica.
Teorema 14.9.11: Sea A una matriz simtrica n n. Entonces, A es denida
no negativa si y slo si el determinante de toda submatriz principal de A es
no negativo.
Demostracin: Suponga que la matriz simtrica A es denida no negativa.
Entonces, (de acuerdo al corolario 14.2.12) toda submatriz principal de A es
denida no negativa (y simtrica). Y, concluimos (en base al lema 14.9.10)
que el determinante de toda submatriz principal de A es no negativo.
De otro modo suponga que el determinante de toda submatriz A es no negativo. Sea rk(A) = r: Entonces de acuerdo al cororario 4.4.11 A contiene
una submatriz principal no singular r r llamada A . Claramente, toda submatriz principal de A es submatriz principal de A, y de ahi (por suposicin
) el determinante de toda submatriz principal de A es no negativo, implica
(de acuerdo al teorema 14.9.7) que A es denida positiva. Concluimos (en
base a el lema 14.9.10) que A es denida no negativa.

5.9.

Ejercicios

Seccin 14.1
1)
Demostrar q ue una forma bilineal simetrica XT Ay (en los vectores
X y y
n -dimensional) puede ser expresado en terminos de la
correspondiente forma cuadratica, que es la forma cuadratica cuya matriz es
A entonces verique que :
XT Ay = 1=2(x + y)T A(X + y)

XT AX

yT Ay

2) Demostrar que para cualquier forma cuadratica XT AX(en el vector X


n- dimensional)existe una unica matriz triangular superior B tal que XT AX

5.9. EJERCICIOS

115

y XT BX son iguales, y expresa los elementos de B en terminos de los elementos de A.


Seccion 14.2
3)
Demostrara que mediante un ejemplo que la suma de dos matrices
semidenidas pueden ser denidas positivas.
4)
Demostrara mediante un ejemplo que existe matrices semidenidas
positivas no singulares (no simetricas)
5)
Demostrar mediante un ejemplo que existe una matriz A semidenida positiva n n y una matriz pn m ( donde m < n) tal que PT AP es
denida positiva.
6)
Convertir los resultados 1 y 3 del teorema 14.2.9 los cuales son
matrices denidas no negativas(denidas positivas o semidenidas positivas
), dentro de los resultados equivalentes para matrices denidas no positivas.
7)
Sea fx1 ; : : : ; xr grepresenta un juego de matrices para un espacio
lineal V y sea A = fai;j g representa la matriz r r cuyos i; j-esimo elemento
es xi :xj - esta matriz es llamada como la matriz gram (o la gramian) del
conjunto fx1 ; : : : ; xr g y su determinanate es llamado como la gramian( o el
determinanate gram) de fx1 ; : : : ; xr g.
a) demuestre que A es simetrica y denida no negativa
b) demuestre que el conjunto x1 ; : : : ; xr son linealmente independientes si
y solo si A es no singular.
8)
Sea A =fai;j g que representa una matriz n ndenida simetrica
positiva, y sea B =fbi;j g= A 1 . demuestre que para i = 1 : : : n
bi;j

1=ai;j

. la igualdad se mantiene si y solo si para todo j 6= i ,ai;j = 0:


Seccion 14.3
9)
sea A qu representa una matriz m n y D uan matriz diagonal tal
queA = PDQ para alguna matriz P de rango columna completo y alguna
matriz Qde rango la completo. Extienda el resultado del lemma 14.3.1 ,
demostrando que el rk(A) es igual al numero de elementos de la diagonal no
cero en D.
10)
sea A que representa una matriz n n idempotente simetrica y V
una matriz n n denida simetrica positiva , demustre que rk(AVA) = tr(A)
11)
demostrar que una matriz An n . es tal que xT Ax 6= 0 para todo
vector Xn 1 no nulo, entonces A es otra denida positiva o denida negativa.
12)
a) Sea A que representa una matriz simetrica n n de rank r .
tome P para unamatriz n n no singular y D una matriz n n diagonal

116CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS


tal que A = PT DP , la existencia de tales matrices es garantizado por el
corolario 14.3.5. sea m el numero d elos elementos de la diagonal de D que
son positivos , llamados indice de inercia de A ( o de la forma cuadratica
XT AX, cuya matriz es A). de mustre que el indice de inercia esta bien
denido, en el sentido de que m no varia con la seleccin de P o D. es
decir, demostrara que si P1 Y P2 son matrices no singulares y D1 Y D2 son
matrices diagonales tal que
A = PT1 D1 P1 = PT2 D2 P2 , entonces D2 contiene el mismo nuemero positivo de elementos como D1 . demostrar que tambin que el numero de elementos de la diagonal de D son negativos e iguales a r m
(b) Sea A una matriz simtrica n n. mostrar que A = p` diag(. . . ..)p
para cualquier matriz p no singular y cualquier enteros m y r no negativos.
adems demostrar que m es igual al ndice de inercia de la matriz A y que
r = rank(A)
(c)Una matriz simtrica B se dice congruente a una matriz A si existe una
matriz P no singular tal que B = PA`P.( si B es congruente a A, entonces
A es congruente a B). Demostrar que B es congruente a A si y solo si tiene el
mismo rango e ndice de inercia de A. Este resultado se llama ley de silvestre
de la inercia. Despus de Joseph silvestre ()
(d)Sea A una matriz de rank r con ndice de inercia m. demostrar que
A es no negativa si y solo si m = r, y es positiva si y solo si m = r = n.
13. Sea A una matriz simtrica n*n no negativa de rango r. entonces, de
acuerdo al teorema 14.3.7 existe una matriz B n*r ( de rango r ) tal que
A=BB. Sea x una matriz n*m (donde m r) tal que A=XX.
Demostrar que x=PbX
Demostrar que x=(B,0)Q para cualquier matriz ortogonal Q
Seccin 14.4
14. Demostrar que si A es una matriz A que tiene una inversa generalizada
no negativa, entonces A es no negativa
Seccion14.5
15. Suponga una matriz A que tiene se descompone de la forma LDU es
decir A=LDU, Y sea d1, d2 ;....,dn que representan los elementos de la diagonal
de la matriz diagonal D , demostrar que jAj =d1 d2 ....dn
16. (a) Suponga que la matiz A n*n (con n 2) tiene una nica descomposicin LDU , es decir A= LDU y sea d1, d2 ;....,dn El primero, segundo,. . . . . . . . . ,

5.9. EJERCICIOS

117

n esimo elemento de la diagonal de D, demostrar que d1 6= 0 (i=1,2,...n-1)


Y que d1 6= 0 si y solo si A es no singular.
(b)Suponga que la matiz simetriza A n*n (con n 2) tiene una nica descomposicin UDU , es decir A=UDU y sea d1, d2 ;....,dn Que representan el
primero, segundo,. . . , n-esimo elemento de la diagonal de D. demostrar que
d1 6= 0 (i=1,2,...n-1) y que d1 6= 0 Si y solo si A es no singular.
17. Suponga que la matriz simtrica A tiene una nica descomposicin
T
U DU, es decir A=UT DU. Use el resultado de la parte (b) del ejercicio 16 y
demuestre que A no tiene otra descomposicin LDU mas que A= UT DU.
18. demuestre que si una matriz tiene una descomposicin LDU , entonces
la descomposicin es nica.
19. sea A una matriz n*n (con n 2). Tomando de ejemplo los resultados de
los ejercicios 16, 17 y 18. Demostrar que si A tiene una nica descomposicin
LDU o (en el caso que A sea simtrica) una nica descomposicin UT DU.
Entonces las primeras submatrices principales (de A) en el orden 1,2,. . . .
n-1 son no singulares (en relacin a lo establecido en lo opuesto al corolario
14.5.7) y tiene una nica descomposicin LDU.
20. (a) sea A={aij } una matriz m*n no nula con rango r. demuestre que
existe una matriz de permutacin m*m y una matriz de permutacin Q tal
que
B11 B12
P AQ =
B21 B22
Donde B11 es una matriz no singular cuya cabecera de submatrices principales (de orden 1, 2,. . . .r-1) son no singulares.
B11 B12
(b) sea B=
Que representa cualquier matriz no nula de ranB21 B22
go r tal que B11 es una matriz r r no singular cuya cabecera de submatrices
principales ( de orden 1 , 2 , . . . .r-1) son no singulares. Demostrar que si
existe una nica descomposicin de B es de la formaB= LL12 D(U1 ,U2 )
Donde L1 es una matriz reducida, U1 es una matriz triangular superior y
D es una matriz diagonal r*r. y adems demostrar que esta descomposicin es
tal que B11 =L1 DU1 es la nica descomposicin LDU de B11 , D es no singular,
L2 =B21 U1 1 D 1 Y U2 =D 1 L1 1 B12
21. demostrar por medio de ejemplos que una matriz no simtrica semidenida positiva, no tiene descomposicin LDU.
22. sea A una matriz no negativa n*n(posiblemente no simtrica) que tiene
una descomposicin LDU, es decir A=LDU. Demostrar que los elementos

118CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS


de la diagonal de la matriz diagonal D son no negativos (as ampliando el
teorema 14.5.9 y el corolario14.5.15)
23. sea A una matriz con rango columna completo m*k. y sea A=QR,
donde QR representan la descomposicin de A.; es decir, sea Q representa la
nica matriz m*k cuyas columnas son ortonormales con respecto al producto
interno usual y sea R que representa la nica matriz triangular superior
k*k con los elementos de la diagonal positivos tal que A= QR. Demostrar
queAT A = RT R(de modo que AT A = RT R es la descomposicin de cholesky
de AT A).
24. sea A una matriz m*k de rango r (donde r es posiblemente menor
que k). Considere la descomposicin A=QR1 , donde Q es una matriz m*r
con columnas ortonormales y R1 es una submatriz n*k, cuyas las son las r
las no nulas de una matriz triangular superior R k*k, que tiene r elementos
positivos en la diagonal y n-r las nulas (una descomposicin semejante puede
ser obtenida usando los resultados del ejercicio 6.4, remitindose al ejercicio
6.5). Generalmente el resultado del ejercicio 23 puede demostrarse que si
el producto interno con respecto a las columnas ortonormales de Q es el
producto interno usual, entonces AT A = RT R(de modo que AT A = RT R es
la descomposicin cholesky de AT A ).
25. sea A = faij g una matriz n*n tal que tiene una descomposicin LDU .
Es decir, A = LDU:Y se dene G = U 1 D 1 L 1 ( el cual, fue discutido en
la seccin 14.5 f , es una inversa generalizada de A)
a) demostrar que G = D 1 L 1 + (I U )G = U 1 D 1 + G(I L)
b) para i=1,. . . ,n , sea dj que representa el i-esimo elemento de la diagonal de la matriz diagonal D. y , para i,j=1,. . . ..,n, sea lij ,uij ,y gij que
representan la ij-esimo elemento de L,U y G respectivamente. Tome D 1 =
diag(d1 ; : : : :; dn ): Donde di = 1=di si di 0 y di es un escalar arbitrario , si
di = 0 . Demostrar que
n
X

gii = di

uik gki = di

k=i+1

y que

gij=

8
>
>
>
>
<
>
>
>
>
:

n
X

k=i+1

giklik

k=i+1

k=i+1

n
X

n
X

9
>
>
giklik ; para j<i >
>
=

>
>
uik gkj , para j>i >
>
;

5.9. EJERCICIOS
Donde las sumas generadas

119
n
X

giklik y

k=n+1

0.

n
X

uik gkj Son interpretadas como

k=i+1

c) idear un procedimiento recursivo que use las formulas de la parte (b)


que genere una inversa generalizada de A.
Seccin 14.6
26. vericar que la submatriz principal de una matriz semi-simtrica, es
semi-simetrica
27. a) demostrar que la suma de matrices semi-simtrica es semi-simetrica.
b) demostrar que la suma A1 +A2 +,...,+AK de las matrices n*n A1 ,A2 ,. . . ,AK
es semi-simetrica si y solo si A1 ,A2 ,. . . ,AK son semi-simtricas.
c) demostrar que la suma A1 +A2 +,. . . ,+AK de las matrices n*n simtricas
A1 , A2 ,. . . , AK es una matriz nula si y solo si A1 ,A2 ,. . . ,AK son matrices
nulas.
Seccin 14.7
k
X
28. a) sea A1 , A2 ,..., AK matrices n*n no negativas. Demostrar que tr(
Ai )
i=1

= 0 mantiene la igualdad si y solo si

k
X

Ai Es semi-simetrica o equivalen-

i=1

temente si y solo si A1 , A2 ,..., AK son semi-simtricas de este modo genk


X
Ai semi-simetrica o
eralizamos el teorema 14.7.2
( nota: que sea
i=1

equivalentemente para A1 , A2 ,..., AK sea semi-simetrica , es el resultado de


la parte b del ejercicio 27)
b)sea A1 , A2 ,..., AK matrices n*n no negativas simetricas. demostrar que
k
k
X
X
tr(
Ai ) = 0 mantiene la igualdad si y solo si
Ai =0 o equivalentemente
i=1

i=1

,si y solo si A1 , A2 ,..., AK son matrices nulas , en relacion con la generalizacion


del corolario 14.7.3
29. Demostrar mediante un ejemplo que existen matrices positivas n*n
(para n>1 ) A y B (no simtricas) tal que tr(AB)>0.
30. a) demostrar con un ejemplo que existen matrices simtricas n*n (para
n >1) A y B positivas tal que, el producto AB tenga uno o mas elementos
negativos en la diagonal (y de aqu se tiene que AB es no negativa)
b) demostrar, sin embargo que el producto de dos matrices simtricas
positivas n*n no pueden ser positivas.

120CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS


31. Sea A = aij y B = bij matrices n*n , y sea C una matriz n*n cuyos
ij-esimo elemento cij = aij bij , es el producto del ij-esimo elemento de A
y B. demostrar que si A es no negativa y b es no negativa y simtrica ,
entonces C es no negativa. Demostrar adems que si A es positiva y B es
simtrica y positiva , entonces C es positiva ( nota: tome x = (x1 ; :::; xn )T
un vector cualquiera n*1 y F=(f1 ; ::::;fn ) una matriz tal que B = F T F ,
comience demostrando que xT Cx = tr(AH), dondeH = GT G con G =
(x1 f1 ; ::::; xn fn ):
32. sea A1 ; A2 ; :::; AK y B1 ; B2 : : : : ; Bk matrices simtricas no negativas
n*n. demostrar que. . . . . . . . . . Mantiene la igualdad si y solo si Ai Bi =0 para
i=1,.., k en relacin con el corolario 14.7.7 y el resultado de la parte b del
ejercicio 28.
Seccin 14.8
33. sea A una matriz simtrica no negativa que fue particionada como:
T U
A=
V W
Donde T (y por lo tanto W) es cuadrada. Demostrar que VT 1 U y
UW 1 V son simtricas y no negativas
34. demostrar mediante un ejemplo que existe una matriz A (m+n) (m+n)
T U
semidenida positiva (no simtrica) de la forma A=
, donde T es
V W
una matriz de dimensin m*m, W de dimensin n*n, U de dimensin m*n y
V de dimensin n*m , por lo cual C(U) C(T) y/o (v)
(T), la expresin
(9.6.1) no necesariamente es igual al rango(A) [ rango(T) +rango(W-VT 1 U)
no es necesariamente igual al rango(A)], y la formula (9.6.2), no necesariamente da una inversa generalizada de A.
35. Demuestre mediante un ejemplo que existe una matriz A (m+n)*(m+n)
T
U
simtrica particionada de la forma A=
, donde T es una matriz
UT W
de dimensin m*m, u de dimension m*n, W de dimensin n*n, tal que T es
denida no negativa (dependiendo de la eleccin de T ) el complemento de
schur W-UT T U de T relativo a T es denida no negativa , pero A es no
es denida no negativa.
36. una matriz A={aij } n*n y se llama dominante diagonalmente si
i=1,2. . . . n jaij j> j=1(j i) jaij j ( en el caso especial n=1, A es llamado dominante diagonalmente si este es no nulo).
a) demostrar que la principal submatriz de una matriz diagonalmente

5.9. EJERCICIOS

121

dominante es diagonalmente dominante.


b) sea A= {aij } que representa una matriz diagonalmente dominante y
A11 a
[de modo que A11 es de
la particin de A esta dada como A=
bT ann
dimensin (n-1)*(n-1)], y sea C=A11 -(1/ann )abT el complemento schur de
ann . Demostrar que C es una matriz diagonalmente dominante.
c) demostrar que una matriz diagonalmente dominante es una matriz no
singular.
d) demostrar que una matriz diagonalmente dominante tiene una nica
descomposicin LDU.
e) sea A= {aij } una matriz simtrica n*n. demostrar que si A es diagonalmente dominante y si los elementos de la diagonal A11 , A22 . . . , Ann de A
son todos positivos, entonces A es denida positiva.
Seccin 14.9
37. sea A={aij } una matriz denida positiva simtrica n*n. demostrar
que det(A)
i=1 aii, y la igualdad se mantiene si y solo si A es diagonal.
a b
38. sea A=
donde a , b , c y d son escalares.
c d
a) Demostrar que A es denida positiva si y solo si a>0, d>0 y jb+cj/2< ad.
b) demostrar que, en el caso especial que A sea simtrica (donde c=b), A
es denida positiva si y solo si a>0, d>0 y jbj< ad.
39. mediante un ejemplo, usando el resultado del ejercicio 38, demostrar
que si una matriz A= {aij } n*n es semi simtrica y denida positiva, entonces,
para j i=1,2,. . . n, jaij j< aii ajj Max (aii ,ajj ).
40. demostrar mediante un ejemplo , que es posible para llos detrminanates de ambas cabeceras principales de submatrices de una matriz simetrica 2*2 sin ser no negativa, la matriz sera denida no negativa y que
para n= 3 , esto es posible para los determinantes de todo n de la cabecera
principal de submatrices de una matriz simetrica n*n, es no negativa y la
matriz sera no singular sin la matriz ser denida no negativa.
Seccin 14.10
41. sea V un subespacio de n*1 de dimensin r (donde r 1). Tome
B=(b1,b2,. . . .) una matriz n*r cuyas columnas b1,b2,. . . ,br forman una base
para V, y sea L una inversa a izquierda de B. sea una funcin que se le
asigna el valor x*y ,para un par de vectores x e y en V.
a) sea F un producto interno arbitrario para (r*1), y s*t indica el valor asignado para f, por un par arbitrario de vectores s y t r-dimensional.

122CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS


Demostrar que es un producto interno (para V) si y solo si existe F tal
que (para todo x e y en V) : x*y=(Lx).(Ly).
b) demostrar que es un producto interno (para V) si y solo si, all existe
una matriz W simtrica denida positiva r*r , tal que ( para toda x e y en
V) x*y=xLWLy.
c) demostrar que es un producto interno (para V) si y solo si existe
una matriz W simtrica denida positiva n*n tal que (para toda x e y en V
) x*y=xWy.
42. sea V que representa un espacio linear de matrices m*m, sea A.B el
valor asignado por el producto cuasi interno de algn par de matrices A y B
(en V) demostrar que el conjunto U={A V:A.A=0}. El cual consta de todas
las matrices en V con una cuasi norma cero, es un espacio lineal.
43. sea W una matriz simtrica, denida positiva m*m, y V una matriz
simtrica denida positiva n*n.
a) demostrar que la funcin que se le asigna el valor tr (AWBV) a un
par arbitrario de matrices A,B m*n, cumple como un producto interno para
el espacio lineal m*n.
b) demostrar que la funcin que se le asigna el valor tr (AWB) , de un
par arbitrario de matrices A y B, cumple como un producto interno para
m*n.
c) demostrar que la funcin que asigna el valor tr(AWBW) de un par
arbitrario de matrices A y B, cumple como un producto interno para m*n.
Seccin 14.12
44. sea A una matriz q*p, B una matriz p*n, y C una matriz m*q.
demostrar que (a) CAB(CAB) C=C si y solo si rango(CAB)=rango(C) y
(b) B(CAB) CAB=B si y solo si rango(CAB)=rango(B) [as (de acuerdo
al corolario 14.11.3) extendiendo el resultado de la parte 5 y 1 del teorema
14.12.11]
45. sea U un subespacio de n 1 , sea x una matriz cuyas columnas abarcan U, y sea W y V que representan matrices simtricas denidas positivas.
Demostrar que cada una de las siguientes condiciones es necesaria y suciente
para la proyeccin PX:W y de y sobre U con respecto a W es lo mismo (para
todo Ay en n ) como la proyeccin Px.vy de y sobre U con respecto a V:
a) V=Px.wVPx.w+(I-Px.w)V(I-Px.w);
b) existe un escalar c, una matriz K p*p y una matriz H n*n tal que
V=Cw+WKXT W+ (I-Px:w )T H(I-Px:w ).
46. sea y un vestor columna n-dimensional, sea U un subespacio de <n 1
y sea X una matriz n p, cuyo espacio columna es U, se sigue del corolario

5.9. EJERCICIOS

123

12.1.2 que y ?1 U si y solo si X T y = 0, y de forma mas general, se sigue del


lemma 14.12.1 que para cualquier matriz W simetrica, denida positiva n n,
y ?w W U, si y solo si X T W y = 0. ampliando este resultado(en la direccion
indicada, en la discusion que se sigue en el lemma 14.12.1) cuando las partes
(3) y (5) del lemma 14.12.1 demostrar que para cualquier matriz W simetrica
, denida no negativa n n, y ?w W U si y solo si X T W y = 0:
47. sea W una matriz simetrica denida no negativa n n
a) generalice el teorema 14.12.12 demostrando que , para cualquier matriz
X n n y cualquier matriz U n q tal que C(U ) C(X)
1) W PX;W U = W U y U T W PX;W = U T W:
T
2)PU;W PX;W = PU;W y PX;W
W PU;W = W PX;W PU;W = W PU;W :
b)generalice el corolario 14.12.13 demostrando que para cualquier matriz
X n p y cualquier matriz U n q , tal que C(U ) = C(X); W PU;W = W PX;W :
48) sea U un subespacio de <n 1 , sea A una matriz n n y W una matriz
simetrica denida no negativa n n y sea X cualquier matriz n p , cuyo
espacio columna es U:
a) demostrar que A es una matriz proyeccion para U, con respecto a W
si y solo si A=PX;W + (I PX;W )Xk para alguna matriz K p n.
b) demostrar que si A es una matriz proyeccion para U con respecto a W
entonces W A = W PX;W :
49) sea A una matriz n n y y W una matriz simetrica denida no negativa
n n.
a) demostrar (usando el resultado del ejercicio 48) que si AT W A = W A
o equivalentemente, si (I A)T W A = 0 , entonces A es una matriz proyeccion con respecto a W y en particular A es una matriz proyeccion para C(A)
con respecto a W, y asi reciprocamente , demostrar que si A es una matriz
proyeccion con respecto a w , entonces AT W A = W A(en relacion con la
generalizacion del teorema 14.12.16).
b)demostrar que si A es una matriz proyeccion con respecto a W y en
particular A es una matriz proyeccion para C(A) con respecto a W.
c)demostrar que si A es una matriz proyeccion con respecto a W si y
solo si WA es simetrica y W A2 = W A (en relacion a la generalizacion del
corolario 14.12.17).
50) sea U un subespacio de <n 1 y sea X una matriz n p, cuyo espacio
columna es U, W y V matrices denidas no negativas simetricas n n .
demostrar (haciendo uso del resultado del ejercicio 46), que cada una de las
siguientes dos condiciones, es necesaria y suciente para toda proyeccionde y

124CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS


sobre U con respecto a W, es una proyeccion (para todo y en <n ) de y sobre
U con respecto a V:
a)X T V PX;W = X T V , o equivalentemente X T V (I PX;W ) = 0:
b)existe una matriz Q p p , tal que VX=WXQ, o equivalentemenye
C(VX) C(W X) (en relacion con la generalizacion de las partes 1 y 4 del
teorema 14.12.18)
51)sea X una matriz n n y y W una matriz simetrica denida no negativa
?
n n.como en el caso especial donde W es denida positiva sea: fCW
(X) =
n 1
fy 2 <
: y ?w C(X)g
a) mediante un ejemplo, haciendo uso del resultado del ejercicio 46 demostrar
que
?
CW
(X) = N (X T W ) = C(I PX;W )
en relacion con la generalizacion del lemma 14.12.21.
?
b) demostrar que dim CW
(X) = n rank(W X) = n rank(X) =
n [C(X)] :
en relacion con la generalizacion del corolario 14.12.22.
c) mediante un ejemplo, haciendo uso del resultado del ejercicio 46, demostrar
que para cualquier solucion b* de un sistema lineal X T W Xb = X T W y (en
?
(X) con respecto a W(
b), el vestor y -Xb* es una proyeccion de y sobre CW
en relacion con la extension del teorema 14.12.23).

Captulo 6
Diferenciacin de matrices
Es natural y conveniente usar terminologa y notacin matricial en deniciones y discusiones de ciertas funciones de una o ms variables. En el capitulo ??, se uso la notacin y terminologa matricial en la denicin y discusin
de formas lineales, bilinales y cuadrticas. En algunos casos, el uso de notacin y terminologa matricial es inevitable. Considere por ejemplo el caso
donde el determinante de una matriz n n es considerada como una funcin
de sus m2 componentes.
La diferenciacin de matrices es el clculo de la primera, segunda, o derivadas
parciales de orden superior de una funcin o funciones que han sido expresadas en trminos de matrices. Es natural, conveniente y en algn caso necesario, emplear notacin y terminologa matricial. No solamente las funciones
pueden ser expresadas en trminos de matrices, pero las funciones pueden
contener elemtos de un vector o matriz, como puede ser el caso, donde los
elementos de la inversa de una matriz A (invertible) n n fueran considerada
como funcin de los elementos de A. La diferenciacin de matrices es de considerable importancia en estadstica, es especialmente utilizada en relacin
con la estimacin mxima de verosimilitud de los parmetros en un modelo estadstico. La estimacin mxima de verosimilitud de los parmetros de
modelos satisfacen la ecuacin( conocida como la ecuacin de verosimilitud)
obtenida por la ecuacin en cero de la derivada de primer orden (con respecto
a los parmetros del modelo) del logaritmo de la llamada funcin de verosimilitud, en algunos casos la funcin de verosimilitud implica el determinante y/o
inversa de una matriz. Adicionalmente, una aproximacin (conveniente para
muestras extensas) de la varianza-covarianza de una matriz de una estimacin
mxima de verosimilitud, pueden obtenerse invirtiendo la matriz (conocida
125

126

CAPTULO 6. DIFERENCIACIN DE MATRICES

como la matriz de informacin) cuyos (i; j)-simos elementos es 1 veces la


derivada parcial de segundo orden (con respecto a los i simos y j simos
parmetros) del logaritmo de la funcin de verosimilitud.

6.1.

Preliminares

Sea f una funcin cuyo dominio es un conjunto S de Rm . Entonces f es


continua en un punto interior c de S si
lim f (x) = f (c)

x!c

Por denicin, lim f (x) = f (c) es un escalar b tal que, para todo escalar
x!c

positivo e, existe una vecindad Ne de c tal que jf (x) bj < e para todo x en
Ne distintos de c. Una matriz F p x q de funciones, donde cada dominio de
esta, est en el mismo conjunto S de Rm 1 , diremos que esta es continua en
un punto interior c de S, si todos los elementos pq de F son continuos en c.

6.2.

Derivadas parciales de primer orden

Sea f una funcin, denida en el conjunto S, de un vector x = (x1 ; :::; xm )0


de m variables. Suponga que S contiene al menos algunos puntos interiores, y
sea c = (c1 ; :::; cm )0 un punto arbitrario de estos, adems , sea Uj la J esima
columna de Im.
Considere el lmite
f (c+tuj ) f (c)
lim
I!0
t
Cuando este limite existe, este es llamado el j esimo (primer-orden) de
la derivada parcial de f en c y es denotada por Dj f (c). Note que c + tuj
=(c1 ; :::; cj 1 ; cj + t; cj+1 ; :::; cm )0 , as que Dj f (c) puede considerarse como
una derivada ordinaria (de cj ) de la funcin de una variable obtenida de f (x)
por el ajuste x1 ; :::; xj 1 ; xj+1 ; :::; xm en c1 ; :::; cj 1 ; cj + t; cj+1 ; :::; cm respectivamente. El escalar Dj f (c) puede ser visto como el valor asignado por el
punto c por una funcin. Esta funcin es denotada por el smbolo Dj f ( hace
referencia a la j esima derivada parcial de f ). Su dominio consiste de estos
puntos interiores (de S) en la cual la j esima derivada parcial (de f ) esta
denida. El smbolo D f representa el vector la (D1 f; : : : ; Dm f ) cuyos
elementos son la derivada parcial de f , y por consiguiente el smbolo D f (c)

6.2. DERIVADAS PARCIALES DE PRIMER ORDEN

127

es el vector la (D1 f (c); : : : ; Dm f (c)) cuyos elementos son los valores de las
funciones D1 f; : : : ; Dm f de c - note que Df (c) es denida nicamente, si c
es tal que todas las m derivadas parciales de f , existen c. el vector columna
(Df )hace referencia al gradiente ( vector gradiente) de f .
Una notacin alternativa se obtiene escribiendo @f (x)=@xj para la j
esima derivada parcial de f en x, escribiendo @f (x)=@x0 para el vector
la [@f (x)/@x1 , . . . ,@f (x)=@xm ]0 de derivadas parciales de f en x, y escribiendo @f (x)=@x para el vector columna [@f (x)/@x1 , . . . ,@f (x)=@xm ]0 de
derivadas parciales de f en x, en este contexto @f (x)=@x0 puede ser llamada
la derivada f (x) con respecto a x0 , y @f =@x puede ser llamada la derivada
de f (x) con respecto a x. Los smbolos @f (x)=@xj , @f (x)=@x0 , @f (x)=@x
tienen la mismas interpretaciones como Dj f (x); Df (x),y [Df (x)]0 , respectivamente y son algunas veces abreviadas a @f / @xj , @f / @x0 , y @f / @x:
En ciertas ocasiones (para ser acertados dentro del contexto), estos smbolos
pueden ser usados para representar la funcin Dj f y los verctores de funciones Df y (Df )0 (ms que sus valores en x.) La funcin f (con dominio
S en Rm 1 ) ser continuamente diferenciable en el punto interior c de S , s
D1 f (x); : : : ; Dm f (x) existen y son continuas para todo punto x en alguna
vecindad de c. Y se puede demostrar, que si f es continua y diferenciable en
c entonces.
lim

f (x)

x !c

[f (c) + D f (c)(x
jjx cjj

c)]

= 0;

(6.1)

Lo cual indica, que para x sucientemente cerrada en c, la formula de Taylor


de primer orden f (c) + Df (c)(x c) aproxima a f (x) con un error que es
de un orden mas pequeo que jjx cjj (e.g, Magnus and Neudecker, 1988,
chap.5).
Si la funcin f es tal que el resultado (1.1) se mantiene, entonces f (x) ! f (c),
como es evidente utilizando lo anterior

f (x) = f (c) + Df (c)(x

c) + jjx

cjj

f (x)

[f (c) + Df (c)(x c )]
:
jjx cjj

As, tenemos el siguiente lema


Lema. Si f es una funcin, con dominio S en Rm 1 es continuamente diferenciable en un punto interior c de S, entonces f es continua en c.

128

CAPTULO 6. DIFERENCIACIN DE MATRICES

Una funcin f para la cual el resultado (1.1) se mantiene, se dice que es


diferenciable en c. Es importante mencionar que mientras la funcin sea
continuamente diferenciable en c, es una condicin suciente para que f sea
diferenciable en c y generalmente no es necesario demostrarlo por ejemplo a,
Magnus and Neudecker (1988, secs. 5.9 y 5.10).

6.2.1.

Derivadas parciales de orden superior

Como en la subseccin c, sea f una funcin, denida en el conjunto S, de un


vector x = (x1 ; : : : ; xm )0 de m variables, suponga que S contiene al menos
algunos puntos interiores y sea c que representa un punto arbitrario de estos, suponga que D1 f (x); : : : ; Dm f (x) existe para todo x en alguna vecindad de c (tal que c es un punto interior de los dominios de las funciones
D1 f (x); : : : ; Dm f (x). Cuando la i esima derivada parcial (de primer orden)
Dj f existe en c, esta es llamada la i; j esima derivada parcial de segundo
orden de f en c y es denotada por D2ij f (c). El escalar D2ij f (c) puede ser
considerado como el valor asignado por una funcin al punto c. Esta funcin
es denotada por el smbolo D2ij f (y hace referencia a la ij esima derivada
parcial de segundo orden de la funcin f ).
El smbolo Hf representa la matriz mxm cuyo i; j esimo elemento es D2ij f
y por consiguiente el smbolo Hf (c) representa el valor de Hf en el punto
c, que es, la matriz mxm cuyo i; j esimo elemento es D2ij f (c). La matriz
Hf es llamada la matriz Hessiana de f .
Una notacin alternativa puede obtenerse escribiendo @ 2 f (x)=@xi xj o en el
caso especial donde j = i, @ 2 f (x)=@x2i para la i; j esima derivada parcial de segundo orden D2ij f (x) de f en x y escribiendo @ 2 f (x)/@x@x0 para la
matriz Hessiana Hf (x) de f en x. Los smbolos @ 2 f (x)=@xi xj , @ 2 f (x)=@x2i , y
@ 2 f (x)/@x@x0 algunas veces son abreviados a @ 2 f =@xi xj , @ 2 f =@x2i , y @ 2 f /@x@x0
respectivamente y algunas veces usan para representar las funciones D2ij f y
D2ii f ,y la matriz de funciones Hf (ms que sus valores en x).
La funcin f ser dos veces (o doblemente) continuamente diferenciable en
c si f y todas sus derivadas parciales de primer orden son continuamente
diferenciables en c , equivalentemente, si todas las derivadas parciales de
primer orden y segundo orden de f existen y son continuas en todo punto en
alguna vecindad de c, se puede demostrar que si f es dos veces continuamente
diferenciable en c, entonces Hf es simtrica en c, [i.e., Hf (c) es simtrica,
, equivalentemente, D2ji f (c) = [D2ij f (c) para todo i y j < i]- remtase para
ejemplo a, Magnus and Neudecker (1988, sec. 6.7). Puede demostrarse mas

6.2. DERIVADAS PARCIALES DE PRIMER ORDEN

129

adelante que si f es dos veces continuamente diferenciable en c, entonces

lim

f (x)

[f (c) + D f (c)(x

x !c

c) + (1=2)(x
jjx cjj2

c)T H f (c)(x

c)]

= 0;

(6.2)
lo cual indica que, para x sucientemente cerrado a c, entonces la formula
de Taylor de segundo orden .
f (c) + D f (c)(x

c) + (1=2)(x

c)T H f (c)(x

c)

Aproxima a f (x) con un error que es de orden mas pequeo que jjx cjj2 (e.g.,
Magnus and Neudecker, 1988, sec. 6.9).
Las derivadas parciales de f de orden k (donde k
2) puede ser denida
recursivamente. Suponga que el (k 1) esimo orden de la derivada parcial
de f en x, existe para todo x en alguna vecindad de c. para j = 1; : : : ; k,
sea i; j que representa un entero arbitrario entre 1 y m inclusive, cuando la
i1 esima derivada parcial de la i2 : : : ik esima del (k 1) esimo orden
de la derivada parcial de f en c existe es llamado el i1 i2 : : : ik esimo del
k esimo orden de la derivada parcial de f en c. La funcin cuyo valor en c
es el i1 i2 : : : ik esimo orden de la derivada parcial de f en c se reere como
el i1 i2 : : : ik del k esimo orden de la derivada parcial de f .
El smbolo @ 2 f (x)=@xi ; :::; @xik (o en forma abreviada @ 2 f =@xi ; :::; @xik )
puede ser usado para representar a la i1 ; : : : ; ik esima derivada parcial del
k esimo orden de f en x.
La funcin f puede ser k veces continuamente diferenciable en c si f y todas
sus primeras derivadas parciales del (k 1) esimo orden son continuamente diferenciables en c , equivalentemente si todas las primeras derivadas
parciales del k esimo orden de f existen y son continuas en todo punto en alguna vecindad de c, se puede demostrar que si f es k veces continua diferenciable en c, entonces para cualquier permutacin j1 ; : : : ; jk de
la secuencia i1 ; : : : ; ik , la ( j1 ; : : : ; jk y i1 ; : : : ; ik ) esima derivadas parciales del k esimo orden de f son idnticas y, denotando i1 ; : : : ; is (i1 <
::: < is ) los distintos enteros representados entre i1 ; : : : ; ik y denotando por
Kj el nmero de enteros en la secuencia i1 ; : : : ; ik igual para ij , esto se
puede escribir @ k f (x)=@xki11 ; :::; @xkiss (o simplemente @ k f =@xki11 ; :::; @xkiss ) para
@ k f (x)=@xi1 ; :::; @xik .Se puede demostrar que si f es k veces continuamente
diferenciable en c, entonces, para x sucientemente cerrada a c. Entonces la

130

CAPTULO 6. DIFERENCIACIN DE MATRICES

formula de Taylor de k esimo orden aproxima a f (x) con un error que es


de orden mas pequeo que jjx cjjk .
Ntese que si f es k veces continuamente diferenciable en c. Entonces f es
continuamente diferenciable en c. y es tambin 2; : : : ; k 1 veces continuamente diferenciable en c. a dems si f es k veces continuamente diferenciable
en c, entonces f es k veces continuamente diferenciable en todo punto en
alguna vecindad de c, esto puede ser fcilmente vericable.

6.2.2.

Derivadas parciales de una funcin de una matriz sin restriccin o simtrica

Suponga que el dominio de la funcin f es diferenciable en el conjunto Rm m


de todas las matrices m x n en o en general, en un conjunto S en Rm m
que contiene al menos algunos puntos interiores. Entonces f puede ser considerada como una funcin de una matriz de m x n donde X = fxij g de
mn variables independientes. Y, para propsitos de diferenciacin de f ,
los elementos de X pueden arreglarse en forma, de un vector columna X m
x n dimensional e y f puede ser reinterpretada como una funcin de X en
el caso en el que el dominio de f es el conjunto, llamado S obtenido por el
rearreglo de los elementos de cada matriz m x n en S, en forma de un vector
columna . (Debera notarse que un vector columna mn dimensional es un
punto interior de S si y solo si es un rearreglo de una matriz m x n que es
un punto interior de S).
Por denicin los elementos @f =@xij (i = 1; : : : ; m; j = i; : : : ; n)del vector
columna mn dimensional @f =@x son derivadas las parciales de primer orden
de f en x,(y los elementos de la matriz mnxmn @f =@x@x0 son la derivadas
parciales de segundo orden de f en x). Sin embargo, en vez de presentar la
de la derivada parcial de primer orden de f en x (o equivalentemente, X) en
la forma del vector @f @x es natural y muchos casos conveniente presentarlos
en la de la matriz mxn cuyo ij esimo elemento es @f =@xij . Esta matriz
es denotada por el smbolo @f (X)=@X (o en forma abreviada @f = @X ) y es
llamada la derivada de f (x) con respecto a X. Mas adelante podremos escribir
@f (X)=(@X0 ) ( @f = (@X0 ) ) para la matriz nxm [@f (x)=@X0 ] y s referirnos
a esta matriz la derivada de f (x) con respecto a X. Supongamos ahora
que la funcin f de inters es aquella cuyo dominio esta restringido a todas
las matrices simtricas mxn; o generalmente, a un subconjunto S de tales
matrices. Entonces f puede ser considerada como una funcin de una matriz

6.2. DERIVADAS PARCIALES DE PRIMER ORDEN

131

de mxn X, X=fxij g de m2 variables. Sin embargo, por las restricciones de las


matrices simtricas xij = xji para todo i y j > i, As que lo m2 elementos de
X, no pueden ser considerar mas grandes que las m2 variables independientes.
Debemos tener en cuenta que S no puede contener ningn punto interior.
Como una consecuencia del desarrollo previo que deja la introduccin del
smbolo @f (X)=@X y el denicin de la derivada de f (x) con respecto X
no es aplicable. En el caso presente donde S contiene nicamente matrices
simtricas el smbolo @f (X)=@X y el termino derivada de f (x) con respecto X
van a ser denidas de manera distinta (cuando no se indique explcitamente,
entender la interpretacin se debe acertar dentro del contexto).

Para propsitos de diferenciacin de la funcin f de la matriz simtrica X,


si f es interpretada como un funcin de un vector columna x [m(m + 1)=2]dimensional, cuyos elementos son xij (j
i = 1; :::; m) o alternativamente,
xij (j
i = 1; :::; m) [i.e.,cuyos elementos son los elementos independientes
de X, los cuales estn por encima y debajo (o alternativamente arriba) de
la diagonal]. Cuando f es representada de esta manera, el dominio de f es
el conjunto S de vectores columna [m(m + 1)=2]-dimensional obteniendo por
la transformacin las matrices mxm en S de los valores de X dentro de los
valores de x.

Suponga que S contiene al menos algunos puntos interiores. (El conjunto


S puede contener puntos interiores, incluso s S no puede). Por denicin,
los elementos @f =@xij (j i = 1; : : : ; m o, alternativamente j i = 1; :::; m)
de el vector columna [m(m + 1)=2]-dimensional de @f =@x son las derivadas
parciales de primer orden de f en x {y los elementos de la matriz [m(m+1)=2]
x[m(m+1)=2] de @f =@x@x0 son las derivadas parciales de segundo orden de f
en x}. Sin embargo, en lugar de presentar de las derivadas parciales de primer
orden de f en x (o equivalentemente, X) en la forma del vector @f =@x, es
natural y en muchos casos conveniente, presentarlas en forma de la matriz
simtrica mxm cuyos ij esimos y ji esimos elementos son @f =@xij . En el
caso presente (donde el dominio S es restringido a las matrices simtricas),
esta matriz es denotada por el smbolo @f (X)= (@X0 ) ( @f = (@X0 )) y es
llamada la derivada de f con respecto a X.

132

6.2.3.

CAPTULO 6. DIFERENCIACIN DE MATRICES

Diferenciacin de un vector o matriz de funciones

supongamos que existe un vector (columna) f =(f1 ; :::; fp )0 de p funciones


diferenciables y que el dominio de todas esas funciones es el conjunto S en
Rm : Adems supongamos que S contiene al menos algunos puntos interiores,
y sea c un punto arbitrario de estos.
El smbolo Dj f es usado para representar el vector columna p dimensional
cuyo s esimo elemento es la j esima derivada parcial Dj fs de fs , y
el smbolo Df es usado para representar la matriz pxm cuyo sj esimo
elemento es Dj fs o lo que es equivalente a, la matriz p x m cuya j
esima columna es Dj f. Por consiguiente, Dj f (c) = [Dj f1 (c); :::; Dj fp (c)]0 ;
y Df (c) = [D1 f (c); :::; Dm f (c)] (pruebe que cada una de las m derivadas
parciales de cada una de las p funciones f1 ; :::; fp en c existen). La matriz
Df es llamada la matriz jacobiana de f y su traspuesta (Df )0 es llamada el
gradiente (o matriz gradiente) de f :Note que (Df )0 = [(Df1 )0 ; :::; (Dfp )0 ]: En
el caso especial donde p = m; el determinante de Df es llamado el jacobiano
(o determinante jacobiano) de f :
Una notacin alternativa se obtiene usando x = (x1 ; :::; xm )0 que representa
un vector de m variables y escribiendo @f (x)=@x0 (o @f =@x0 ) para la matriz
pxm cuyo sj esimo elemento es @fs (x)=@xj y @f 0 (x)=@x (o @f 0 =@x) para
la matriz mxp [@f (x)=@x0 ]0 cuyo js esimo elemento es @fs (x)=@xj . En este
contexto, @f (x)=@x0 puede ser llamada la derivada de f (x) con respecto a x0 ; y
@f 0 (x)=@x puede ser llamada la derivada de f 0 (x) con respecto a x: El smbolo
@f (x)=@x0 tiene la misma interpretacin como Df (x) (o Df alternativamente
).
Suponga ahora que existe una matriz p x q F =ffst g de pq funciones diferenciables y que el dominio de todas esas funciones es el conjunto S en Rm 1 (que
contiene al menos algunos puntos interiores). Como en el caso especial donde
q = 1 cada uno de los elementos de F puede serconsiderado como una funcin
de un vector x = (x1 ; :::; xm )0 de m variables "independientes".
Toda derivada parcial (de primer orden) mpq (de los elementos de F) puede
ser representada en forma de una nica matriz pq x m (o m x pq) reagrupando
los elementos de F en forma de un vector columna f y por consiguiente
formando la matriz jacobiana ( o matriz gradiente) de f :Sin embargo, con
la posible excepcin del caso especial donde p = 1 o q = 1 (i.e., donde F es
un vector la o columna), algunas veces es preferible presentar el j esimo
(primer orden) de la derivada parcial de los elementos de F en una matriz

6.3. DIFERENCIACIN DE FUNCIONES

133

separada p x q cuyo st esimo elemento es @fst (x)=@xj (j = 1; :::; m):


Esta matriz es denotada por el smbolo @F(x)=@xj (o, en forma abreviada,
@F=@xj ) y hace referencia a la j esima derivada parcial de F en el caso
especial donde q = 1 (i.e., donde F es un vector columna), @F=@xj tiene la
misma interpretacin de Dj F(x):y, la matriz p x q cuyo st esimo elemento
es @ k fst (x)=@xkj11 :::@xkjrr esto se denota por el smbolo @ k F(x)=@xkj11 :::@xkjrr
o @ k F=@xkj11 :::@xkjrr (donde j1 ; :::; jr es una subsecuencia de los primeros m
enteros positivos; k1 ; :::; kr son enteros positivos; y k = k1 + ::: + kr ).
La matriz F ser continuamente diferenciable en un punto interior c (de S
) si todos sus elementos pq son continuamente diferenciables en c, y sern
doblemente (o dos veces) continuamente diferenciables en c.si todos sus elementos pq son dos veces continuamente diferenciables en c. Ms generalmente, F se dice que es k veces continua diferenciable en c.

6.3.

Diferenciacin de funciones

La tcnica empleada en la diferenciacin de matrices puede considerarse como generalizaciones o extensiones de esas empleadas en la diferenciacin no
matricial. Algunos resultados elementales en la diferenciacin no matricial
son indicadas (sin prueba) en los siguientes dos lemas.
Lema. Sea f una funcin, denida en un conjunto S; de un vector x =
(x1 ; :::; xm )0 de m variables, y suponga que (para x 2 S) f (x) es constante
(mas generalmente) no varia con xj ;entonces, para cualquier punto interior
c de S; Dj f (c) = 0:
Lema. Sean f y g funciones, denidas en un conjunto S; de un vector x =
(x1 ; :::; xm )0 de m variables. Y, sean a y b constantes (o mas generalmente)
funciones (denidas en S) que son continuas en todo punto interior de S y
son tales que a(x) y b(x) no varia con xj : Dene
` = af + bg;

h = f g;

r = f =g;

Tal que ` y h son funciones, cuyo dominio es S, y r es una funcin cuyo


dominio es S = fx 2 S : g(x) 6= 0g: Si f y g son continuamente diferenciables en un punto interior c de S, entonces ` y h tambin son continuamente
diferenciables en c, y
Dj `(c) = a(c)Dj f (c) + b(c)Dj g(c)

(6.3)

134

CAPTULO 6. DIFERENCIACIN DE MATRICES

y
(6.4)

Dj h(c) = f (c)Dj g(c) + g(c)Dj f (c):

y, si f y g son continuamente diferenciables en un punto interior c de S ,


entonces r tambin es continuamente diferenciable en c, y
f (c)Dj g(c)]=[g(c)]2 :

Dj r(c) = [g(c)Dj f (c)

(6.5)

Las formulas (2.1) (2.3) pueden ser expresada de una manera menos formal
y mas sencilla como:
@f
@g
@(af + bg)
=a
+b
;
@xj
@xj
@xj

(6.6)

@f g
@g
@f
=f
+g
;
@xj
@xj
@xj

(6.7)

y
@(f =g)
@f
= [g
@xj
@xj

dg
]=g 2 :
@xj

(6.8)

Casos especiales de la formula (2.4) incluyen:


@(af )
@f @(f + g)
@f
@g @(f g)
@f
=a
;
=
+
;
=
@xj
@xj
@xj
@xj @xj
@xj
@xj

@g
:
@xj

(6.9)

y, como un caso especial de la formula(2.6), nosotros tenemos (a la luz del


lemma 15.2.1) que
@(1=g)
=
@xj

(1=g 2 )

@g
:
@xj

(6.10)

Los resultados .....pueden ser extendidos (por aplicacin repetida) a una


combinacin lineal o a un producto de un numero arbitrario de funciones.
Sean f1 ; :::; fk k funciones, denidas en un conjunto S, de un vector x =
(x1 ; :::; xm )0 de m variables, y sean a1 ; a2 ; :::; ak constantes o (mas generalemnte) funciones (denidas en S) continuas en cada punto de S y son tal que
a1 (x); a2 (x); :::; ak (x) no varia con xj :Dene
` = a1 f1 + a2 f2 + ::: + fk ak y h = f1 ; f2 ; :::; fk

6.3. DIFERENCIACIN DE FUNCIONES

135

Si f1 ; f2 ; :::; fk son continuamente diferenciable en un punto interior c de S,


entonces ` y h tambin son continuamente diferenciables en c, y
Dj `(c) = a1 (c)Dj f1 (c) + a2 (c)Dj f2 (c) + ::: + ak (c)Dj fk (c)

(6.11)

y
k
X
Q
Dj h(c) =
[ fs (c)]Dj fi (c)

(6.12)

i=1 s6=i

Las formulas (2.9) y (2.10) pueden ser reescritas como:


@(a1 f1 + a2 f2 +
@xj

+ fk ak )

= a1

@f1
@f2
+ a2
+
@xj
@xj

+ ak

@fk
@xj

(6.13)

y
@(f1 ; f2 ; :::; fk )
=
@xj

k
X
Y
i=1

s6=i

fs

@fi
@xj

(6.14)

Note que las formulas .......para las derivadas parciales de un cociente de dos
funciones o para un producto de dos o mas funciones se puede reescribir en
notacin vectorial como:
@(f =g)
@f
= g 2 [g
@x
@x

@g
]
@x

(6.15)

y
k
@(f1 ; f2 ; :::; fk ) X Y
=
fs
@x
i=1
s6=i

@fi
@x

(6.16)

Similarmente, la formula... puede (en el caso especial donde a1 ; a2 ; :::; ak son


costantes ) reescribirse como:
@(a1 f1 + a2 f2 + ::: + fk ak )
@f1
@f2
@fk
= a1
+ a2
+ ::: + ak
:
(6.17)
@x
@x
@x
@x
Note tambien, que jando una de las k funciones f1 ; f2 ; :::; fk en laformula ...
igual a la misma funcin, dicha f , la obtenemos el resultado de que (para
cualquier entero positivo k)

136

CAPTULO 6. DIFERENCIACIN DE MATRICES

@f k
= kf k
@xj

@f
:
@xj

(6.18)

Claramente
@xj
= 1;
@xj
tenemos en particular [tomando f (x) = xkj ] que:
@xkj
= k xkj
@xj

6.4.

(6.19)

Diferenciacin de formas lineales y cuadrticas

Los resultados de la seccion 15.2 se pueden utilizar para derivar las formulas
para las derivadas parciales de una forma lineal a0 x o una forma cuadrtica
x0 Ax (en un vector columna x sin restriccin m dimensional). Sean ai y xi
los i esimos elementos de a y x, respectivamente, y sea aik el ik esimo
elemento de A: Entonces,
a0 x =

ai x i

y x0 Ax =

aik xik :

i;k

A la luz del lemma 15.2.1 y de los resultados (2.17) y (2.7) tenemos que
@xi
=
@xj

1; si i = j;
0; si i 6= j;

y que
8
si i = k = j;
>
> 2xj ;
@(xi xj ) < xi ;
si k = j pero i 6= j;
=
xk ;
si i = j pero k 6= j;
>
xj
>
:
0; de otro modo (i.e., si i 6= j y k 6= j)

Usando estos resultados conjuntamente con el resultado (2.11), encontramos


que

6.4. DIFERENCIACIN DE FORMAS LINEALES Y CUADRTICAS137


P
@( i ai xi ) X @xi
@(a0 x)
=
=
ai
= aj
@xj
@xj
@xj
i

(6.20)

@(a0 x)
@xj
P
@( i;k aik xi xk )
=
@xj
=

@(ajj x2j +

= ajj

i6=j

aij xi xj +

k6=j

ajk xj xk +

@xj

i6=j;k6=j

aik xi xk )

X
@x2j X @(xi xj ) X
@(xj xk )
@(xi xk )
+
aij
+
ajk
+
aik
@xj
@xj
@xj
@xj
i6=j
k6=j
i6=j;k6=j
= 2ajj xj +

aij xi +

i6=j

X
i

aij xi +

ajk xi + 0

k6=j

ajk xk :

(6.21)

El resultado puede ser reescrito en notacin vectorial como:


@(a0 x)
=a
@x

(6.22)

o alternativamente como:
@(a0 x)
= a0
@x0
y el resultado (3.4) se puede modica a la notacin matricial como:

(6.23)

@(x0 Ax)
= (A + A0 )x;
(6.24)
@x
P
Como es evidente observar
sobre
que
esimo elemento del
k ajk xk es el j
P
0
vector columna Ax y i aij xi es el j esimo de A x. La sj esima derivada

138

CAPTULO 6. DIFERENCIACIN DE MATRICES

parcial de segundo orden de x0 Ax puede obtenerse al encontrar la st


derivada parcial de la expresin (3.4), dando
@ 2 (x0 Ax) X @xi X
@xk
=
aij
+
ajk
= asj + ajs :
@xs @xj
@xs
@xs
i
k

esima

(6.25)

El resultado (3.8) puede ser reescrito en notacin matricial como:


@ 2 (x0 Ax)
= A + A0 :
@x

(6.26)

Note que todas las derivadas parciales de a0 x de orden superior a uno son cero,
y que todas las derivadas parciales x0 Ax de orden superior a dos son cero.
Note tambin que, en el caso especial donde A es simtrica los resultados ...
y ... se simplican a:
@(x0 Ax)
= 2Ax;
@x

@ 2 (x0 Ax)
= 2A.
@x@x0

Las formulas y para la derivida parcial a0 x de la forma lineal con respecto


a x x0 puede extenderse a un vector de forma lineal. Sea B = fbij gque
representa a una matriz p x q de constantes, y cosidere el vector columna
Bx. El i esimo elemento de Bx es la forma lineal b0i x;cuyo vector de
coeciente es b0i = (bi1 ; :::; bim ):Segun el resultado..., la j esima derivada
parcial de esta forma lineal es bij :As, la derivada parcial de Bx con respecto
a x0 (La cual es la matriz jacobiana de Bx) es:
@(Bx)
= B;
@x0

(6.27)

y la derivada parcial de (Bx)0 con respecto a x (La cual es la matriz gradiente


de Bx) es:
@(Bx)0
= B0 :
(6.28)
@x
Note que, en el caso especial donde B = Im , Los resultados ... y .... se reducen
a:
@x
@x0
=
= Im :
@x0
@x

(6.29)

6.5. DIFERENCIACIN DE SUMAS DE MATRICES, PRODUCTOS, Y TRASPUESTAS139

6.5.

Diferenciacin de sumas de matrices, productos, y traspuestas

Los resultados presentados en la seccin 15.2 (sobre la diferenciacin de funciones) se pueden extender a la diferenciacin de matrices de funciones el
siguiente lemma generaliza (y se sigue de) el lemma 15.2.1
Lema. Sea F = ffis g una matriz p x q de funciones, denidas en un conjunto
S; de un vector x = (x1 ; :::; xm )0 de m variables; y suponga que (para x 2
S) F(x) es constante o (mas generalmente) no varia con xj : Entonces, en
cualquier punto interior c de S, @F=@xj = 0:
Una generalizacin de la formula (2.4) es dada por el siguiente lemma.
Lema. Sean F = ffis g y G = fgis g matrices p x q de funciones, denidas
en un conjunto S; de un vector x = (x1 ; :::; xm )0 de m variables. Y , sea a y b
que representan constantes o (mas generalmente) funciones (denidas en S)
que son continuas en cada punto interior de S y son tal que a(x) y b(x) no
varia con xj : Entonces, en cualquier punto interior c (de S) en el cual F y G
son continuamente diferenciable , aF + bG es continuamente diferenciable y
@F
@G
@(aF + bG)
=a
+b
:
@xj
@xj
@xj
Sea L=aF + bG: El is

(6.30)

esimo elemento de L es
`is = afis + bgis :

La funcin fis y gis son continuamente diferenciables en c, implicando (a


la luz de lemma 15.2.2) que `is es continuamente diferenciable en c y que (en
x=c)
@`is
@fis
@gis
=a
+b
:
@xj
@xj
@xj
Se sigue que L es continuamente diferenciable en c, y (desde @`is =@xj ; @fis =@xj
y @gis =@xj son los is esimos elementos de @Lis =@xj ; @Fis =@xj y @Gis =@xj ;
respectivamente)que (en x=c)

140

CAPTULO 6. DIFERENCIACIN DE MATRICES

Lemma 1

@F
@G
@L
=a
+b
:
@xj
@xj
@xj

Obtenemos, como caso especial de la formula (4.1), la siguiente generalizacin


del resultado (2.7):
@F @(F + G)
@F
@G @(F G)
@F
@(aF)
=a
;
=
+
;
=
@xj
@xj
@xj
@xj @xj
@xj
@xj

@G
:
@xj

(6.31)

La formula (2.5) es generalizada en el siguiente lemma:


Lema Sea F = ffis g y G = fgis g matrices p x q de funciones, denidas
en un conjunto S; de un vector x = (x1 ; :::; xm )0 de m variables. Entonces,
en cualquier punto interior c (de S) en el cual F y G son continuamente
diferenciables, FG es continuamente diferenciable y
@FG
@G
@F
=F
+
G:
@xj
@xj @xj
Demostracin. Sea H = FG: El it
hit =

(6.32)

esima de H es

q
X

fis gis :

s=1

La funcin fis y gst son continuamente diferenciales en c, (por el Lemma


15.2.2) implicando que fis gst es continuamente diferenciable en c y que (x =
c)
@fis gst
@gst
fis
= fis
+@
gst :
@xj
@xj
@xj
as que hit es continuamente diferenciable en c, y (en x = c)
q

@hit X @(fis gst ) X @gst X @fis


=
=
fis
+
gst :
@xj
@x
@x
@x
j
j
j
s=1
s=1
s=1
podemos
concluir que
Pq
PqH es continuamente diferenciable en c y [ ya que
f
(@g
=@x
)
y
st
j
s=1 is
s=1 (@fis =@xj )gst estn en el it elemento de F(@G=@xj )
y (@F=@xj )G, respectivamente] que ( en x = c)

6.5. DIFERENCIACIN DE SUMAS DE MATRICES, PRODUCTOS, Y TRASPUESTAS141

@FG
= F(@G=@xj ) + (@F=@xj )G:
@xj
en especial el caso donde (x 2 S) F(x) es constante o (ms general) no varia
con respecto a xj , frmula (4.3) simplicando nos queda:
@FG
= F(@G=@xj ):
@xj

(6.33)

y en especial el caso donde (x 2 S) G(x) es constante o (mas general) no


varia con respecto a xj , formula (4.3) simplicando nos queda:
@FG
= (@F=@xj )G:
@xj

(6.34)

los resultados del Lemma15.4.3 puede ser extendido (repitiendo varias veces
la aplicacin) al producto de 3 o mas matrices.sea F,G y H de p q; q r
y r v matrices de funciones, denidas sobre un conjunto S de vectores
0
x =(x1 ; :::; xm ) de m-variables.entonces para algn punto interior (de S) en
el cual F,G y H son continuamente diferenciables,FGH tambien lo son y:
@FGH
@H
@G
@F
= FG
+F
H+
GH:
@xj
@xj
@xj
@xj

(6.35)

en especial el caso donde (x 2 S) F(x) y H(X) son constante o (mas general)


no varia con respecto a xj , formula (4.6) simplicando nos queda:
@G
@FGH
=F
H:
@xj
@xj

(6.36)

ms general sea F1 ; F2 ,...,Fk matrices de funciones denidas sobre un con0


junto S de vectores x = (x1 ; :::; xm ) de m-variables. entonces algn punto
interior (de S) en la cual F1 ; F2 ; :::; Fk son continuamente diferenciables,
F1 F 2
Fk tambin lo son y
@(F1 F2
Fk )
= F1
@xj
+

Fk

@Fk
1 @xj

+ F1

Fk

@Fk
2 @xj

Fk
(6.37)

@F1
F
@xj 2

Fk

(asumiendo que las dimensiones de F1 F2


Fk son tal que el producto F1 F2
Fk
esta denido).ntese que si g es una funciones denidas sobre un conjunto

142

CAPTULO 6. DIFERENCIACIN DE MATRICES


0

S de vectores x = (x1 ; :::; xm ) de m-variables. y si F de p q matriz de


funciones (denidas sobre S) de x entonces un punto interior (de S) en el
cual g y F son continuamente diferenciables, gF tambin lo es y
@(gF)
@g
@F
=
F+g
:
@xj
@xj
@xj

(6.38)

Es claro que por el Lema 15.4.3 podemos tomar G = gI. Ntese tambin que
si F es una matriz de funciones de p q, denidas sobre el conjunto S de
0
vectores x = (x1 ; :::; xm ) de m-variables, entonces en algn punto interior en
el cual F es continuamente diferenciable, F0 es continuamente diferenciable
y
0
@F
@F0
=
:
(6.39)
@xj
@xj

6.6.

Diferenciacin de matrices simtricas

Sean x = fxs g un vector columna m-dimensional y uj la j-sima columna


de la matriz identidad (de dimensiones no especicadas) los elementos de x
pueden ser considerados como una funcin denida sobre Rm , de x la j-sima
derivada parcial de esa funcin (dada por el resultado 3.1) ese resultado puede
estar expresado en una matriz notada como:
@x
= uj :
@xj

(6.40)

El resultado (5.1) puede estar generalizado por una matriz X = fxst g de m n


los elementos de X pueden considerarse como funciones denidas sobre Rm n ,
de X:
Para propsitos de diferenciar xst , los elemento de X pueden ser ordenados en
forma de un vector columna x mn-dimensional y xst puede ser interpretada
como una funcin (denida sobre Rmn ) de x (como se discuti en la seccin
15.1e).entonces (por el resultado 3.1),
@xst
=
@xij
o en una matriz notada

1; si s = i y t = j
0; en otra parte
@X
= ui u0j :
@xij

(6.41)

6.7. DIFERENCIACIN DE LA TRAZA DE UNA MATRIZ

143

Supngase ahora que X = fxst g es una matriz simtrica de m n ( pero no


restringida en otra parte).entonces los elementos de X pueden seguirse considerando comofuncines de X, en cualquier forma el dominio de esa funcion
comprende ahora toda la matriz simtrica de m n la cual es un subconjunto propio de Rm m (a menos que m = 1). para propsitos de diferenciosion
xst ,xst es interpretada (por conveniencia) como una funcin (denida sobre
Rm(m+1)=2 ) de un vector columna x de [m(m + 1)=2]-dimensiones cuyos elementos son xij (j
i = 1; :::; m) o alternativamente xij (j
i = 1; :::; m)
aprovechando esto obtenemos:
@xst
=
@xii

1; si s = t = i
0; en otra parte

y para j < i o (j > i) obtenemos:


@xst
=
@xij

1; si s = i y t = j o si s = j y t = i
0; en otra parte

o en notacin matricial:
@X
= ui u0i
@xii

(6.42)

@X
= ui u0j : + uj u0i :
@xij

(6.43)

y para j < i o j > i se tiene:

6.7.

Diferenciacin de la traza de una matriz

Sea F =ffis g una matriz de funciones p p, denida sobre un conjunto


0
S, de un vector x = (x1 ; :::; xm ) de m-variables, entonces en algn punto
interior en el cual F es continuamente diferenciable, tr(F) es continuamente
diferenciable y
@tr (F)
@F
= tr
@xj
@xj

(6.44)

Podemos ver que tr(F) = f11 + f22 +


+ fpp [en el cual se puede observar
que tr(F) es continuamente diferenciable en c] y que (en x = c)

144

CAPTULO 6. DIFERENCIACIN DE MATRICES

@tr (F)
@f11 @f22
=
+
+
@xj
@xj
@xj

@fpp
@F
= tr
@xj
@xj

Supngase ahora que F es una matriz de funciones p q, denida sobre


0
un conjunto S, de un vector x = (x1 ; :::; xm ) de m-variables, y supngase
que A es una matriz constante q p o (ms generalmente) una matriz de
funciones q p (denida sobre S) que es continua en cada punto interior
de S y que A(x) no vara con respecto a xj . Entonces, haciendo uso de los
resultados (6.1) y (4.5) (a lo largo del lema 5.2.1), encontramos que, en algn
punto interior (de S) en el cual F es continuamente diferenciable tr(AF) o
equivalentemente, tr(FA) es continuamente diferenciable y
@tr (AF)
@FA
= tr
@xj
@xj

= tr

@F
A
@xj

= tr A

@F
@xj

(6.45)

El resultado (6.2) se puede generalizar para la traza del producto de dos


matrices de funciones cualesquiera. Sea F y G matrices de funciones p q
y q p respectivamente denidas sobre un conjunto S, de un vector x =
0
(x1 ; :::; xm ) de m-variables. Entonces, en combinacin con el resultado (6.1)
y el lema 5.2.1, Lema 15.4.3 implica que, en algn punto interior en el cual
F y G son continuamente diferenciables, tr(FG) o equivalentemente tr(GF)
son continuamente diferenciables y
@tr (FG)
@GF
= tr
@xj
@xj

= tr F

@G
@xj

+ tr G

@F
@xj

(6.46)

Ntese que las versiones alternativas de la frmula (6.3) pueden ser obtenidas
haciendo uso de alguna o ambas de las dos sustituciones
tr F

@G
@xj

= tr

@G
F
@xj

y tr G

@F
@xj

= tr

@F
G :
@xj

Ahora consideremos un caso especial del resultado (6.2). Tomando X = fxst g


como una matriz m n de variables independientes, y supngase que el rango
de X comprende todo Rm n . Denamos A = fats g una matriz de constantes
n m, y sea uj la j-sima columna de la matriz identidad (de dimensiones
no especicadas). Entonces,
@tr (AX)
@tr (XA)
=
= aji :
@xij
@xij

(6.47)

6.7. DIFERENCIACIN DE LA TRAZA DE UNA MATRIZ

145

Como es evidente en el resulto (6.2), podemos observar [usando el resultado


(5.3)] que
tr A

@X
@xij

= tr(Aui u0j ) = tr(u0i Auj ) = u0j Aui = aji

El resultado (6.4) se puede reescribir como


@tr (AX)
@tr (XA)
=
= A0 :
(6.48)
@X
@X
Supngase ahora que X es una matriz simtrica m n (pero no restringida
en otro lado) . Entonces para propsito de la diferenciacin de una funcin
de X, la funcin es rescrita como una funcin de un vector columna x de
[m(m + 1)=2] dimensiones, en el cual los elementos son xij (j i = 1; :::; m).
Por consiguiente con el resultado (6.4), no se puede aplicar ms. En vez de
eso, tenemos que
@tr(AX)
@tr(XA)
=
=
@xij
@xij

aii ,
aij + aji ,

si j = i
si j < i

Para vericar esto, aplicamos el resultado (6.2) y observamos [teniendo en


cuenta los resultados (5.6) y (5.7)] que
tr A

@X
@xii

= tr(Aui u0i ) = u0i Aui = aii

y para j < i

tr A

@X
@xij

= tr(Aui u0j ) + tr (Auj u0i ) = u0j Aui + u0i Auj = aji + aij :

El resultado (6.6) se puede rescribir como


@tr(AX)
@tr(XA)
=
= A + A0
@X
@X

diag(a11 ; a22 ; :::; amm ):

(6.49)

Ntese que sin tener en cuenta si X


/ es no-restringida (pero cuadrada) o
simtrica, tenemos que
@tr(X)
=
@xij

1,
0,

si j = i
si j =
6 i

146

CAPTULO 6. DIFERENCIACIN DE MATRICES

o equivalentemente,
@tr(X)
= I,
@X
Como es evidente, se pueden obtener los resultados (6.4) - (6.7), tomando
A = I.

6.8.

Regla de la Cadena

La regla de la cadena puede ser muy til en la derivacin de derivadas parciales de una funcin f que es la composicin de una funcin g y un vector de
funciones h, que es de una funcin f cuyos valores en un punto arbitrario x
estn dados por la frmula f (x) = g[h(x)]. La regla de la cadena es estudiada
(sin demostracin) en el siguiente teorema.
Teorema 15.7.1 (regla de la cadena).Sea h = fhi g un vector de funciones
0
de n 1, denida sobre un conjunto S, de un vector x = (x1 ; :::; xm ) de mvariables. Sea g una funcin, denida sobre un conjunto T/ , de un vector
y = (y1 ; :::; yn )0 de n-variables. Supngase que h(x) 2 T para todo x en S, y
tomando f como la funcin compuesta f (x) = g[h(x)]. Si h es continuamente
diferenciable en un punto interior c de S y si [asumimos que h(c) es un punto
interior de T ] y si g es continuamente diferenciable en h(c), entonces f es
continuamente diferenciable en c y
Dj f (c) =

n
X

Di g [h(c)] Dj hi (c)= Dg [h(c)] Dj h(c):

(6.50)

i=1

La frmula (7.1) se puede escribir de otra forma como


X @g @hi
@f
@g @h
=
=
,
0 @x
@xj
@y
@x
@y
i
j
j
i=1
n

(6.51)

@g
@g
Donde @y
y @y
0 se interpretan siendo evaluadas en y = h(x).
i
Las frmulas (7.1) o (7.2) pueden reescribirse como

Df (c) =

n
X
i=1

Di g [h(c)] Dhi (c) = Dg [h(c)] Dh(c):

(6.52)

6.8. REGLA DE LA CADENA

147

X @g @hi
@f
@g @h
=
=
.
0
0
0 @x0
@x
@y
@x
@y
i
i=1
n

(6.53)

El resultado del teorema 15.7.1 se puede generalizar tomando g = fgs g un


vector p 1 de funciones de y (denida sobre T) y f = ffs g un vector p 1 de
funciones compuestas denida (sobre S), fs (x) = gs [h(x)], (para s = 1; :::; p)
o equivalentemente, f (x) = g[h(x)]. Si (en un contexto ms general) h es
continuamente diferenciable en un punto interior c de S y g es continuamente
diferenciable en h(c), entonces f es continuamente diferenciable en c y
Dj f (c) =

n
X

Di g [h(c)] Dj hi (c) = Dg [h(c)] Dj h(c):

(6.54)

i=1

o equivalentemente,

X @g @hi
@f
@g @h
=
=
.
0 @x
@xj
@y
@x
@y
i
j
j
i=1
n

(6.55)

@g
@g
[Donde @y
y @y
0 son interpretadas siendo evaluadas en y = h(x)]. Las fri
mulas (7.5) o (7.6) pueden reescribirse como

Df (c) =

n
X

Di g [h(c)] Dhi (c) = Dg [h(c)] Dh(c)

(6.56)

i=1

X @g @hi
@f
@g @h
=
=
,
0
0 @x0
@x0
@y
@x
@y
i
i=1
n

(6.57)

Ahora consideremos una generalizacin diferente del resultado del teorema


15.7.1
- uno donde H = fhis g es una matriz de funciones n r denida sobre S,
de x ; donde g es una funcin denida sobre un conjunto T , de una matriz
Y = fyis g de nr variables; donde H(x) 2 T , para todo x en S; y donde f es
una funcin compuesta denida sobre S, f (x) = g[H(x)]. Supngase que los
elementos de H y Y estn arreglados en forma de vectores columna h y y
respectivamente, y para propsitos de diferenciacin, g es interpretada como
una funcin de y. Si h, o equivalentemente, H es continuamente diferenciable

148

CAPTULO 6. DIFERENCIACIN DE MATRICES

en un punto interior c de S y si [asumiendo que H(c) es un punto interior


de T ] g es continuamente diferenciable en h(c) o, equivalentemente H(c),
entonces f es continuamente diferenciable en c y (en x = c)
X X @g @his
@f
=
:
@xj
@yis @xj
i=1 s=1
n

(6.58)

(como es claro en el teorema 15.7.1). La frmula (7.9) puede ser reescrita


como
@f
= tr
@xj

@g
@Y

@H
:
@xj

(6.59)

@g
[Las cantidades @y@gis y @Y
que aparecen en las frmulas (7.9) y (7.10), son
interpretadas teniendo en cuenta la evaluacin de Y = H(x)]

6.9.

Derivadas parciales de primer orden de


Determinantes e Inversas y Matrices Adjuntas

Sea X = fxij g una matriz de m m de variables independientes (donde


m 2) y supngase que el rango de X comprende todo de Rm m . Denotemos
m m
)
ij como el cofactor de xij . Entonces la funcin f de X (denida sobre R
por f (X) = det(X) es continuamente diferenciable en todo X y
@det(X)
=
@xij

ij .

(6.60)

Para ver esto, arreglemos los elementos de X en forma de un vector columna x de m2 dimensiones, y f como una funcin de x. Como cada elemento
de X es una funcin continuamente diferenciable de x, (de acuerdo al lema
15.2.2) luego la suma y el producto de dichas funciones tambin son continuamente diferenciables, de la denicin de determinante se sigue [dada por
la expresin (13.1.2)] que f es continuamente
diferenciable. Ms an, expanPm
diendo det(X) como det(X)= t=1 xit it [en concordancia con el resultado
(13.5.1)], observemos que i1 ; :::; im no vara con respecto a xij y recalcando
el resultado (5.2), encontramos que

6.9. DERIVADAS PARCIALES DE PRIMER ORDEN DE DETERMINANTES E INVERSAS Y MATR

@det(X) X
=
@xij
t=1
m

it

@xit
=
@xij

ij :

(6.61)

El resultado (8.1) indica que la derivada de det(X) con respecto a X es la


matriz de cofactores (de X) o es equivalente a,
@det(X)
= [adj(X)]0 :
(6.62)
@X
Ahora extendamos los resultados de la diferenciacin del determinante de una
matriz F = ffis g de p p de funciones denidas sobre un conjunto S de un
0
vector x = (x1 ; :::; xm ) de m-variables. As, la funcin a ser diferenciada es la
funcin h de x denida sobre S por h(x) = det[ F(x)]. Es conveniente (para
propsitos de diferenciacin de h) introducir una funcin g de una matriz
Y = fyis g de p p y p2 variables, denida sobre Rp p por g(Y) = det(Y),
y expresemos h como la composicin de g y F. as que h(x) = g[F(x)].
Claramente g es continuamente diferenciable para todo Y y
@g
= [adj(Y)]0 :
@Y
Por consiguiente, se sigue de la regla de la cadena [y en particular del resultado (7.10)] que si F es continuamente diferenciable en un punto interior c
de S, entonces h es continuamente diferenciable en c y (en x = c)
@det(F)
@F
= tr adj(F)
:
@xj
@xj

(6.63)

Mas an, si F es no singular tambin es continuamente diferenciable en c,


entonces [teniendo en cuenta el resultado (13.5.6)]
@det(F)
=j F j tr(F
@xj

@F
):
@xj

(6.64)

Supngase ahora que S es el conjunto de todos los valores de x para los


cuales det[F(x)] > 0 o es un subconjunto de ese conjunto, y considere la
diferenciacin de la funcin ` de x denida sobre S por `(x) =log(det[F(x))].
Para facilitar la diferenciacin, sea g una funcin de una variable y denida
(para y > 0) por g(y) = log(y), y expresemos a ` como una composicin de
g y h, as que `(x) = g[h(x)].Recalquemos (del calculo de una sola variable)

150

CAPTULO 6. DIFERENCIACIN DE MATRICES

que g es continuamente diferenciable (en todos los puntos del dominio) y que
(para y > 0)
@logy
1
= .
@y
y
Aplicando la regla de la cadena encontramos [teniendo en cuenta los resultados (8.4) y (8.5)] que si F es continuamente diferenciable en un punto interior
c de S (en cualquier caso h es continuamente diferenciable en c), entonces `
es continuamente diferenciable en c y (en x = c)
@ log(det(F))
1 @det(F)
1
@F
=
=
tr adj(F)
= tr(F
@xj
j F j @xj
jFj
@xj

@F
):
@xj
(6.65)
Ahora consideremos el resultado (8.6) en el caso especial donde x es un vector
columna m2 dimensional cuyos elementos son los mismos que la matriz X =
fxij g de m m de m2 variables independientes y donde F (x) = X. Sea c un
punto interior de S [donde S consta de algunos o todos los valores de x para
los cuales det(X) > 0], y sea uj la j-sima columna de Im .Del resultado (5.3)
@X
se sigue que X es continuamente diferenciable en c y (en x = c), @x
= ui u0j .
ij
Concluimos que la funcin ` denida sobre S por `(x) = log(det(X)) es
continuamente diferenciable en c y (en x = c)
@ log(det(X))
= tr(X 1 ui u0j )= u0j X 1 ui = yji ,
@xij

(6.66)

Donde yji es el ji-simo elemento de X 1 o equivalentemente, el ij-simo


elemento de (X 1 )0 . El resultado (8.7) se puede escribir como
@ log(det(X))
= (X 1 )0
(6.67)
@X
Las frmulas (8.3) y (8.8) o [(8.2) y (8.7)] son aplicables cuando los m2 elementos de X son variables independientes.supngase ahora que X = fxij g
es una matriz simetrica de m m en los cuales los casos de la formula (8.3)
y (8.4) no son aplicables.para propsitos de diferenciacin, la funcin f de
X denida (sobre un conjunto S comprendida sobre alguna o todas las matrices simtricas de m m) por f (X) = det(X) y la funcin ` de X denida
(denidas sobre un conjunto S comprendidas sobre algunas o todas las matrices simtricas m m con determinantes positivos) por `(X) = log(det(X))

6.9. DERIVADAS PARCIALES DE PRIMER ORDEN DE DETERMINANTES E INVERSAS Y MATR


por conveniencia para interpretarlas como funciones de los vectores columnas
de x , de [m(m + 1)=2] dimensiones cuyos elementos xij (j i = 1; :::; m) son
independientes de los elementos de X:Sea c un punto interior de S y c un
punto interior de S . Entonces se sigue del resultado de la seccin 15.5 que
X es continuamente diferenciable en c y c , implicando que f es continuamente diferenciable en c y que ` es continuamente diferenciable en c . Mas
an tenemos [como un caso especial del resultado (8.4)] que (en x = c)
@X
@det(X)
= tr adj(X)
:
@xij
@xij
Haciendo uso de los resultados (5.6) y (5.7) y denotando la j-sima columna de Im por uj , encontramos que
tr adj(X)

@X
= tr [adj(X)ui u0i ] = u0i adj(X)ui
@xii

y (para j < i)

tr adj(X)

@X
@xij

= tr adj(X)ui u0j + tr[adj(X)uj u0i ]


= u0j adj(X)ui + u0i adj(X)uj .

As, denotando el cofactor de xij , por ij (y recordando que la matriz de


cofactores de una matriz simtrica, es simtrica) obtenemos que
@det(X)
=
@xij

ii ,

ij ,

si j = i
si j < i

o equivalentemente,
@det(X)
= 2adj(X)
@X

diag(

11 ; 22 ; :::; mm ).

(6.68)

Sea yij el ij-simo elemento de X 1 , encontramos [usando el resultado


(8.6) y (13.5.7)] que (en x = c )
@ log(det(X))
=
@xij
O equivalentemente,

yii ,
2yij ,

si j = i
si j < i

152

CAPTULO 6. DIFERENCIACIN DE MATRICES

@ log(det(X))
= 2X 1 diag(y11 ; y22 ; :::; ymm ):
(6.69)
@X
la diferenciacion de una matriz adjunta F = ffis g de p p de funciones,denidas
0
sobre un conjunto S de un vector x = (x1 ; :::; xm ) de m-variables. sea Fsi una
submatriz de (p 1) (p 1) obtenidas de F sacando la s-esima la, y la iesima columna (de F), y sea si = ( 1)s+i det(Fsi ). entonces por denicin,
si es el cofactor fsi , y de aqu el is-esimo elemento de adj(F):discutamos
sobre la diferenciacin de los determinantes (incluido el resultado (8.4)), si
F es continuamente diferenciable en un punto interior c de S;entonces si es
continuamente diferenciable en un punto interior c (en x = c).
@ si
@Fsi
= ( 1)s+i tr adj(Fsi )
:
@xj
@xj

(6.70)

Si F es continuamente diferenciable en un punto interior c, entonces adj(F) es


continuamente diferenciable en c y el is-esimo elemento de matriz adj(F)/@xj
es obtenido por la expresin (8.13).supngase ahora que S es el conjunto de
todos los valores de x para el cual F(x) es no singular o un subconjunto
del conjunto anterior ,y consideremos la diferenciacin de la matriz inversa
F 1 :denotado por algn punto interior c(de S),en el cual F es continuamente diferenciable.entonces si y det(F) son continuamente diferenciable
si
en c; implicando (teniendo en cuenta el lema 15.2.2) que det(F)
es continuamente diferenciable en c, de esta ecuacin podemos sacar el is-esimo elemento
de F 1 (teniendo en cuenta el corolario 13.5.4),podemos concluir que F 1 es
continuamente diferenciable en c, mas aun, FF 1 = I, implicando que (teniendo en cuenta el lema15.4.3 y 15.4.1), (en x = c):
F

@F 1
@F
+
F
@xj
@xj

@I
= 0:
@xj

y de aqui
F
multiplicando por F

@F 1
=
@xj

@F
F
@xj

(6.71)

obtenemos:
@F 1
=
@xj

@F 1
F :
@xj

(6.72)

6.9. DERIVADAS PARCIALES DE PRIMER ORDEN DE DETERMINANTES E INVERSAS Y MATR


1

Como una formula para @F


:
@xj
Una expresin alternativa para los elementos de @adj(F)/@xj puede ser obtenida [donde S esta restringida para los valores de x en el cual F(x) es nosingular usando la formula(4.9)].(teniendo presente el corolario13.5.4) la adj(F ) =
j F j F 1 ,podemos obtener:
@adj(F)
@j F j
=
F
@xj
@xj

+jFj

@F 1
@xj

(6.73)

@F
@F
F 1+jFj
F 1
F
@xj
@xj
@F
@F 1
F 1
F 1
F
:
= j F j tr F 1
@xj
@xj

= j F jtr F

Formula (8.15) se puede generalizar usando el resultado (4.6).Sea A y B matrices de funciones de x de tamaos k p y p r respectivamente (denidas
sobre el conjunto S como los elementos de F). supongase que A y B son
continuamente diferenciable en c:entonces AF 1 B es continuamente diferenciable en c y (en x = c):
@(AF 1 B)
= AF
@xj

@B
@xj

AF

@F 1
@A 1
F B+
F B
@xj
@xj

(6.74)

En el caso especial donde A(x) y B(x) son constantes (para x 2 S) o no


varia con respecto a xj , simplicando la formula (8.17) obtenemos:
@(AF 1 B)
=
@xj
@F
@xi @xj

AF

@F 1
F B:
@xj

+ tr F

@2F 1
@[ F
=
@xi @xj
=

@F @F 1
@xj @xi

tr F

@F
@xj

(6.75)

@F 1 @F
F
@xi
@xj
(6.76)
Y, haciendo uso del resultado (4.6), nos damos cuenta que (en x = c)
= jFj tr F

@F
@xi

tr F

(@F=@xj ) F 1 ]
@xi

@F
F
@xi @xj

@F 1 @F
F
@xi @xj

154
=

CAPTULO 6. DIFERENCIACIN DE MATRICES


F

@F
@xj

@F
F
@xi @xj

@F
F
@xi
1

+F

F
1

@F
F
@xi

@F
F
@xi @xj

@F
F
@xj

+F

F
1

@F
F
@xj

@F
F
@xi
1

@F
F
@xj

@F
F
@xi

(6.77)

Supongamos ahora que det[F(x)] > 0 para cada x en S entonces en vista de


nuestros previos resultados logdet(F) es continuamente diferenciable en cada
punto de N y (para x 2 N )
@ 2 logdet(F )
= tr F
@xj

@F
@xj

Por consiguiente (puesto que F 1 y @F=@xj son continuamente diferenciables


en c ) @logdet(F )=@xj )
Es continuamente diferenciable en c, y por lo tanto logdet(F) dos veces continuamente diferenciable en c: Admas, haciendo uso del resultado (6.3), nos
damos cuenta que (en x = c)
@ 2 logdet(F )
@tr [F 1 (@F=@xj )]
=
@xi @xj
@xi

6.10.

= tr F

= tr F

@F
@xi @xj

+ tr F

@F
@xi @xj

+ tr F

@F
F
@xi
@F
F
@xi

@F
@xj
@F
@xj

(6.78)

Diferenciacin de Inversas Generalizadas

Supongamos que Fp q matriz de la funcin denida en un conjunto de S, de


un vector x=(x1 ; :::; xm ) consideremos Gp q matriz de funciones denidas
(en S) tomando G(x) para ser inversas generalizada de F(x).
En el caso especial donde q = p y S es compuesta de matrices no singulares (y por lo tanto donde (G = F 1 ). G es continuamente diferenciable en el punto interior de S en el cual F es continuamente diferenciable y
@G=@xj = G(@F=@xj )G(como se discuti en la seccin 15.8). En esta seccin consideramos la extensin para las cuales estos resultados (y otros varios
resultados en la diferenciacin de la inversa comn) puede ser extendido en
el caso donde F no es necesariamente in singular (y q no es necesariamente
igual a p). Una extensin semejante es dada en el siguiente teorema:

6.10. DIFERENCIACIN DE INVERSAS GENERALIZADAS

155

Teorema 15.10.1. Supongamos que Fp q matriz de funciones, denida en


0
un conjunto de S, de un vector x=(x1 ; :::; xm ) de m variables, supongamos
que c representa cualquier punto interior de S en la cual F es continuamente
diferenciable. Supongamos que F tiene rango constante ,es decir r , en algn
aproximado de c. toma i1 ; :::; ir para ser el numero entero escogido de p ,
enteros positivos, 1; :::; p, de tal manera que la i1 ; :::; ir sucesin de F(c) estn
linealmente independiente, y toman j1 ; :::; jr para ser enteros escogidos desde
los primeros q enteros positivos, 1; :::; q, en la forma que j1 ; :::; jr , columnas
de F(c) que estn linealmente independientemente. Otro mas alejado de p
para ser alguna pxp matriz de permutacin la cual las primeras r columnas
son de j1 ; :::; jr , columnas de 1; :::; q. Supongamos que B = PFQ, y particin
de B como:
B

B11 B12
B21 B22

Donde B11 es de dimensiones rxr, entonces, rango (B11 )= rango (F)= r en


alguna aproximacin N de c y, existe una inversa generalizada de G de F
tales como:
B 111 0
G= Q
P
0
0
En N adems, G es continuamente diferenciable en c, y (en x = c)
@G
=
@xj

1
11

(@B11 =@xj )B
0

1
11

0
0

P=

@F
G:
@xj

Con la referencia al Teorema 15.10.1. nota (en la lnea de discusin de la


seccin 9.2a) que F(c) necesariamente contiene r linealmente independiente
en las y linealmente en columnas, la cual B11 es la submatriz de F excepto i1 ; :::; ir , la y al j1 ; :::; jr , columna (o es una rxr matriz obtenida de la
submatriz alterando las las y las columnas), y que B11 (c) no es singular,
provocando el teorema 15.10.1, es conveniente para el uso del siguiente lema.
Lema 15.10.2. supongamos que Fp p matriz de funciones, denidas en un
conjunto S, de una m- columna dimensional del vector x. imaginemos que F
no es singular en un punto interior c de S y que F es continua en c luego,F
no es singular en todos los puntos alrededor de c.

156

CAPTULO 6. DIFERENCIACIN DE MATRICES

Demostracin (del lema 15.10.2). Continua la denicin de un determinante


[dadoporlasformulas(13.1.2)] y de resultados estndares, en la continuidad de
la funcin.
Lo que det (F) es una funcin continua de x (en x = c) y por lo tanto el
lim det [F (c)] = det [F (c)]

x!c

Desde el det [F (c)] o, S contenidos alrededor de N de c tales que jdet [F (x)] det [F (c)]j <
jdet:[F (c)]j para x 2 N o, equivalente, tal que jdet:[F(c)]j jdet:[F(c)]
det:[F(x)]j
> 0 para x 2 N , y desde jdet[F(c)]j
jdet[F(x)]j+jdet[F(c)]-det[F(x)]j o
equivalente jdet:[F(x)]j
jdet:[F(c)]j
jdet[F(c)]-det[F(x)]j, tenemos que
jdet:[F(x)]j > 0 para x 2 N ,concluimos que F(x) no es singular para x 2 N .
Demostracin (del Teorema 15.10.1) desde que (una lnea del lema 15.1.1)
F es continua en c (inriendo que B11 es continua en c), siguiendo del Lema
15.10.2 el cual B11 no es singular en todos los puntos en algunos alrededor
de N1 de c supongamos N2 representa una vecindad de c en la cual rango
(F) = r, y toma N cualquiera de los dos alrededor de N1 y N2 tiene el radio
mas pequeo. Luego claramente el rango (B11 ) = rango (F) = r para x 2 N .
La existencia de una inversa generalizada G de F tal que
G= Q

1
11

0
0

En N sigue desde el teorema 9.2.3 tal que G es continuamente diferenciable


en c y que (en x = c)
@G
=
@xj

1
11

(@B11 =@xj )B
0

1
11

0
0

Siguiendo desde los resultados de la seccin 15.4 y15.8 completa la prueba


observe que @B=@xj = P(@F=@xj )Q implica que
@F
0 @B
0
0
=P
Q =P
@xj
@xj

@B11 =@xj @B12 =@xj


@B21 =@xj @B22 =@xj

Y por lo tanto
G

@F
G=Q
@xj

1
11

0
0

@B11 =@xj @B12 =@xj


@B21 =@xj @B22 =@xj

1
11

0
0

6.10. DIFERENCIACIN DE INVERSAS GENERALIZADAS

=Q

1
11

(@B11 =@xj )B
0

1
11

0
0

157

De acuerdo con el teorema 15.10.1 una condicin suciente para la existencia


de una inversa generalizada de F la cual es continuamente diferenciable en
c (donde c es un punto interior en el cual F es continuamente diferenciable)
es que F tiene un rango constante en algunos alrededores de c.
Es esta condicin necesaria tanto como suciente? esta pregunta es respondida (en la armacin)
Por el resultado del siguiente lema.
Lema15.10.3 supongamos que Fp q matriz de funcin denida en un conjunto S la columna de vectores m-dimensional de x.y ,supongamos que c
representa algn punto interior de S en la cual F es continua .si existe
Una inversa generalizada de F que es continua en x = c, luego F tiene rango
constante en alguna aproximacin de c.
Demostracin. supongamos que existe una inversa generalizada , digamos
G de F es continua en x = c luego desde que sumas y productos de funciones
continuas son continuas tr (FG) es continua en x = c: adems deacuerdo
al resultado (10.2.1), tr (FG)=rango(F) de esta manera, el rango (F) es
continuo en x = c, desde que rango (F) es el valor de un numero entero
concluimos que el rango(F) en alguna vecindad de c:
Corolario 15.10.4. Supongamos que Fp q matriz de funciones, denida en
un conjunto S, de una columna de vectores m-dimensional de x. Supongamos
que c representa algn punto interior de S en el cual
F continuamente diferenciable, si existe una inversa generalizada de F la cual
es continuamente diferenciable en x = c, luego F tiene rango constante en
alguna vecindad de c.
Demostracin. Supongamos que existe una inversa generalizada, dada en
G de F la cual es continuamente diferenciaible en c desde que (de acuerdo
al lema 15.1.1) funciones continuamente diferenciables son
continuas, F y G son ambas continuas en x = c de esta manera le sigue el
lema 15.10.3 F tiene un rango constante en la vecindad de c.

158

CAPTULO 6. DIFERENCIACIN DE MATRICES

Supongamos que Fp q matriz de funciones denidas en un conjunto S de


un vector x=(x1 ; :::; xm ) de m variables alejadas, supongamos que c representa un punto interior de S en la cual F es continuamente diferenciable, y
supongamos que F tiene un rango constante en alguna vecindad de c luego
de acuerdo al Teorema 15.10.1 existe una inversa generalizada G de F que
es continuamente diferenciable
En c y cuya derivada parcial en x = c son dados por la formula
@G
=
@xj

@F
G
@xj

Es la formula (10.1) aplicable para todas las inversas generalizadas G (de


F) que es continuamente diferenciable en c? excepto en casos especiales la
respuesta es no supongamos por ejemplo que F = 0 para toda x en algunos
vecindades de N de c y que G escogido de tal forma que G es continuamente
diferenciable en c y @G=@xj no es nulo desde cualquier q p matriz es una
inversa generalizada de p q matriz nula en x = c, mientras el lado izquierdo
no es nulo.
El siguiente lema es relacionado a la derivada parcial en (x = c) de una
inversa generalizada de F de la derivada parcial de F estimada esto lo hace
en una forma menos denitiva que en la formula (10.1) sino en una forma la
cual sea aplicable a alguna inversa generalizada (de F) que es continuamente
diferenciable
en c:
Lema 15.10.5 supongamos que Fp q matriz de funciones denida en un
conjunto S, de un vector x=(x1 ; :::; xm ) de m variables lejanas supongamos
que c representa un punto interior de S en el cual F es continuamente diferenciable, y (asumiendo que F tiene un rango constante en alguna vecindad
de c) supongamos que G representa una inversa generalizada de F que es
continuamente diferenciable (en x = c)
F

@G
F=
@xj

FG

@F
GF:
@xj

Demostracin diferenciando ambos lados de la igualdad F = FGF [con la ayuda del resultad
que (en x = c)
@F
@F
@G
@F
= FG
+F
F+
GF
@xj
@xj
@xj
@xj

6.10. DIFERENCIACIN DE INVERSAS GENERALIZADAS

159

Premultiplicando ambos lados de la igualdad (10.3) por FG y GF respectivamente dados


FG

@F
@F
@G
@F
GF = FGFG
GF + FGF
FGF + FG
GFGF
@xj
@xj
@xj
@xj
= FG

@F
@G
@F
GF + F
F + FG
GF
@xj
@xj
@xj

O equivalente,
F

@G
F=
@xj

FG

@F
GF
@xj

El siguiente teorema generaliza el resultado (10.1).


Teorema 15.10.6supongamos que Fp q ,A k q y Bp r matrices de funciones
denidas en un conjunto S
De un vector x=(x1 ; :::; xm ) de m variables. Supongamos que c representa
un punto interior, de S en el cual F,A;y B son continuamente diferenciables. Supongamos que existe una vecindad de N de c talque (1)=F tiene un
rango constante en N y (2) R(A) R (F) y C(B)
C(F) para todo x
2 N luego para alguna inversa generalizada G de F,AGB es continuamente
diferenciable en c, y (en x = c)
@(AGB)
@B
= AG
@xj
@xj

AG

@F
@A
GB +
GB
@xj
@xj

El teorema 15.10.6 indica que aun si la inversa generalizada G es no continuamente diferenciable (en x = c) o la formula
@G
@F
=G
G
@xj
@xj
No es aplicable para G podemos para el propsito de obtener la derivada parcial de AGB (en x = c) continua aunque G es continuamente diferenciable
y por formula (10.5) es valido. en el caso especial
donde (para x 2 S) A(x) y B(x) son constantes o (mas generalmente) no
varia con xj formula (10.4) simplicamos para
@(AGB)
@F
= AG
GB
@xj
@xj

160

CAPTULO 6. DIFERENCIACIN DE MATRICES

Preliminar para probar el teorema 15.10.6 es conveniente establecer el siguiente teorema el cual es de mucho mas inters el echo propio.
Teorema 15.10.7 supongamos que Fp q matriz de funciones denida en un
conjunto S de columna de vectores de x m-dimensional y supongamos que
G representa una inversa generalizada de F. supongamos que c. representa
algn punto interior (de S) en el cual F es continuamente diferenciable, y
suponte que F tiene un rango constante en algunas vecindade de c. luego
existe alguna inversa generalizada de G (de F) tal que G es continuamente
diferenciable (en c) y G (c) = G(c).
Demostracin (del teorema15.10.7). de acuerdo al teorema , existe una
inversa generalizada, digamos H, de F la cual es continuamente diferenciable
en c. supongamos
G = H + Z HFZFH
Donde Z = G(c) H(c). Luego sigue del teorema 9.2.7. Donde G es una
inversa generalizada, de F y del resultado de la seccin 15.4 la cual G es
continuamente diferenciable (en c). Adems,
G (c) = H(c) + Z
= H(c) + Z

H(c)F(c) [G(c)

H(c)] F(c)H(c)

H(c)F(c)H(c) + H(c)F(c)H(c)
= H(c) + Z
G(c)

Demostracin del teorema 15.10.6 de acuerdo con el teorema 15.10.7 existe


una inversa generalizada G de F tal que G es continuamente diferenciable
(en c) y G (c) = G(c). Adems, de acuerdo al teorema 9.4.1, AGB=AG B
para toda x en N de esta manera sigue del resultado de la seccin 15.4 que
AGB es continuamente diferenciable en c y que (en x = c)
@(AG B)
@(AGB)
@B
@G
@A
=
= AG
+A
B+
GB
@xj
@xj
@xj
@xj
@xj
= AG

@B
@G
@A
+A
B+
GB
@xj
@xj
@xj

6.11. DIFERENCIACIN DE MATRICES DE PROYECCIN.

161

Para completar la prueba , observa que A(c) = LF(c) y B(c) = F(c)R para
algunas matrices L Y R y por lo tanto (en la linea del lema 15.10.5) que (en
x = c)
@G
@G
@F
A
B = LF
FR =
LFG
G FR
@xj
@xj
@xj
=

6.11.

AG

@F
G B=
@xj

AG

@F
GB
@xj

Diferenciacin de matrices de proyeccin.


0

Recordemos (de la seccin 14.12 d) que Px;w representa la matriz X(X WX) X W
(donde X n p y Wn n ) y que , por una matriz W denida simtrica positiva , Px;w es la proyeccin de la matriz por C(X) con respecto a W. si
los elementos de W y los de X , son funciones de un vector , decimos que
z, de variables , entonces la diferenciacin( con respecto a los elementos de
z) de Px;w pueden ser de inters. El siguiente teorema da algunos resultados en la diferenciacin de Px;w y tambin en la difrenciacin de WPx;w y
W WPx;w .
Teorema15.11.1 Supongamos que Xn p y Wn n matriz denida simtrica
positiva, y supongamos que los elementos de X y W son funciones, denidas
0
en un conjunto S, de un vector z = (z1 ; :::; zm ) de m variables. Mas, supongamos que c representa algn punto interior (de S) en el cual X y W son
continuamente diferenciable, y supongamos que X tiene rango constante en
alguna vecindad de c. luego, Px;w , WPx;w , y W WPx;w son continuamente diferenciables en c, y (en z = c)
@Px;w
= (I
@zj

Px;w )

@X
0
X WX
@zj
0

XW

@X
+X(X WX)
W (I Px;w )
@zj
0
0 @W
+X(X WX) X
W (I Px;w ) ;
@zj
0

(6.79)

162

CAPTULO 6. DIFERENCIACIN DE MATRICES


@W
@(WPx;w )
=
@zj
@zj

+W (I

Px;w

Px;w )

+WX(X WX)
WPx;w )
=
@zj

Px;w )

@X
0
X WX
@zj

@(W

@W
(I
@zj

@X
@zj

(6.80)

XW

W (I

Px;w ) ;

@W
(I Px;w )
@zj
@X
0
X WX
Px;w )
@zj

(6.81)

Px;w

W (I

WX(X WX)

@X
@zj

XW

W (I

Px;w ) :

Los resultados el teorema 15.11.1 son casos especiales de varios resultados


rodeados en el siguiente teorema (como es evidente sobre recordar (de el
0
resultado 14.11.3) el rango(X WX)=rango(X) y (del teorema 14.12.11) que
h 0
i0
0
0
0
0
X (X WX)
= X(X WX) X y por lo tanto WX(X WX) X = Px;w :
Teorema 15.11.2 supongamos que Wr n , Xn q y Yq r matrices de fun0
ciones, denidas en un conjunto S, de un vector z = (z1 ; :::; zm ) de m variables. Supongamos que c representa cualquier punto interior de S en el cual
W,X y Y son continuamente diferenciables. Supongamos que existe una
vecindad N de c la cual (1) YWX tiene un rango constante en N y (2) rango
(X) = rango (Y) =rangoYWX para todo z en N . dene K = X(YWX) Y.
luego K, KW, WKW, y W WKW son continuamente diferenciables en
c, y (en z = c)
@K
= (I
@zj

KW)

@X
@Y
(YWX) Y + X(YWX)
(I
@zj
@zj

@(WK)
= (I
@zj

WK)

@X
(YWX) Y
@zj
@Y
@W
+X(YWX)
W(I WK) + K
(I
@zj
@zj
KW)

@W
K;
@zj
(6.82)
(6.83)

KW) ;

6.11. DIFERENCIACIN DE MATRICES DE PROYECCIN.


@W
@(WKW)
=
@zj
@zj

163

@W
(I KW)
@zj
@X
+W(I KW)
(YWX) YW
@zj
@Y
+WX(YWX)
W(I KW) ;
@zj

@(W

(I

(6.84)

WK)

@W
(I KW)
@zj
@W
W(I KW)
(YWX) YW
@zj
@Y
WX(YWX)
W(I KW)
@zj

WKW)
= (I
@zj

(6.85)

WK)

Demostracin. En la linea de resultados de la seccion 15.4, tenemos que


YWX es continuamente diferenciable en c y, una linea de resultados 4.4.7
tenemos que R(X) = R(YWX) y C(Y) = C(YWX) para toda z en N . aplicando el teorema 15.10.6 (con F = YWX, A = X, y B = Y), encontramos
que K es continuamente diferenciable en c y que (en z = c)
@K
@Y
= X(YWX)
(6.86)
@zj
@zj
@(YWX)
@X
X(YWX)
(YWX) Y+
(YWX) Y :
@zj
@zj
adems,
@(YWX)
@X
@W
@Y
= YW
+Y
X+
WX :
(6.87)
@zj
@zj
@zj
@zj
Sobresustituyendo la expresin (11.9) para@(YWX)=@zj en la expresin
(11.8) obtenemos
@K
@Y
@X
@W
= X(YWX)
KW
(YWX) Y K
K
@zj
@zj
@zj
@zj
@Y
@X
X(YWX)
WK+
(YWX) Y
@zj
@zj
@X
@Y
= (I KW)
(YWX) Y + X(YWX)
(I WK)
@zj
@zj

@W
K;
@zj

164

CAPTULO 6. DIFERENCIACIN DE MATRICES

Por medio de esto validamos la formula (11.4)


Ms, puesto que K es continuamente diferenciable en c, sigue de los resultados de la seccin 15.4 que KW, WKW, y W WKW son continuamente
diferenciables (en z = c).
@W @K
@(KW)
=K
+
W;
@zj
@zj
@zj

(6.88)

@(KW) @W
@(WKW)
=W
+
KW ;
@zj
@zj
@zj

(6.89)

@(W

@W
WKW)
=
@zj
@zj

@(WKW)
;
@zj

(6.90)

Sobresustituimos la expresin (11.4) por @K=@zj , en expresiones


(11.10). Obtenemos (despus de una pequea simplicacin) expresin (11.5)
similarmente sobresustituir expresiones (11.5) por @(KW)=@zj , en la expresin (11.11) obtenemos la expresin (11.6), la cual cuando se sustituye por
@(WKW)=@zj en expresiones (11.12) dando expresiones (11.7).
De acuerdo al teorema 15.11.1., una condicin suciente para Px;w para ser
continuamente diferenciable en c (donde c es un punto interior en el cual X y
W son continuamente diferenciables) tal que X tiene un rango constante en
alguna vecindad de c. esta condicin es tan necesaria como suciente? Esta
pregunta es respondida (en lo armativo) por el resultado de el siguiente
lema.
Lema 15.11.3 Supongamos que Xn p y Wn n denida simtrica positiva
continua, y suponte que los elementos de X y W son funciones denidas en un
conjunto S, de una columna de vectores de z m-dimensional. y supongamos
que c representa algn punto interior de S en la cual X y W son continuos.
Si Px;w es continua en z = c, luego X tiene un rango constante sobre alguna
vecindad de c.
Demostracin Suponemos que Px;w es continuo en z = c, luego tr(Px;w ) es
continuo en z = c, adems, puesto que (de acuerdo con el teorema 14.12.11)
Px;w es idempotente y un rango(X)=rango(Px;w ), tenemos en una parte
importante del resultado 10.2.2) este rango(X)=tr(Px;w ), de esta manera,
el rango(X) es continuo en z = c. puesto que el rango(X) es constante en
algunas aproximaciones en c

6.11. DIFERENCIACIN DE MATRICES DE PROYECCIN.

165

corolario 15.11.4 Supongamos que Xn p y Wn n denida positiva simtrica, y supongamos que los elementos de X y W son funciones denidas en
un conjunto S de una columna de vectores z dimensional m-dimensionales,
supongamos que c representa algn punto interior de S en la cual X y Wson
continuamente diferenciable en c, luego X tiene un rango constante en alguna
vecindad de c.
Demostracin. Suponemos que Px;w es continuamente diferenciable en c.
puesto que (de acuerdo con el lema 15.11) las funciones continuamente diferenciable, X,W, y Px;w son todos continuos en z = c, de esta manera, sigue
del lema 15.11.3 el cual X tiene un rango constante en alguna vecindad de c.
En el caso especial donde X es una matriz de constantes, o mas generalmente,
donde (para z 2 S) X(z) no varia con zj , formulas (11.1)-(11.3) se reduce a
@Px;w
0
0 @W
= X(X WX) X
(I
@zj
@zj
@W
@(WPx;w )
=
@zj
@zj
@(W

(I

WPx;w )
= (I
@zj

Px;w )
0

Px;w )

(6.91)

Px;w ) ;

@W
(I
@zj

@W
(I
@zj

Px;w ) ;
Px;w ) ;

(6.92)
(6.93)

Las formulas (11.1)-(11.3) puede ser expresado en una forma mas general
haciendo uso del siguiente lema.
Lema 15.11.5 Supongamos que Xn p y Wn n denida simtrica positiva,
y suponte que los elementos de X y W son funciones, denidas en un con0
junto S, de un vector z = (z1 ; :::; zm ) de m variables. Supongamos que c
representa cualquier punto interior (de S) en la cual W y X son continuamente diferenciable, y suponte que X tiene un rango constante en alguna
vecindad de c. mas, supongamos que B representa cualquier matriz p n tal
0
0
que X WXB = X W. Luego, en z = c.
@Px;w
@zj

WPx;w = (I

Px;w )

@W
Px;w + W(I
@zj

Px;w )

@X
B
@zj

(6.94)

166

CAPTULO 6. DIFERENCIACIN DE MATRICES

Demostracin. recordemos del teorema (14.12.11)


Px;w WX = WX
(para toda z en S) y (del teorema 15.11.1 )quePx;w es continuamente diferenciable en c de esta manera (en z = c)
0

@(Px;w WX)
@(WX)
@(WX)
0
=
= Px;w
+
@zj
@zj
@zj

@(Px;w )
@zj

WX ;

Entonces esto
@(Px;w )
@zj

WX = (I
= (I

@(WX)
@zj
@W
0
X+(I
Px;w )
@zj
0

Px;w )

Px;w )W

@X
;
@zj

Implica que
@(Px;w )
@zj

WXB =(I

Px;w )

@W
XB+(I
@zj

Px;w )W

@X
B:
@zj

(6.95)

Adems haciendo uso de la parte (2) y(3) del teorema 14.12.11,igual que
(11.17) puede ser re expresada como la igualdad (11.16)
0
0
Puesto que ningn (@Px;w =@zj) WPx;w ,ni (I Px;w )(@W=@zj)Px;w involucra B, sigue del lema 15.11.5 que W(I Px;w )(@w=@zj )B es invariante
de la seleccin de B, de esta manera puesto que la seleccin de B incluye
h 0
i0
0
0
0
(X WX) X W y (X WX) X W, tenemos que
@X 0
0
(X WX) X W = W(I
@zj

W(I

Px;w )

W(I

Px;w )

Lo cual[puesto W(I
0

WX(X WX)

Px;w )

i0 0
@X h 0
(X WX) X W = W(I
@zj

@X
B
@zj

Px;w )

(6.96)

@X
B;
@zj

Px;w ) es simtrica] es equivalente a

@X
@zj

W(I

Px;w ) = W(I

@X
Px;w )
B
@zj

(6.97)

6.12. EVALUACIN DE ALGUNAS INTEGRALES MLTIPLES

167

Adems , sobre premultiplicar ambos lados de las igualdades (11.18) y (11.19)


por W 1 encontramos que
@X
@X 0
0
(X WX) X W = (I Px;w )
B
(6.98)
(I Px;w )
@zj
@zj
Y
@X
(X WX)
W(I
@zj
0

Px;w ) = W

@X
Px;w )
B
@zj

W(I

Usando los resultados (11.18) - (11.21) y escribir Px;w W


,formulas (11.1) - (11.3) puede ser re expresada como
@Px;w
= (I
@zj

@X
Px;w )
B + W 1 W(I
@zj
@W
+Px;w W 1
(I Px;w ) ;
@zj

@(WPx;w )
@W
=
@zj
@zj
+W(I
@(W

(I

Px;w )

@W
(I
@zj

W(I
(donde Bp

6.12.

(6.100)

(6.101)

Px;w )
@X
Px;w )
B
@zj

@W
(I Px;w )
@zj
@X
B
Px;w )
@zj
@X
Px;w )
B
@zj

para X(X WX) X

Px;w )

W(I

(6.99)

@X
Px;w )
B
@zj

@X
B+ W(I
Px;w )
@zj

WPx;w )
= (I
@zj

(6.102)

tal que X WXB = X W).

Evaluacin de Algunas Integrales Mltiples

Sean x = (x1 ; :::; xn )0 un vector (columna) de n variables x1 ; :::; xn , W una


matriz simtrica n n denida positiva, A una matriz n n y c; k vectores
n 1. Considere la evaluacin de las siguientes 3 integrales:

168

CAPTULO 6. DIFERENCIACIN DE MATRICES


Z

exp

c)0 W (x

(1=2) (x

c) dx;

Rn

(k0 x) exp

(1=2) (x

c)0 W (x

c) dx;

Rn

(x

c)0 A(X

C) exp

(1=2) (x

c)0 w (x

c) dx

Rn

R
[Donde el smbolo Rn f (z)dz es usado para denotar la integral de una funcin
f (z) de un vector z (columnas) de n variables sobre todo Rn ]
Estas 3 integrales son de importancia considerables en probabilidad y estadsticadonde ellas hacienden en conexin con la distribucin normal multivariable (e.g.,Searle 1971,capitulo 2)ellas pueden ser evaluadas, introduciendo un
cambio apropiado de variables y recordando (Desde el calculo integral de una
variable sencilla )que.
Z 1
2=2
e x dx = (2 )1=2 ;
1

xe

x2=2

dx = 0;

x2 e

x2=2

dx = (2 )1=2 ;

Acorde al corolario 14.3.13 halla existe una matriz P no singular n


que W=P0 P .dene
Z = P(x

n tal

c);

As que x = p 1 z+c: Adems, sea J que representa al Jacoviano de P 1 Z+C


(Donde p 1 z + c es considerado como un vector de funciones de Z ) luego,
observar [considerando el resultado (3.10)] que
@ (p 1 z + c)
= p 1;
@z0
Nosotros encontramos que
J= p

= jpj

6.12. EVALUACIN DE ALGUNAS INTEGRALES MLTIPLES

169

y desde jWj = jp0 pj = jpj2 ; nosotros tenemos que


jwj

J=

1=2

De esta manera hacer uso de manera estndar sobre cambio de variables (e.g.,
Batle 1976 seccin 46) encontramos que
Z
exp
(1=2) (x c)0 W (x c) dx
Rn

Rn

= jWj

1=2

exp [ (1=2) z0 z] jJj dz

2
eZ1 =2dz1 :::

1
1

1=2

= (2 )n=2 jWj

eZn =2dzn
(6.103)

Adems supongamos que di representa elR elemento i esimo de el vector


2
1
KP 1 1 n [y observar que (para i = 1::: 1 e Zi =2dzi = 0)],encontramos
que
Z
exp
(1=2) (w c)0 W (x c) dx
Rn

(k c)
+

exp

(1=2) (x

c)0 W (x

c) dx

Rn

k0 (x

c) exp

c)0 W (x

(1=2) (x

c) dx

Rn

(k0 c) (2 )n=2 jWj


+

Rn

k0 p 1 z exp [ (1=2) z0 z] jJj dz


(k0 c) (2 )n=2 jWj

+ jWj

1=2

n
X
i=1

di

1
1

1=2

zi e

Zi2 =2

dzi

s 6= i

1=2

1
1

Zs2 =2

dzi

1
1

Zs2 =2

dzs

170

CAPTULO 6. DIFERENCIACIN DE MATRICES

= (k0 c) (2 )n=2 jWj

1=2

(6.104)

Y supongamos que bij representa el elemento ij esimo de la matriz (P 1 ) AP


0
1
n
n y recordando el lema 5.21[y observa que (P 1 ) = (P 1 ) ], encontramos que
Z
(x c)0 A (x c) exp
(1=2) (x c)0 W (x c) dx
Rn

z0 P

1 0

Rn

jWj
jWj

i;j6=i

bij

1=2

1=2

bij

bij

i=1

zi e

Zi2 =2

dzi

jWj

1=2

n=2

(2 )

n=2

(2 )

Rn

i;j

AP 1 z exp [ (1=2) z0 z] jJj dz

zi zj exp [ (1=2) z0 z] jJj dz

2
zi2 e Zi =2 dzi

zj e

Zj2 =2

s 6= i

dzj

Zs2 =2

dzs

s 6= i; j

bij (2 )1=2 (2 )(n

1
1

Zs2 =2

dzs g

1)=2

i;j

jWj

1=2

jWj

1=2

(2 )n=2 jWj

tr

tr AP
1=2

1 0

AP

tr AW

P
1

1 0

i
i
(6.105)

Formulas (12.1)-(12.3) puede ser considerada como casos especiales de la


formula dada por el siguiente teorema.
TEOREMA15.12.1 Sea B que representa una matriz denida n n, sea
b que representa un vector de n columnas y sea b0 y a0 que representa los
escalares, luego,
Z
(a0 + a0 x + x0 Ax) exp [ (b0 + b0 x + x0 Bx)] dx
Rn

6.12. EVALUACIN DE ALGUNAS INTEGRALES MLTIPLES

= (1=2)

tr AB

n=2

1=2

jBj

exp (1=4) b0 B 1 b

171

b0

a0 B 1 b + (1=2) b0 B 1 AB 1 b + 2a0

(6.106)

DEMOSTRACION. Esto nalmente muestra que


c)0 w (x

b0 + b0 x + x0 Bx = (1=2) (x

Donde W = 2B; c = (1=2) B 1 b; y f = b


fcilmente muestra que

(1=4) b0 B 1 b: esto tambin

c)0 A (x

(a0 + a0 x + x0 Ax) = (x

c) + f;

c) + K0 x + g;

Donde k = a (1=2) (A + A0 ) B 1 b y g = a0 (1=4) b0 B 1 AB 1 b:De esta


manera hacer uso del resultado (12.1)-(12.3)[y observar que b0 B 1 AB 1 b =
0
b0 B 1 AB 1 b = b0 B 1 AB 1 b]
Z
(a0 + a0 x + x0 Ax) exp [ (b0 + b0 x + x0 Bx)] dx
Rn

=e

c)0 A (x

g + k0 x + (x

exp

c)

c)0 w (x

(1=2) (x

c) dx

Rn

=e

n=2

g (2 )

1=2

jWj

+ (k c) (2 )

= (2 )n=2 jWj
= (2 )n=2 2

n=2

jBj

1=2

n=2

1=2

n=2

jBj

1=2

n=2

+ (2 )

g + (k0 c) + tr AW

exp (1=4) b0 B 1 b

(1=2) a0 B 1 b + (1=4) b0 B
= (1=2)

jwj

1=2

b0

[a0

jWj

1=2

tr AW

(1=4) b0 B 1 AB 1 b

(A + A0 ) B 1 b+ (1=2) tr AB

exp (1=4) b0 B 1 b

b0

[tr AB

+ (1=2) b0 B 1 AB 1 b + 2a0 ]

a0 B 1 b

172

6.13.

CAPTULO 6. DIFERENCIACIN DE MATRICES

Ejercicios

Seccion15.1
1. Usando el resultado de la parte (c) del ejercicio 6.2, muestra que toda bola
abierta de un punto x en Rmx1 es un conjunto abierto.
2. Sea f que representa una funcin denida sobre un conjunto de un vector
x = (x1 ::::::xn )0 de m variables, supongamos que s contiene al menos algunos
puntos interiores, y sea c que representa un punto un punto arbitrario de esos,
vericar si f en tiempos k diferenciables, continuamente en c; luego f es k
veces diferenciable continuamente en cada punto de algunas bolas abiertas
de c:
3. Sea X = fxij g que representa alguna matriz m n derivables mn; y sea
x que representa un vector columna dimensional mn obtenido por cambio
de elemento de X (en la forma de un vector columnas).Adems sea S que
representa un conjunto de valores de X; y sea S que representa un conjunto correspondientes de valores de x (i:e:;la serie obtenida por cambiar los
elementos de cada matriz m
n en S en la forma de un vector columna).
Vericar que un vector de columna dimensional mn en un punto interior de
S si y solo si existe un nuevo arreglo de una matriz m
n que un punto
interior de S.
4. Sea f que representa una funcin cuyo dominio es un conjunto S en
Rmx1 (que contiene al menos unos puntos interiores). Muestra que la matriz
H f hessian de f es la matriz inclinacin de del vector (Df )0 inclinacin
de f .
Seccin 15.2
5.Sea g que representa una funcin denida sobre un conjunto S de un vector
x = (x1 ; :::; xn )0 de m variables, sea S (x 2 s : g (x) 6= 0) y se c que representa cualquier punto interior de S en el cual g es diferenciable continuamente
(incluir formulas (2.16) y (2.8)para mostrar que cualquier numero entero k
positivo)g k es diferenciable continuamente en c y
@g k
=
@xj

kg

k 1

@g
;
@xj

Por medio de eso generalizar formula (2.8) y establecer que la formula (2.16)
es valido para los valores negativos (as como positivo) de k
Seccin 15.4
6. Sea F que representa una matriz p
p de funciones denida sobre un
0
conjunto S de un vector x = (x1 ; :::; xn ) de m variables, sea c que representa

6.13. EJERCICIOS

173

cualquier punto interior de S en el cual F es diferenciable continuamente.


Muestra que si F es idempotent en todos los puntos de alguna bola abierta
de c; luego (en x = c)
F

@F
F=0
@xj

7. Sea g que representa una funcin denida sobre un conjunto S de un


vector x = (x1 ; :::; xn )0 de m variables, sea f que representa cualquier vector
p 1 de funciones (denida en S)de x: Sea c que representa cualquier punto
interior (de S) en el cual g y f son diferenciable continuamente. Muestra que
gf es diferenciable continuamente en c y que (en x = c)
@ (gf )
@g
@f
= f 0 + 0:
0
@x
@x
@x
Seccin 15.6
8. (a) Sea X = fxij g que representa alguna matriz m
independientes y suponga que X recorre sobre todo Rmxn
(1)Muestre que para cualquiera de las matrices m p y n
AyB

n derivables
p de constante

@ tr (AXB)
= A0 B0 :
@X
[surg: Observa que tr(AXB) =tr(BAX)]
(2)Muestre que para cualquier vector a y b de columnas dimensinales
myn
@ (a0 Xb)
= ab0 :
@X
[surg: Observar que a0 Xb = tr(a0 Xb) :]
(b) Suponga que X es una matriz simtrica (pero de otro modo libre) de
dimensiones m n
(1)Muestre que para cualquier de las matrices p m y m p de constante
AyB
@ tr (AXB)
= C + C0 diag (c11 ; c22 :::cmm ) ;
@X
Donde C = fcij g = AB:
(2)Muestre que para cualquier vectores columnas a = fai g y b = fbi g ;

174

CAPTULO 6. DIFERENCIACIN DE MATRICES

@ (a0 Xb)
= ab0 + ba diag (a1 b1 ; a2 b2 ::::am bm ) :
@X
9.(a)Sea X = fxst g que representa alguna matriz m n derivables independientes y suponga que X tiene la libertad de recorre sobre todo Rmxn :Demuestre
que para cualquier matriz n m de constante A
@ tr (AX)2
= 2 (AXA)0 :
@X
(b) Sea X = fxst g que representa alguna matriz de variables simtrica m
m(perodeotromodolibre):M uestrequeparacualquiermatrizm m de constante A
@ tr (AX)2
= 2 [B + B diag (b11 ; b22 :::bmm )] ;
@X
Donde B = fbst g = AXA:
10. Sea X = fxij g que representa una matriz m
n derivables independientes, y suponga que X tiene la libertad de recorre sobre todo Rmxn :Demuestre
que, para k = 2; 3; ::::;
@ tr Xk
k 1
= k (X0 ) ;
@X
Por medio de eso generalice el resultado (2.17)
11. Sea X = fxst g que representa una matriz m
n derivables independientes, y suponga que X tiene la libertad de recorre sobre todo Rmxn :
(a)Demuestre que para cualquier matriz de constante A m m
@ tr (X0 AX)
= (A + A0 ) X:
@X
(b)Demuestre que para cualquier matriz de constante A n

@tr (XAX0 )
= X (A + A0 ) :
@X
(c)Demuestre (en el caso especial donde n = m) que para cualquier matriz
de constante A m m
@ tr (XAX)
= (AX)0 + (AX)0 :
@X

6.13. EJERCICIOS

175

(d)Use la formula de la parte (a)-(c) para idear o concebir simples formulas @tr(X0 X) =@X;@tr(XX0 ) =@X; y (en el caso especial donde n = m)@ tr(X2 ) =@X:
Seccin 15.7
12. Sea X = fxij g que representa una matriz m m: Sea f que representa
una funcin de X denida sobre un conjunto S comprender o incluir algunas
o todas las matrices simtricas m m.
Supn que para propsito de diferenciacin, f esta interpretada como una
funcin del vector x columna dimensional [m (m + 1) =2] ; cuyos elementos
son xij (j i = 1; ::::; m) :Supn adems que all existe una funcin g; cuyo
dominio es un conjunto T de matrices simtricas no necesariamente que
contiene S como un subconjunto propia tal que g (X) = f (X) para X 2 S;
as que g es una funcin de X y f es la funcin obtenida por limitar el
dominio de g a S: Dene S = (x : X 2 S) :sea c que representa un punto
interior de S ;y sea C que representa el valor correspondiente de X: Muestra
que si C es un punto interior de T y si g es diferenciable continuamente en
C; luego f es diferenciable continuamente en C:y que (en x = c)
@g
@f
=
+
@X
@X

@g
@X

diag

@g
@g
@g
;
; :::;
@X11 @X22
@Xmm

13. Sea h = fhi g que representa un vector de funciones n x 1; denida sobre


un conjunto S; de un vector x = (x1; :::; xn )0 de m variables, sea g que
representa una funcin denida sobre un conjunto T; de un vector y =
(y1; :::; yn )0 de n variables. Supn que h (X) 2 T para todo x en S; y toma
f para ser la funcin compuesta denida (en S)por f (x) = g [h (x)] : Muestra
que si h es dos veces diferenciable continuamente en un punto interior c de S
y si g es dos veces diferenciable continuamente en h (c)[asumir que h (c) es
un punto interior de T], luego si f es dos veces diferenciable continuamente
en c y

Hf (c) = [Dh (c)]0 Hg [h (c)] Dh (c) +

n
X

Di g[h (c) Hhi (c) :

i=1

Seccin 15.8
14. Sea X = fxij g que representa una matriz m
m de variables independientes m2 (donde m
2) y Supn que el rango de X comprende todo
Rmxn :Muestra que (para cualquier numero entero k positivo)la funcin f

176

CAPTULO 6. DIFERENCIACIN DE MATRICES

denida (en Rmxn )por f (x) = jXjk es diferenciable continuamente en todo


X y que
@ jXjk
= k jXjk
@X

[adj (X)]0 :

15. Sea F = fxis g que representa una matriz de funciones p


p; denida
sobre un conjunto S; de un vector x = (x1 ::::::xm )0 de m variables. Sea c
que representa cualquier punto interior (de S) en el cual F es diferenciable
continuamente. Use los resultado del ejercicio 13.10 para mostrar que (a) si
el rango [F (c)] = p 1; luego (en x = c)
@ det (F)
@F
= ky 0
z;
@xj
@xj
Donde z = fzs g y y = fyi g son vectores dimensinales-p no nulos tal que
F (c) z = 0 y [F (c)] y = 0 y donde [supongamos is ;representa el cofactor
de f is (c)] k es un escalar que se puede expresar como k = is = (yi zs )para
cualquier i y s tal que yi 6= 0 y zs 6= 0; y (b)si el rango [F (c)] p 2;luego
(en x = c)
@ det (F)
= 0:
@xj
16.Sea X = fxst g que representa una matriz de variables independientes m
n, sea A que representa una matriz de constantes m m; y supn que el
rango de X es un conjunto S comprendiendo algn o todos los valores de X
para el cual det (X0 AX) > 0 ,Muestra que log(det (X0 AX))es diferenciable
continuamente en cualquier punto interior c de S y que (en x = c)
@ log(det (X0 AX))
= AX (X0 AX)
@X

h
+ (X0 AX)

i0
X0 A :

17.(a)Sea X que representa una matriz de variables independientes m n;


sea A y B que representa matrices de constantes q m; y n q; y supn que
el rango de X es un conjunto S comprendiendo algn o todos los valores de X
para el cual det (X0 AX) > 0 ,Muestra que log(det (X0 AX))es diferenciable
continuamente en cualquier punto interior c de S y que (en x = c)
@ log(det (AXB))
= B (AXB)
@X

A :

6.13. EJERCICIOS

177

(b)supn ahora que X es una matriz simtrica m


m; que A y B son
matrices de constantes q
m; y m
q que, para propsito de diferenciar
cualquier funcin de X, la funcin es para ser interpretada como una funcin
del x columnas cuyos elementos son xij (j i = 1; :::; m) y que el rango de
x es un conjunto S comprendiendo algn o todos los valores de x para el
cual det (X0 AX) > 0 ,Muestra que log(det (X0 AX))es diferenciable continuamente en cualquier punto interior c de S y que (en x = c)
@ log(det (AXB))
= K + K0
@X

diag (k11 ; k22 :::kqq ) ;

Donde K = fkij g = B (AXB) 1 A:


18. Sea F = fxis g que representa una matriz de funciones p
p; denida
sobre un conjunto S; de un vector x = (x1; :::; xm )0 de m variables, y sea
A y B que representa matrices de constantes q
p; y p q: Supn que S
es el conjunto de todos los valores de x para el cual F (x)es no singular y
det AF 1 (x) B > 0, o es un subconjunto de de ese conjunto.
Muestra que F es diferenciable continuamente en un punto interior c de S;
luego log(det(AF 1 B)) es diferenciable continuamente en c y (en x = c)
@ log(det AF 1 B )
=
@Xj

tr F 1 B AF 1 B

AF

@F
:
@Xj

19. Sea A y B que representa matrices de constantes q m; y m q:


(a)Sea X que representa una matriz m
m de variables independientes
2
m y supn que el alcance o extensin de X es un conjunto de S comprendido algunos o todos los valores de X para el cual X es no singular
y det(AX 1 B) > 0;use el resultado del ejercicio 18 para demostrar que
log(det(AX 1 B)) es diferenciable continuamente en cualquier punto interior
c de S y que (en x = c)
@ log(det AX 1 B)
=
@Xj

tr X B AX B

AX

i0

(b)supn ahora que X es una matriz simtrica m


m; eso para propsito
para diferenciar cualquier funcin de X; la funcin es para ser interpretada como una funcin del vector x columnas cuyos elementos son xij (j i = 1; :::; m)
y que el alcance o extensin de x es un conjunto de S comprendiendo algn o

178

CAPTULO 6. DIFERENCIACIN DE MATRICES

todos los valores de x para el cual det AX 1 B > 0 use el resultado del ejercicio 18 para demostrar que log(det(AX 1 B)) es diferenciable continuamente
en cualquier punto interior c de S y que (en x = c)
@ log(det AX 1 B)
@Xj

K + K0

diag (k11 ; k22 :::kqq ) ;

Donde K = fkij g = X 1 B AX 1 B
AX 1 :
20.Sea F = ff is gque representa matrices de funciones p p denida sobre un
conjunto S; de un vector x = (x1; :::; xm )0 de m variables. Sea c que representa
cualquier punto interior de S en el cual es diferenciable continuamente por
ejemplo usar el resultado de la parte (b) del ejercicio 13.10.Muestre que si el
rank [F (c)] p 3;luego
@adj (F)
= 0:
@Xj
21. (a) Sea X que representa una matriz m
m de variables independientes m2 ;supn que el rango de X es un conjunto S comprendiendo algn o
todos los valores de X para el cual X es no singular. Muestre que (cuando
los elementos son considerados como funciones de X) X 1 es diferenciable
continuamente en cualquier punto interior c de S y que (en x = c)
@X 1
=
@xij

yi z0j ;

Donde yi representa la columna i esima y z0j la la j esima de X 1


(b)supn ahora que X es una matriz simtrica m m; eso para propsito de
diferenciar una funcin de X; la funcin va ser interpretada como una funcin
del vector x columnas cuyos elementos son xij (j i = 1; :::; m) y que el rango
de x es un conjunto comprendiendo algn o todos los valores de x para el
cual X es no singular. Mostrar que X 1 es diferenciable continuamente en
cualquier punto interior c de S y que (en x = c)
@X 1
=
@xij

yi yj0 ;
si j = i;
0
0
yi yj yi yj ; si ji

Donde yi representa la columna i esimo de X 1


Seccin 15.9
22. Sea X que representa una matriz m
m de variables independientes
2
m ; supn que el rango de X es un conjunto S comprendiendo algn o todos

6.13. EJERCICIOS

179

los valores de X para el cual X es no singular, y C que representa un punto


interior de S: Denotar el elemento ij esimo de X 1 por yij ;la columna
j esima de X 1 por yj ; y la la i esima de X 1 por zi0
(a)Muestre que X 1 es dos veces diferenciable continuamente en C que (en
x = c)
@2X 1
=
@xij @xst

yjs yi z0t + yti ys z0j :

(b)Supn que det(X) > 0 para todo X en S: Muestre log(det (X)) es dos
veces diferenciable continuamente en C y que (en x = c)
@ 2 log(det (X))
= yti yjs :
@xij @xst
23.Sea F = ff is gque representa matrices de funciones p p denida sobre
un conjunto S; de un vector x = (x1; :::; xm )0 de m variables. Para cualquier
conjunto no vaci T = ft1; :::; tm g ;cuyos miembros son nmeros enteros entre
1 y m; denida D(T ) = @F=@xt1 :::@xts :Sea k que representa un nmero
entero positivo, para i = 1; :::; k; sea ij que representa un nmero entero
arbitrario entre 1 y m inclusive.
(a)Supn que F es no singular para todo x en S: y denotar por c cualquier
punto interior (de S) en el cual F es k veces diferenciable continuamente en
c y que (en x = c)

@F 1
@xji :::@xjk
k
X
X

( 1)r F 1 D(T1 )F 1 D(T2 ):::F 1 D(Tr )F 1 ;

(E;1)

r=1 T1 :::Tr

Donde T1; :::; Tm son mutuamente exclusivo y exhaustivo subconjuntos r no


vacos de fj1; :::; jm g (y donde la segunda recapitulacin es sobre todos posibles opciones para T1; :::; Tr ).
(b)Supn que Fdet (X) > 0 para todo X en S; y denota por c cualquier
punto interior (de S) en el cual F es k veces diferenciable continuamente.
Muestre que log (det (F)) es k veces diferenciable continuamente en c de S
y que (en x = c)

@ log (det (F))


@xji :::@xjk
k
X X

( 1)r+1 tr[F 1 D(T1 )F 1 D(T2 ):::F 1 D(Tr )F 1 ]; (E;2)

r=1 T1 :::Tr

180

CAPTULO 6. DIFERENCIACIN DE MATRICES

Donde T1; :::; Tm son mutuamente exclusivo y exhaustivo subconjuntos r no


vacos de fj1; :::; jm g conjk 2 Tr (y donde la segunda recapitulacin es sobre
todos posibles opciones para T1; :::; Tr ).
Seccin 15.10
24.Sea X = fxij g que representa una matriz simtrica m
m; y sea x que
representa un vector columna dimensional [m (m + 1) =2] ; cuyos elementos
son xij (j i = 1; ::::; m) :Dena S para que sea el conjunto de todos los
valores de x para el cual X es no singular y S para ser el conjunto de todos
los valores de x por el cual X es denida positiva. Muestre que S y S son
ambas conjuntos abiertos.
Seccin 15.11
Sea X que representa una matriz de constante h p: Sea W que representa
una matriz denida simtrica positiva n n cuyos elementos son funciones
denida sobre un conjunto S de un vector z = (z1; :::; zm )0 de m variables.
Adems sea c que representa cualquier punto interior de S en el cual W
es dos veces diferenciable continuamente. Muestre que W WPx;w es dos
veces diferenciable continuamente en c y que (en x = c)
@ 2 (w wpx;w )
= (I
@zi @zj
[(I

px:w )
p0x:w )

p0x:w )

(I

@w
@w
x(xwx)x
(I
@zi
@zj

@w
@w
x(xwx)x
(I
@zi
@zj

px:w )

px:w )]

Suministre una derivacin alternativa de la formula (11.23) para @(wpx:w )=@zj


por uso de la parte (60 ) del teorema 14.1211 para obtener la representacin
@(wpx:w )
@wpx:w
@w
= px:w w
+ px:w
px:w
@zj
@zj
@zj
@px:w
@zj

wpx:w

Captulo 7
El producto kronecker
Muchas de las matrices particionadas encontradas en estadsticas son expresables en trminos de 2 (o ms) matrices (de dimensiones relativamente
pequeas) en forma de algo llamado un producto kronecker. En la Seccin
16.1, la denicin de un producto kronecker de matrices es dada, y se presenta
un buen nmero de resultados en los productos kronecker. Estos resultados
pueden ser aplicados para los propsitos computacionales (y otros).
En las secciones subsecuentes a este captulo, la nocin introducida en el
Captulo 15 (en relacin con la diferenciacin de una funcin de una matriz)
de reestructurar (no redundante) los elementos de una matriz en la forma
de un vector columna es formalizado introduciendo algo llamado el operador
vec o vech. Se presenta un nmero de resultados en el operador vec o vech.
Los productos kronecker aparecen en muchos de estos resultados.

7.1.

16.1. Producto Kronecker

Denicin. El producto kronecker de las matrices A m


se dene como la matriz particionada mp nq
3
2
a11 B a12 B
a1n B
6 a21 B a22 B
anB 7
6
7
A B = 6 ..
..
.. 7 .
4 .
.
. 5
am1 B am2 B

ny Bp

amn B

Cada componente de A B es el producto de un elemento de A y un elemento


de B. Especcamente, para 1 r p, 1 s q, 1 i m y 1 j n,
181

182

CAPTULO 7. EL PRODUCTO KRONECKER

el elemento que aparece en la [p (i


columna de A B es aij brs .

1) + r]-simo la y [q (j

1) + s]-sima

Ntese que a diferencia del producto ordinario de matrices AB de A y B


(el cual se dene slo en el caso p = n), el producto Kronecker A B se
dene para cualesquier par de matrices A y B, sin depender de sus tamaos.
Ntese adems que el producto Kronecker B A de B y A es del mismo
tamao, (mp nq), que A B, pero la igualdad A B = B A se obtiene
slo en casos muy especiales, por tanto es ms factible que la igualda no se
d. Por ejemplo, si m = n = q = 2 y p = 3, entonces

2
a11 b11
6a11 b21
6
6a11 b31
B=6
6a21 b11
6
4a21 b21
a21 b31

2
b11 a11
6b11 a21
6
6b21 a11
A=6
6b21 a21
6
4b31 a11
b31 a21

a11 b12
a11 b22
a11 b32
a21 b12
a21 b22
a21 b32

a12 b11
a12 b21
a12 b31
a22 b11
a22 b21
a22 b31

b11 a12
b11 a22
b21 a12
b21 a22
b31 a12
b31 a22

b12 a11
b12 a21
b22 a11
a22 b21
b32 a11
b32 a21

3
a12 b12
a12 b11 7
7
a12 b11 7
7,
a22 b12 7
7
a22 b22 5
a22 b32

3
b12 a12
b12 a22 7
7
b22 a12 7
7.
a22 b22 7
7
b32 a12 5
b32 a22

En algunas presentaciones, A B es llamada el producto directo o producto


tensorial de A y B, el lugar de producto Kronecker.
Para un escalar k y una matriz m
k

A=A

(7.1)

k = kA,

como es evidente a partir de la denicin de producto Kronecker.


Si
a = [a1
entonces

an ]T 2 Rn y b = [b1

bm ]T 2 Rm ,

7.1. 16.1. PRODUCTO KRONECKER

183

(7.2)

3
a1 b
6 a2 b 7
6
7
b = 6 .. 7
4 . 5

an b

es un vector columna particionado de Rnm . Adems,


aT

bT = a1 bT

an bT

(7.3)

es un vector la particionado de Rnm y


bT = bT

a
es la matriz n

a = abT

(7.4)

m que tiene en la posicin (i; j) a ai bj .

Sea B una matriz p

q. Claramente,
0

B=B

(7.5)

0 = 0.

Ms an, si D es la matriz diagonal diag(d1 ; :::; dm ) m

(7.6)

B = diag(d1 B; :::; dm B).

En el caso especial D = Im , (7.6) se convierte en


(7.7)

B = diag(B; :::; B),

I
y si adems B = Ip , entonces

Im

Ip = Imp .

(7.8)

Siendo k representa un escalar arbitrario y A y B matrices arbitrarias, es


fcil ver que el efecto sobre el producto Kronecker A B de reemplazar uno
de los dos A o B por el multiplo escalar kA o kB es como sigue:
(kA)

B=A

(kB) = k(A

B)

(7.9)

Otra propiedad fcil de vericar de los productos Kronecker es que, para


algunas matrices A y B m n y alguna matriz C p q,

184

CAPTULO 7. EL PRODUCTO KRONECKER

C = (A

C) + (B

C),

(7.10)

(A + B) = (C

D) + (C

B).

(7.11)

(A + B)
C

Los resultados (1.11) y (1.12) pueden usarse para mostrar que, para algunas
matrices A y B m n y algunas matrices C y D p q,
(A + B)

(C + D) = (A

D) + (A

D) + (B

C) + (B

D). (7.12)

Ms generalmente, los resultados (1.11) y (1.12) pueden usarse para mostrar


que, para algunas matrices A1 ; A2 ; :::; Ar m n y matrices B1 ; B2 ; :::; Bs
p q.
X
X
XX
(
Ai ) (
Bj ) =
(Ai Bj ) ,
(7.13)
i

Ntese que, en el caso especial donde r = s = 2, el resultado (1.14) reduce


esencialmente al resultado (1.13).
Considere ahora la transpuesta (A B)T del producto Kronecker de una
matriz A = faij g m n y una matriz B p q. Se sigue del resultado (2.2.3)
(junto con la misma denicin de un producto Kronecker) que (A B)T es
una matriz particionada, comprendiendo n las y m columnas de bloques
dimensionales q p, el ij-simo del cual es aji BT . Como aji BT es tambin
el ij-simo bloque de AT BT ,
(A

B)T = AT
T

BT .

(7.14)

Ntese que, en constraste [(AB) = B A ] para la transpuesta del producto


de 2 matrices .ordinarias", (A B)T en general no es igual a BT AT . Ntese
que si A y B son ambas simtricas, entonces se sigue del resultado (1.15) que
(A

B)T = A

B;

que es, el producto Kronecker de matrices simtricas es simtrica.


El lema siguiente proporciona una base para extender la denicin de un
producto kronecker de tres o ms matrices.
Lema 16.1.1. Para alguna matriz A = faij g m
una matriz C u v,

n, matriz B = fbij g p

q,

7.1. 16.1. PRODUCTO KRONECKER

(B

185

C) = (A

B)

(7.15)

C.

Demostracin. Sea G = A (B C) y H = (A B) C. podemos


mostrar que G = H. La particin G entre m las y n columnas de bloques
dimensionales pu qv, y denote el ij-simo de esos bloques por Gij = aij (B
C). Para cada i y j, la particin Gij entre p las y q columnas de bloques
dimensionales u v, por eso denimos una particin de G entre mp las y
nq columnas de bloques (u v dimensional). Denote el rs-simo bloque de
Gij por Grs
v dimensional) de G por Gxz .
ij y el xz-simo de los bloques (u
Entonces,
Gp(i

1)+r:q(j 1)+s

(7.16)

= aij brs C.

Ahora, observe que H = F C, donde F = ffxz g = A B. La particin


H entre mp las y nq columas de bloques dimensionales u v, y denote
el xz-simo de esos bloques por Hxz . Entonces, fp(i 1)+r:q(j 1)+s = aij brs , y
consecuentemente
Hp(i

1)+r:q(j 1)+s

= fp(i

1)+r:q(j 1)+s C

= aij brs C,

(7.17)

juntos los resultados (1.17) y (1.18) implica que ( para i,j,r y s arbitrarios)
Gp(i

1)+r:q(j 1)+s

= Hp(i

1)+r:q(j 1)+s .

Concluimos que G = H.
El smbolo A B C se usa para representar el valor de los lados izquierdo
y derecho de la igualdad (1.16), y este valor es llamado como el producto
kronecker de A, B, y C. Esta notacin y terminologa se extiende en forma
obvia a algn nmero nito de matrices.
El siguiente lema establece una conexin entre el producto .ordinario"de productos kronecker y el producto Kronecker de productos ordinarios.
Lema 16.1.2. Para cualesquier matriz A = faij g m
n u, matriz C = fcij g, y matriz D = fdij g,
(A

B) (C

D) = (AC)

(BD) .

n, matriz B = fbij g
(7.18)

186

CAPTULO 7. EL PRODUCTO KRONECKER

Demostracin. Por denicin A B es una matriz particionada, comprendiendo m n columnas de bloques dimensionales p q, el ij-simo del cual
es aij B; y C D es una matriz particionada, comprendiendo n las y u
columas de bloques dimensionales q v, el jr-simo del cual es cjr D. Esto
es, (A B) (C D) es una matriz particionada, comprendiendo m las y u
columnas de bloques dimensionales p v, el ir-simo del cual es la matriz
n
X

(aij B) (cjr D) =

aij cjr BD.

Por el camino de comparacin, (A B) (C D) es una matriz particionada,


comprendiendo m las y u columnas de bloques dimensionales p v, el irsimo del cual es la matriz
fir BD,
donde fir es elPir-simo elemento de AC. La prueba es completada observando que fir =
aij cjr y as que el ir-simo bloque de (AC) (BD) es igual
al ir-simo bloque de
(A B) (C D).
Una implicacin del resultado (1.19) es que el producto de Kronecker A B
de matriz A m n, y una matriz B p q puede ser descompuesta en cada
dos de las siguientes maneras:
A

B = (A

Ip ) (In

B) = (Im

B) (A

Iq ) .

(7.19)

Y, a la luz del resultado (1.4), una implicacin ms es que, para alguna matriz
A m n, matriz C p q, vector b p 1, y vector d n 1,
A

bT (d

C) = bT

A (C

d) = AdbT C.

(7.20)

El resultado (1.19) puede ser extendido (por la aplicacin repetida) al producto ordinario de un nmero ordinario del producto de Kronecker. Tenemos
que

(A1

B1 ) (A2

B2 )

(Ak

Bk ) = (A1 A2

Ak )

(B1 B2

Bk ) ,
(7.21)

7.1. 16.1. PRODUCTO KRONECKER

187

donde (para i = 1; 2; ::::; k) Ai es una matriz dimensional mi mi+1 y Bi es


una matriz dimensional pi pi+1 .
El producto de Kronecker A B de alguna matriz A m m no singular y
alguna matriz B p p no singular es invertible, y
(A

B)

=A

B 1,

(7.22)

como es evidente observar [a la luz de los resultados (1.19) y (1.8)] que


(A

B) A

= AA

BB

= Im

In = Imp .

Ms generalmente, A 1 B 1 es una inversa generalizada del producto kronecker A B de alguna matriz A m n y alguna B p q, como es evidente
observar que
(A

B) A

(A

B) = AA 1 A

BB 1 B = A

B. (7.23)

Considere ahora la traza del producto Kronecker A B de una matriz


A =faij g m m y una matriz B p p. Haciendo uso de la frmula (5.1.7),
encontramos que
tr(A

B) = tr (a11 B) + tr (a22 B) +
+ tr (amm B)
= (a11 + a22 +
amm ) tr(B).

Esto es,
tr(A

(7.24)

B) = tr(A)tr(B).

Ahora, considere el rango del producto Kronecker de una matriz A m n


y una matriz B p q. Entonces A 1 B 1 es una inversa generalizada de
A B, se sigue de los resultados (10.2.1), (1.19), y (1.25) que
rk (A

B) = tr[(A

B) (A

B 1 )] = tr[ AA

BB

] = tr(AA )tr(BB ),

y [de nuevo haciendo uso del resultado (10.2.1) concluimos que


rk (A

B) = rk(A)rk(B).

(7.25)

188

CAPTULO 7. EL PRODUCTO KRONECKER

Ntese que el resultado (1.26) implica que el producto Kronecker A B


dimensional mp nq de una matriz A m n y una matriz B p q tiene rango
la completo si y slo si ambas A y B tienen rango la completo, tiene rango
columna completo si y slo si ambas A y B tienen rango columna completo,
y adems es no singular si y slo si ambas A y B son no singulares.
El producto Kronecker de una matriz particionada m n
3
2
A11 A12 : : : A1c
6A21 A22 : : : A2c 7
6
7
A = 6 ..
..
.. 7
4 .
.
. 5
Ar1 Ar2 : : : Arc

Y una matriz B p q igual a la matriz mp nq obtenida por reemplazar


cada bloque Aij de A con el producto Kronecker de Aij y B; que es,
2
3
A11 A12 : : : A1c
6A21 A22 : : : A2c 7
6
7
6 ..
..
.. 7
4 .
.
. 5
Ar1 Ar2 : : : Arc

2
3
A11 B A12 B : : : A1c B
6A21 B A22 B : : : A2c B7
6
7
B=6
7 (7.26)
..
..
..
4
5
.
.
.
Ar1 B Ar2 B : : : Arc B

Como es fcil vericarlo. Y el producto Kronecker de un vector columna


a = faij g una matriz B que ha sido particionada como B = (B1 ; B2 ; :::; Bk )
es la matriz mp q obtenida por reemplazar cada bloque (B1 ; B2 ; :::; Bk ) de
B con el producto Kronecker de a y Bj ; que es,
A

(B1 ; B2 ; :::; Bk ) = (a

B1 ; a

B2 ; :::; a

Bk ) ,

(7.27)

como es fcil vericarlo.


Suponga ahora que
2
3
A11 A12 : : : A1c
6A21 A22 : : : A2c 7
6
7
A = 6 ..
..
.. 7
4 .
.
. 5
Ar1 Ar2 : : : Arc

Es una matriz particionada cuyos rc bloques A11 ; A12 ; :::; Arc son todos del
mismo tamao, diga (en cual caso A es de dimensiones rm cn) m n. Sea
Uij que representa una matriz r c cuyo ij-simo elemento es 1 y cuyo rc 1
elementos restantes son 0. Entonces,

7.2. 16.2. EL OPERADOR VEC

A=

189

r X
c
X

Uij

Aij ,

(7.28)

i=1 j=1

como es evidente observe que Uij Aij es una matriz particionada rm cn


comprendiendo r las y c columnas de bloques dimensionales m n, el pqsimo del cual es igual Apq , si i = p y j = q, e iguales a 0, si i 6= p o
j 6= q.

7.2.

16.2. El operador Vec

Algunas veces es conveniente (como en la discusin de la matriz diferenciacin en el captulo 15) ordenar los elementos de una matriz A = faij g
m n en la forma de un vector columna mn-dimensional. Es la manera
convencional de hacerlo, sucesivamente en las las primeras, segundas,..., nsimas columnas a1 ; a2 ; :::; an de A una bajo la otra, dando el vector columna
mn-dimensional
2

3
a1
6 a2 7
6 7
6 .. 7 ,
4.5

(7.29)

an

esto es, dando un vector columna particionado comprendiendo n subvectores


de dimensin m, el i-simo del cual es ai .
El vector columna (2.1) mn-dimensional es llamado como el Vec de A piense
de vec como la abreviacin para el vector. Es denotado por el smbolo vec(A)
o algunas veces (cuando los parntesis no son necesitados para claricar)
por vec A. V ec(A) puede ser considerado como el valor asignado a A por
una funcin vector-valor o operador cuyo dominio es Rmxn - este operador es
conocido como el operador vec. Por denicin, suponga, por ejemplo, que
m = 2 y n = 3. Entonces

190

CAPTULO 7. EL PRODUCTO KRONECKER


2 3
a11
6a21 7
6 7
6a12 7
7
vec(A) = 6
6a22 7 .
6 7
4a13 5
a23

Para algn vector columna a,

vec(aT ) = vec(a) = a,

(7.30)

como es evidente de la misma denicin del operador vec. Y, para algn


vector columna a = fai g y un vector columna b n-dimensional,
vec(baT ) = a

b.

(7.31)

Como es evidente del resultado (1.2) observe que la i-sima (de las columnas
m) de baT es ai b.
Claramente, para algn escalar c y una matriz A,
vec(cA) = cvec(A),

(7.32)

y, para algunas matrices A Y B (del mismo tamao),


vec (A + B) = vec(A) + vec(B).

(7.33)

Ms generalmente, para algunos escalares c1 ; c2 ; :::; ck y para algunas matrices k A1 ; A2 ; :::; Ak (del mismo tamao),
vec

k
X
i=1

ci Ai

k
X

ci vec(Ai ),

(7.34)

i=1

como puede ser fcilmente establecido por la aplicacin repetida de los resultados (2.59) y (2.4).
Sea A que representa una matriz m n B una matriz n p, y denote las
primeras, segundas,..., p-simas columnas de B por b1 ; b2 ; :::; bp respectivamente. Entonces,

7.2. 16.2. EL OPERADOR VEC

191

3
Ab1
6Ab2 7
6
7
vec(AB) = 6 .. 7 ,
4 . 5

(7.35)

Abp

como es evidente observar que la j-sima de AB es Abj .Ntese que el resultado (2.7) implica que

vec(AB) = diag(A; A; :::; A)vec(B).

(7.36)

o equivalentemente [a la luz del resultado (1.7)] que

vec(AB) = (Ip

B)vec(B).

(7.37)

El resultado (2.9) es generalizado en el siguiente teorema.


Teorema 16.2.1. Para alguna matriz A m
matriz C p q,
vec(ABC) = (CT

n, una matriz B n

A)vec(B).

p y una

(7.38)

Demostracin. De acuerdo al resultado (2.4.2), B se deja expresar como

B=

p
X

bj uTj ,

j=1

donde (para j = 1; :::; p) bj es la j-sima columna de B y uTj es la j-sima


la de Ip .
Esto es, haciendo uso de los resultados (2.3) y (1.19), encontramos que

192

CAPTULO 7. EL PRODUCTO KRONECKER

"

vec(ABC) = vec A
=

bj uTj

! #
C

vec Abj uTj C

[ CT uj

(Abj )]

CT

A (uj

CT

A vec bj uTj

bj )

X
j

CT

A vec

bj uTj

A vecB.

Tres expresiones alternativas para el vec del producto AB de una matriz A


m n y una matriz B n p puede ser obtenida como en los casos especiales
del resultado (2.10). Una de esas expresiones es dada por el resultado (2.9).
Los otros dos son
vec(AB) = (BT

Im )vec(A),

(7.39)

vec(AB) = (BT

A)vec(Im ).

(7.40)

Considere ahora el producto ABx de una matriz A m n, una matriz B


n p, y un vector x p 1. De acuerdo al resultado (2.2)
ABx = vec(ABx) = vec(xT BT AT ).
As, se sigue del resultado (2.10) que
ABx = (xT

A)vec(B) = A

Para cualesquiera matrices A y B m

xT vec BT .

(7.41)

n,

tr AT B = (vecA)T vecB.

(7.42)

7.2. 16.2. EL OPERADOR VEC

193

para ver esto, sean aj y bj que representan las j-simas columnas de A y


B, respectivamente, y observe que el j-simo elemento diagonal de AT B es
igual a aTj bj , entonces que

tr A B

n
X

aTj bj = aT1 ; aT2 ; :::; aTn

j=1

3 2 3T
b1
a1
6 b2 7 6 a2 7
6 7 6 7
6 .. 7 = 6 .. 7
4 . 5 4.5
bn

= (vecA)T vecB.

an

3
b1
6 b2 7
6 7
6 .. 7
4 . 5
bn

Ntese que el resultado (2.14) implica que el producto interno (usual) de


cualesquiera 2 matrices m n es igual al producto interno (usual) de sus
vecs. Ntese adems que, subsiguiente [ de acuerdo al resultado (5.2.8)]
tr AT B = tr BT A = BAT = ABT , las versiones alternativas de la
frmula (2.14) puede ser obtenida reemplazando tr AT B con tr BT A ; BAT ;
o ABT .
El resultado (2.14) es generalizacin del siguiente teorema.
Teorema 16.2.2. Para cualesquiera matrices A m
y una matriz D n q,
tr AT BCDT = (vecA)T (D

n, B m

p, C p

q,

(7.43)

B) vecC.

Demostracin. Haciendo uso de los resultados (2.14) y (2.10), encontramos


que
tr AT BCDT = (vecA)T vec(BCDT ) = (vecA)T (D

B) vecC.

Ntese [a la luz de los resultados (5.2.39 y (5.1.5)] que


tr AT BCDT = tr DT AT BC = tr CDT AT B = tr BCDT AT y que
T

tr AT BCDT = tr[ AT BCDT ] = tr DCT BT A = tr(ADCT BT ) =


tr(BT ADCT ) = tr(CT BT AD). As, de las versiones alternativas de la frmula (2.15) puede obtenerse reemplazando tr(AT BCDT ) con tr(DT AT BC),
tr(CDT AT B), tr(BCDT AT ), tr(DCT BT A), tr(ADCT BT ), tr(BT ADCT ),

194

CAPTULO 7. EL PRODUCTO KRONECKER

o tr(CT BT AD). Ntese adems [a la luz del resultado (1.7)] que, en el caso
especial donde q = n y D = In , el resultado (2.15) se reduce en efecto a
tr(AT BC) = (vecA)T diag(B; B; :::; B)vecC.

(7.44)

Sea A = (A1 ; A2 ; : : : ; Ak ) que representa una matriz particionada m n que


comprende una sola la de bloques k. Y sea el nj que representa el nmero
de columnas en Aj . Entonces,
2

3
vecA1
6vecA2 7
6
7
V ec(A1 ; A2 ; : : : ; Ak ) = 6 .. 7 ;
4 . 5

(7.45)

vecAk

que es, V ec(A1 ; A2 ; : : : ; Ak ) que es igual a un vector columna mn-dimensional,


comprendiendo k subvectores, el j-simo de que es el vector columna vec(Aj )
mn-dimensional. Para ver esto, observe que ambos V ec(A1 ; A2 ; : : : ; Ak ) y
2

3
vecA1
6 vecA2 7
6
7
6 .. 7 .
4 . 5
vecAk

Es igual a un vector columna particionado mn-dimensional comprendiendo


Pj 1
subvectores nm-dimensional la
s=1 ns + r -simo de que es la columna
P0
del r-sima de Aj (donde s=1 ns = 0).

7.2.1.

16.3. Matrz de la Vec-permutacin

a. Denicin y algunas descripciones alternativas.


Sea A = faij g que representa una matriz m n, y denote la primera,...,nsima columnas de A por a1 ; :::; an respectivamente, y la primera,. . . ,mT
sima-las de A por r1T ; : : : ; rm
respectivamente. Entonces, r1 ; : : : ; rm son
T
las m columnas de A , y, por denicin,

7.2. 16.2. EL OPERADOR VEC

195

3
2 3
a1
r1
6 a2 7
6 r2 7
6 7
6 7
(vecA) = 6 .. 7 y (vecAT ) 6 .. 7 .
4.5
4 . 5
2

an

rm

Ambos (vecAT ) y (vecA) se obtiene reestructurando los elementos de A en


la forma de un vector columna mn-dimensional; sin embargo, ellos se ordenan
la por la en el (vecAT ) en lugar de columna por columna [como en (vecA)].
Por ejemplo, cuando m = 2 y n = 3,
2 3
2 3
a11
a11
6a21 7
6a12 7
6 7
6 7
6a12 7
6 7
7 y (vecAT ) = 6a13 7 .
(vecA) = 6
6a22 7
6a21 7
6 7
6 7
4a13 5
4a22 5
a23
a23
Claramente, (vecAT ) puede obtenerse permutando los elementos de (vecA).
De acuerdo a esto existe una matriz permutacin mn mn, para ser denotada
por el smbolo Kmn tal que
vec(AT ) = Kmn vec(A).

(7.46)

(Esta matriz depende de m y n, pero no en los valores de (a11 ; a12 ; : : : ; amn ).


Por ejemplo,
2
3
1 0 0 0 0 0
60 0 1 0 0 07
6
7
60 0 0 0 1 07
7
K23 = 6
60 1 0 0 0 07 .
6
7
40 0 0 1 0 05
0 0 0 0 0 1

La matriz Kmn es llamada una matriz de la vec-permutacin (e.g., Henderson


y Searle 1979) o, ms normalmente y por razones que llegarn a ser evidente
en la Subsecin c, como una matriz de conmutacin (ej., Magnus y Neudecker
1979).
Como se discuti en la Seccin 16.2, el ij-simo elemento de la matriz A
m n es el [(j 1)m + i]-smo elemento dce vec(A). Y, el es el ij-simo

196

CAPTULO 7. EL PRODUCTO KRONECKER

elemento de A es ji-simo elemento de la matriz AT n m y de acuerdo a


esto es el [(i 1)n + j]-simo elemento de vec(AT ). As, el[(i 1)n + j]-sima
las de la matriz vec-permutacin Kmn es el [(j 1)m + i]-sima la de Imn
(i = 1; : : : ; m; j = 1; : : : ; n).
Ntese que la transpuesta de AT de la matriz A m n es de dimensiones
n m. Se sigue de la misma denicin de una matriz de la vec-permutacin
que
vec(A) = vec[(AT )T ] = Kmn vec(AT ).

(7.47)

El teorema siguiente da una representacin til e informativa para la matriz


de la vec-permutacin Kmn .
Teorema 16.3.1. Sea m y n que representan enteros positivos, y (para
i = 1; : : : ; m y j = 1; : : : :; n) sea Uij = ei uTj dnde ei es la i-sima columna
de Im y uj la i-sima columna de In (en cual caso Uij es una matriz m n
cuyo ij-simo elemento es 1 y cuyos los elementos restantes son 0. Entonces,
Kmn =

m X
n
X

Uij

UTij .

(7.48)

i=1 j=1

Demostracin. Usando los resultados (3.1), (2.4.3), (2.4.5), y (2.10), encontramos que, para cualquier matriz A m n,

Kmn vec(A) = vec(AT ) = vec


=

aij UTij

i;j

vec aij uj eTi

i;j

vec uj aij eTi

i;j

vec[uj eTi Auj eTi ]

i;j

vec UTij AUTij

i;j

X
i;j

Uij

UTij vec(A)

7.2. 16.2. EL OPERADOR VEC

197

y de que, para cualquier vector columna a mn-dimensional,


X

Kmn a =

UTij

Uij

i;j

a.

Basado en el Lema 2.3.2, concluimos que


Kmn =

UTij .

Uij

i;j

A la luz del resultado (1.29), el resultado (3.3) pueden ser reexpresados como

Kmn

UT11
6 UT
6 21
= 6 ..
4 .

3
UT1n
UT2n 7
7
.. 7 .
. 5

UT12
UT22
..
.

UTm1 UTm2

(7.49)

UTmn

Es decir, puede considerarse como una matriz particionada mn mn, comprendiendo m las y n columnas de bloques dimensionales nxm, el ij-simo
de que es la matriz UTij = uj eTi (cuyo ij-simo elemento es 1 y cuyos otros
mn 1 elementos son 0). Por ejemplo,

K23 =

UT11 UT12 UT13


UT21 UT22 UT23

2
1
60
6
60
=6
60
6
40
0

0
0
0
1
0
0

0
1
0
0
0
0

0
0
0
0
1
0

0
0
1
0
0
0

3
0
07
7
07
7.
07
7
05
1

Sea a que representa un vector columna m-dimensional. Entonces, al colocar


A = a en la igualdad (3.1) y resultado (3.2), encontramos [a la luz del
resultado (2.2)] que
a = Km1 a;

a = K1m a.

Sigue (a la luz del Lema 2.3.2) que


Km1 = K1m = Im,

(7.50)

198

CAPTULO 7. EL PRODUCTO KRONECKER

b. Algunas propiedades bsicas.


Se sigue del resultado (3.2) que, para cualquier matriz A mxn,
vec(A) = Knm vec(AT ) = Knm Kmn vec(A)
y de que, para cualquier vector columna a mn-dimensional,

a = Knm Kmn a,
implicando (a la luz del Lema 2.3.2) que
Imn = Knm Kmn .
1
As (a la luz del Lema 8.1.3), Kmn es no singular y Kmn
= Knm . Es ms,
que Kmn es una matriz permutacin, es ortogonal, y por consiguiente KTmn =
1
Kmn
. En resumen, tenemos que Kmn es el no singular y que
1
KTmn = Kmn
= Knm .

(7.51)

Ntese que el resultado (3.6) implica que


KTmm = Kmm ;

(7.52)

es decir, Kmm es simtrica (as como el ortogonal).


Como un caso especial de una frmula para el tr(Kmm ) dado por, por ejemplo,
Magnus y Neudecker (1979, pg. 383), tenemos que

tr(Kmm ) = m.

(7.53)

Para vericar la frmula (3.8), sea ei que representa la i-sima columna Im ,sea
Uij = ei eTj , y observa que eTj ei iguales a 1, si j = i, e igual a 0, si j 6= i.
Entonces, haciendo uso de los resultados (3.3), (1.25), y (5.2.6). Encontramos
que

7.2. 16.2. EL OPERADOR VEC

tr(Kmm ) = tr
=

Uij

199

UTij

i;j

tr Uij

UTij

i;j

tr (Uij ) tr UTij

i;j

[tr (Uij )]2

i;j

tr ei eTj

i;j

X
i;j

7.2.2.

tr

2
eTj ei

2
eTi ei

i;j

m
X

(1)2 = m.

i=1

c. El producto de Kronecker de dos matrices.

Como se discuti en la Seccin 16.1, el producto de Kronecker de dos matrices


B y A no es en general igual al producto de Kronecker de A B de A y B.
Sin embargo, B A puede hacerse igual a A B permutando las columnas
de B A y las las de A B, como es indicado por el teorema siguiente.
Teorema 16.3.2. Para cualquier matriz A m
(B

A) kqn = kpm (A

A = kpm (A

n y la matriz B p

q,

B) ,

(7.54)

B) kqn .

(7.55)

Demostracin. Haciendo uso del teorema 16.2.1, encontramos que, para


cualquier matriz X q n,

200

CAPTULO 7. EL PRODUCTO KRONECKER

(B

A) vecXT = vec AXT BT


h
i
T
= vec BXAT

A) kqn vecX = (B

= kpm vec BXAT


= kpm (A B) vecX.
As,
(B
para cada vector x nq

A) kqn x = kpm (A

1, implicando (a la luz del Lema 2.3.2) que


(B

Ms an,

kqn1

B) x

B) .

A) kqn = kpm (A

= kqn tenemos que


B

A = (B

B) kqn .

A) kqn knq = kpm (A

Como indicamos por el resultado (3.10), el efecto en A B de premultiplicacin y postmultiplicacin por las matrices de la vec-permutacin kpm y knp ,
respectivamente, es intercambiar o onmutar"A y B. por que es debido a este
efecto que las matrices de vec-permutacin son a menudo llamado matrices
de conmutacin.
En los varios casos especiales dnde A B es una la o vector columna. el resultado (3.9) o (3.10) del Teorema 16.3.2 ms simplemente puede declararse,
como indicado por el corolario siguiente.
Corolario 16.3.3. Para cualquier matriz A m

n y vector b m

n,

A = kpm (A

b) ,

(7.56)

b = kmp (b

A) ,

(7.57)

bT

A= A

bT knp ,

(7.58)

bT = bT

A kpn .

(7.59)

7.2. 16.2. EL OPERADOR VEC

201

Ntese que en el caso especial dnde B es un vector la, diga bT y A es un


vector columna, diga a, la igualdad (3.13) o (3.14) reduce a la igualdad
bT

bT ,

a=a

dado previamente en el resultado (1.4).


La traza de la matriz obtenida por premultiplicacin o postmultiplicacin de
un producto Kronecker (de una matriz m n y una matriz n m) por una
matriz de la vec-permutacin se da por el teorema siguiente.
Teorema 16.3.4. Para cualesquiera matrices A y B m
tr

AT

B Kmn = tr Kmn AT

n.

= tr AT B = (vecAT )T Kmn vecB.


(7.60)

Demostracin. Sea ei que representa i-simo columna Im y uj la j-sima


columna de In , y dena Uij = ei uTj que tr AT B Kmn = tr Kmn AT B
es una consecuencia inmediata del Lema 5.2.1. Ms an, haciendo uso de los
resultados (3.3), (1.19), (1.25), (5.2.6), (2.4.5), y (5.2.4), encontramos que

tr[Kmn (A

B)] = tr
=

"

Uij

UTij

tr

Uij

UTij

AT

tr

Uij AT

i;j

i;j

UTij B

i;j

tr Uij AT tr UTij B

i;j

tr ei uTj AT tr uj eTi B

i;j

uTj AT ei eTi Buj

i;j

bij aij

i;j

= tr AT B :

202

CAPTULO 7. EL PRODUCTO KRONECKER

Y a la luz de los resultados (2.14),(3.2) y (3.6), tenemos que

tr AT B

= (vecA)T vecB = (Knm vecAT )T vecB


= (vecAT )T KTnm vecB
= (vecAT )T Kmn vecB.

7.2.3.

d. Relacin entre el vec del producto de Kronecker de dos matrices y el producto de Kronecker de su vecs.

El teorema siguiente relaciona el vec del producto de Kronecker de dos matrices A y B al producto de Kronecker del vecs de A y B.
Teorema 16.3.5. Para cualquier matriz A m

vec (A

B) = (In

Kqm

n y una matriz B p

Ip ) [vec (A)

vec (B)] .

q,

(7.61)

Demostracin. Sea ai que representa la i-sima columna de A y ei la isima columna de In , (i = 1; :::; n). y, sea bj que representa j-sima columna
de B,P
y uj el j-simo P
de Iq (j = 1; : : : ; q). Entonces, escribiendo A y B como
A = i ai eTi y B = i bj uTj y haciendo uso de los resultados (1.14), (2.6),
(1.15), (1.19), (2.3), (1.16), y (3.11), encontramos que

7.2. 16.2. EL OPERADOR VEC

vec (A

B) = vec
=

"

203

ai eTi

bj uTj

i;j

vec[ ai eTi

bj uTj ]

i;j

vec[(ai

uj )T ]

bj ) (ei

i;j

(ei

uj )

(ai

bj )

i;j

(uj

ei

ai )

bj

i;j

(In

Kqm

Ip ) (ej

(In

Kqm

Ip ) [vec ai eTi

ai

uj

bj )

i;j

X
i;j

= (In
= (In
= (In

Kqm
Kqm
Kqm

Ip )

"
"

vec ai eTi

Ip ) vec

bj uTj ]

Ip ) [vec (A)

ai eTi

vec bj uTj

vec

vec (B)] .

bj uTj

!#

e. Determinante de un producto de Kronecker.

7.2.4.

Preliminarmente para derivar una frmula para el determinante de un producto de Kronecker de dos matrices, observe [a la luz de los resultados (1.20)
y (3.10) que, para cualquier
matriz A m n y cualquier matriz B p p,

B = (A Ip ) (In B)
= Kmp (Ip A) Kpm (In B)
= Kmp diag (A; A; :::; A) Kpm diag (B; B; :::; B) .

(7.62)

204

CAPTULO 7. EL PRODUCTO KRONECKER

Considere ahora el determinante del producto de Kronecker A B de una


matriz A m m y una matriz B p p. Aplicando el resultado (3.17) (en el
caso especial dnde n = m y q = p), encontramos [a la luz de los resultados
(13.3.9) y (13.3.5)] que
jA

Bj = jKmp j jAjp jKpm j jBjm .

Y, a la luz del resultado (3.6), tenemos que


jKmp j jKpm j = jKmp Kpm j = jIj = 1.
Concluimos que (para cualquier matriz A m
jA Bj = jAjp jBjm .

7.2.5.

n y cualquier matriz B p

p)

16.4. El Operador Vech.

a. Denicin y caractersticas bsicas.


Los valores de los n2 elementos de una matriz simtrica A n n pueden ser
determinados de los valores de n(n + 1)=2 elementos que estn debajo de la
diagonal [o alternativamente de n(n+1)=2 elementos que estn por encima de
la diagonal]. Reordenando los elementos de A en un vector, podemos excluir
los n(n + 1)=2 "duplicados"elementos. Este sera el caso s, por ejemplo, sea
A una matriz (simtrica) de variables y sus objetivos ser la diferenciacin
de una funcin A.
Sea A = faij g que representa una matriz n n (simtrica o no simtrica).
Para obtener el vec de A, sucesivamente agrupamos la primera, segunda,...,nsima columnas a1 ; a2 ; :::; an de A una debajo de la otra. Consideremos una
modicacin de estos procesos en el cual (antes o despus del agrupamiento)
los n(n 1)=2 elementos "supradiagonal"de A son eliminados de a1 ; a2 ; :::; an .
EL resultado es el vector [n(n 1)=2]-dimensional
2 3
a1
6a 7
6 27
(7.63)
6 .. 7 ,
4.5
an
donde (para i = 1; 2; :::; n) ai = (aii ; ai+1;i ; :::; ani )T es el subvector de ai
obtenido por la agrupacin de sus primeros i 1 elementos. As, por denicin,
el vector (4.1) es un subvector del vector A obtenido por la agrupacin de

7.2. 16.2. EL OPERADOR VEC

205

un conjunto en particular, en especial el caso donde A es simtrica, duplica


los elementos.
Siguiendo Henderson y Searle (1979), nos referimos al vector (4.1) como
vech(A) _ pensar de vech como inicio de una abreviacin para "vector
medio , se denota este vector por el smbolo vech(A) o simplemente por
vech A. lo mismo que vec A, vech A. puede ser estimado como el valor asignado para A por una funcin evaluada en un vector operador el dominio
de esta funcin es Rnxn .
Para n = 1; n = 2, y n = 3,
2 3
a11
6a21 7
2 3
6 7
a11
6a31 7
7
vechA = (a11 ) ; vechA = 4a21 5 , y vechA = 6
6a22 7 , respectivamente.
6
7
a22
4a32 5
a33

Por el camino de comparacin,

2 3
a11
6a21 7
6 7
6a31 7
6 7
2 3
6a12 7
a11
6 7
7
4
5
vecA = (a11 ) ; vecA = a21 ,y vecA = 6
6a22 7 , respectivamente.
6a32 7
a22
6 7
6a13 7
6 7
4a23 5
a33

Observe que el nmero total de elementos en los j-simos vectores a1 ; a2 ; a3 ; :::; aj


es
n + (n

1) + (n

2) + ::: + n

(j

1) = nj
= nj

(0 + 1 + 2 + ::: + j
j(j 1)=2

1)

y que, de los n (j 1) = n j +1 elementos de aj , hay (para i j) n i elementos que llegan despus de aij . Como nj j(j 1)=2 = (j 1) (n j=2)+

206

CAPTULO 7. EL PRODUCTO KRONECKER

i,se sigue que (para i j) el ij-simo elemento de A es el [(j 1) (n j=2) + i]simo elemento de vech A. Por camino de comparacin , el ij-simo elemento de A es (como se discuti en la seccin 16.2), as que (para i j) el
[(j 1) n + i]-simo elemento de vec A es el [(j 1) (n j=2) + i]-simo elemento de vech A.
Por ejemplo, cuando n = 8, encontramos
[siendo i = 7 y j = 5 y observando que (j 1) n + i = 39 y que (j 1) (n j=2) + i = 29]
que a75 es el 39-simo elemento de vec A y el 29-simo elemento de vech A.
Sea c1 ; c2 ; :::; ck que representa cualesquiera k escalares, y sea A1 ; A2 ; :::; Ak
que representa cualesquiera k matrices cuadradas (de el mismo orden). Entonces,

vech

k
X

ci Ai

i=1

k
X

ci vech(Ai ),

(7.64)

i=1

como es evidente del resultado (2.6) observando que el vech de cualquier


matriz(cuadrada) es un subvector de ese vec.

7.2.6.

b. La matriz Duplicacin.

Cada elemento de la matriz simtrica A n n, y cada elemento de vec A,


es un elemento de vech A o un "duplicado"de un elemento de vech A. As,
existe una nica matriz f[n2 n (n + 1) =2]g-dimensional, denotada por el
smbolo Gn , tal que

vecA = Gn vechA
Para cada matriz simtrica A n
cacin.
Claramente,

(7.65)

n. Esta matriz es llamada la matriz dupli-

7.2. 16.2. EL OPERADOR VEC

2
1
60
G1 = (1) ; G2 = 6
40
0

0
1
1
0

207

2
1
60
6
60
3
6
0
60
6
07
7 , y G3 = 60
6
05
60
6
1
60
6
40
0

0
1
0
1
0
0
0
0
0

0
0
1
0
0
0
1
0
0

0
0
0
0
1
0
0
0
0

0
0
0
0
0
1
0
1
0

3
0
07
7
07
7
07
7
07
7.
07
7
07
7
05
1

Ms generalmente (para un entero positivo arbitrario n), la matriz Gn puede


ser descrita en trminos de esas las o columnas. Para i j; el [(j 1) n + i]simo y [(i 1) n + j]-simas las de Gn igual a la [(j 1) (n j=2) + i]sima la de In(n+1)=2, que es, ellos iguales a la [n(n + 1)=2]- dimensional
vector la cuyo [(j 1) (n j=2) + i]-simo elemento es 1 y permaneciendo
cuyos elementos son 0. Y (para i j), la [(j 1) (n j=2) + i]-sima columna de Gn es un vector columna n2 -dimensional cuyo [(j 1) n + i]-simo y
[(i 1) n + j]-simo elementos son 1 y cuyos n2 1 (si i = j) o n2 2 (si
i > j) elementos son 0.
La matriz Gn es de rango columna completo, que es,
rk (Gn ) = n (n + 1) =2.

(7.66)

Para ver esto, observe que las columnas de Gn son ortogonales (desde que
cada la de Gn contiene slo un elemento no cero) y son no nulos. O, alternativamente, observe que cada la de In(n+1)=2 es una la de Gn y que Gn
contiene n(n + 1)=2 las linealmente independientes.
Ahora, para propsitos de derivar una frmula recursiva para Gn , sea B que
representa una matriz arbitraria (n + 1) (n + 1), y B particionada como

B=

c bT
a A

(donde A n n es). Entonces existe una matriz de permutacin (n + 1)2


(n + 1)2 , denotada por el smbolo Qn+1 , tal que (para cada eleccin de B)

208

CAPTULO 7. EL PRODUCTO KRONECKER


3
c
6 b 7
7
QTn+1 vecB = 6
4 a 5.
vecA
2

Adems, sea u que representa la primera columna de In+1 y sea U que representa la submatriz (n + 1) n de In+1 obtenida por agrupacin de u, Qn+1
se puede expresar como
(1)
(2)
Qn+1 = Qn+1 ; Qn+1 , donde
(1)

Qn+1 = diag (u; u; :::u) = In+1

u,

(2)

Qn+1 = diag (U; U; :::U) = In+1

U.

Claramente,
2

3
c
vechB = 4 a 5 .
vechA

As, si B es simtrica (en cual caso A


2
2
3
1
c
60
4 a 5=6
40
vechA
0
o, equivalentemente, que

1
6
0
QTn+1 vecB = 6
40
0

es simtrica y b = a), tenemos que


3
0 0
In 0 7
7 vechB
In 0 5
0 Gn
3
0 0
In 0 7
7 vechB.
In 0 5
0 Gn

Concluimos que si B es simtrica, entonces


2
3
1 0 0
60 In 0 7
7
vecB = Qn+1 6
40 In 0 5 vechB.
0 0 Gn

7.2. 16.2. EL OPERADOR VEC


Esta conclusin da lugar a la frmula recursiva
2
3
1 0 0
60 In 0 7
7
Gn+1 = Qn+1 6
40 In 0 5 .
0 0 Gn

209

(7.67)

Como la matriz duplicacin Gn es de rango columna completo, tiene una


inversa a izquierda. De hecho. Excepto en el caso especial donde n = 1,Gn
tiene un nmero innito de inversas a izquierda. (G1 es no singular y como
consecuencia tiene una nica inversa a izquierda.)
En lo que sigue. El smbolo Hn se usa para representar una inversa izquierda
arbitraria de Gn . As, por denicin, Hn ,es la matriz n(n + 1)=2 n2 tal que
Hn Gn = I.
Una eleccin para, Hn es
Hn = (GTn Gn ) 1 GTn .
(Gn es de rango columna completo, GTn Gn es no singular.)
La premultiplicacin de vech de una matriz simtrica A n n por la matriz
de duplicacin Gn transforman vech A a vec A. En la premultiplicacin a
ambos lados de la igualdad (4.3) por Hn , encontramos que
vechA = Hn vecA

(7.68)

para toda matriz simtrica A n n: As, la premultiplicacin de vec de una


matriz simtrica A n n por la inversa a izquierda Hn transforma vec A a
vech A.
Hay otras matrices que tienen inversas a izquierda de (Gn ) que tienen esta
propiedad? Es decir, existe una matriz L n(n + 1)=2 n2 tal que
vechA = LvecA

(7.69)

para toda matriz simtrica A n n que no satisface la condicin LGn = I?


La respuesta es no, como es evidente al observar que, junto con la igualdad
(4.3), y la igualdad (4.7) implica que
vechA = LGn vechA

210

CAPTULO 7. EL PRODUCTO KRONECKER

Para toda matriz simtrica A n n, o, equivalentemente, que a = LGn a


para cada [n(n + 1)=2] dimensional vector columna a, por lo tanto
LGn = I.
As, como una alternativa para caracterizar la matriz Hn ,como una inversa
a izquierda de Gn , podra caracterizarse como una matriz L n(n + 1)=2
n2 tal que la igualdad (4,7) sostiene que para toda matriz simtrica A
n n. de hecho, como notado por Henderson y Searle (1979), es la ltima
caracterizacin que mantiene la motivacin para denotar esta matriz por un
h capital- agrega h vec da el vech. Encontramos que
2
3
1 0
0
0
H1 = (1) ;
H2 = 40 c c 1 05 ,
(7.70)
0 0
0
1
2
3
1 0 0
0
0 0
0
0
0
60 c1 0 1 c1 0 0
0
0
07
6
7
60 0 c2
7
0
0
0
1
c
0
0
2
7.
H3 = 6
(7.71)
60 0 0
7
0
1
0
0
0
0
6
7
40 0 0
0
0 c3
0
1 c3 05
0 0 0
0
0 0
0
0
1

Donde c; c1 ; c2 ; y c3 son los escalares arbitrarios. Ms generalmente (para


cualquier entero n positivo), la matriz Hn puede describirse en trminos de
sus las. El [(i 1)(n i=2) + i]-simo la de Hn , es la [(i 1)n + i]-simo la
de In2 , y (para i > j) la [(j 1)(n j=2) + i]-simo la de Hn es cualquier
vector la n2 -dimensional cuyo [(j 1)n + i]-simo y [i 1)n + j]-simo
elementos suman 1 y cuyos n2 2 elementos permanecen siendo 0.
Ntese que Hn es de rango la completa, es decir,
rk (Hn ) = n (n + 1) =2

(7.72)

(como es evidente del Lema 8.1.1 observando que Gn , es una inversa a derecha
de Hn ).
Notamos tambin que
vecA = Gn Hn vecA

(7.73)

para cualquier matriz simtrica A n n [como es evidente por la sustitucin


en la expresin (4.6) al lado derecho de la igualdad (4.3)].

7.2. 16.2. EL OPERADOR VEC

211
1

Considerando la nueva matriz GTn Gn


Gn , (la cual es una opcin para
T
Hn ). La matriz Gn Gn n(n + I)=2 n(n + 1)=2 es la diagonal (como las
columnas de Gn son ortogonales). Adems, el [(i 1)(n i=2) + i]-simo
elemento diagonal de GTn Gn iguales a 1, y (para i > j) el [(j 1)(n
j=2) + i]-simo elemento diagonal de GTn Gn iguales 2. Por consiguiente, la
[(i 1)(n i=2) + i]-simo la de GTn Gn 1 Gn es la [i 1)n + i]-simo la de In2
1
, (para i > j) el [(j 1(n j=2) + i]-sima la de GTn Gn
Gn es un vector
la n2 -dimensional cuyo [(j 1)n + i]-simo y [(i 1)n + j]-simo elementos
igual a 1/2 y cuyos restantes n2 2 elementos son iguales a 0.
Por ejemplo, GT1 G1 = (1), GT2 G2 = diag(l; 2; l), y GT3 G3 = diag (1; 2; 2; 1; 2; 1);
1
1
1
y GT1 G1
GT1 , GT2 G2
GT2 , GT3 G3
GT3 son casos especiales de H1 ,
H2 ,y H3 , respectivamente, obtenido c = c1 = c2 = c3 = 1=2 en el resultado
(4.8).
Las frmulas recursivas para GTn Gn y Hn puede obtenerse de la frmula
(4.5). Recordando que Qn+1 , es ortogonal, encontramos que
2
3
1 0
0
0 5
GTn+1 Gn+1 = 40 2In
(7.74)
T
0 0 G n Gn
1

y que, para Hn+1 = GTn+1 Gn+1


GTn+1 y Hn = GTn Gn
GTn ,
2
3
1
0
0
0
Hn+1 = 40 (1=2) In (1=2) In 0 5 QTn+1 .
0
0
0
Hn
Ntese que, para Hn = GTn Gn

GTn ,

Gn Hn = GTn Gn

7.2.7.

(7.75)

GTn = PGn

(7.76)

c. Algunas relaciones involucrando la duplicacin


y matrices de permutacin vec.

Para cada matriz simtrica matriz A n

n,

Gn vechA = vecA = vec(AT ) = knn vecA = knn Gn vechA.


As, Gn a = knn Gn a, para cada [n(n + 1)=2]-dimensional vector columna a,
llegando a la conclusin que

212

CAPTULO 7. EL PRODUCTO KRONECKER

(7.77)

knn Gn = Gn
Adems, desde kTnn = knn ,
GTn Gn

GTn knn = GTn Gn

entonces que, para Hn = GTn Gn

(knn Gn )T = GTn Gn

GTn ,

GTn ,

Hn knn = Hn .

(7.78)

Ntese que el resultado (4.14) implica que


(7.79)

(1=2)(In2 + Knn )Gn = Gn


Similarmente, el resultado (4.15) implica que, para Hn = GTn Gn

GTn ,

Hn [(1=2)(In2 + Knn )] = Hn .

(7.80)

Se considera ahora (para referencia futura) algunas de las propiedades de la


matriz (1=2)(In2 +Knn ),el cual entra en los resultados (4.16) y (4.17).entonces
K2nn = I, tenemos que
(1=2)(In2 + Knn )Knn = (1=2)(In2 + Knn ) = Knn [(1=2)(In2 + Knn )] . (7.81)
Adems recordando que Knn , es simtrica [y usando el resultado (4.18)],
tenemos que
[(1=2)(In2 + Knn )]T = (1=2)(In2 + Knn ) = [(1=2)(In2 + Knn )]2 .
Es decir,(1=2) (In2 + Knn ) es simtrica e idempotente. Y, a la luz del resultado (3.8), tenemos que
tr[(1=2) (In2 + Knn )] = n(n + 1)=2

(7.82)

o, equivalentemente [desde que (1=2)(In2 + Knn ) es idempotente], que


rk [(1=2)(In2 + Knn )]T = n (n + 1) =2.

(7.83)

7.2. 16.2. EL OPERADOR VEC

213

Ahora, observe [a la luz de los resultados (4.19), (4.16), y (4.17)] que, para
1
Hn = GTn Gn
GTn ,
[(1=2)(In2 + Knn ) Gn Hn ]2
= [(1=2)(In2 + Knn )]2 (1=2)(In2 + Knn )Gn Hn
Gn Hn [(1=2)(In2 + Knn )] + Gn Hn Gn Hn
= (1=2)(In2 + Knn ) Gn Hn Gn Hn + Gn Hn
= (1=2)(In2 + Knn ) Gn Hn .
Es ms, como consecuencia de los resultados (5.2.3) y (4.20), tenemos que
tr [(1=2)(In2 + Knn )

Gn Hn ] =
=
=
=

tr [(1=2)(In2 + Knn )] tr (Gn Hn )


tr [(1=2)(In2 + Knn )] tr (Hn Gn )
tr [(1=2)(In2 + Knn )] tr In(n+1)=2
n (n + 1) =2 n (n + 1) =2 = 0.

As, para Hn = GTn Gn


GTn , la matriz (1=2)(In2 + Knn ) Gn Hn es idempotente y su traza es igual a 0, concluimos (en base a Corolario 10.2.3) que,
para
1
GTn ,
Hn = GTn Gn
(1=2)(In2 + Knn )

Gn Hn = 0

o. equivalentemente, que [para Hn = GTn Gn

GTn ]
(7.84)

Gn Hn = (1=2)(In2 + Knn ).

7.2.8.

d. Vech de un producto de matrices.

Sea A que representa una matriz n


n yX n
Observe (a la luz del Teorema I6.2.I) que
vec(AXAT ) = (A

A)vecX = (A

n una matriz simtrica.

A)Gn vechX.

(7.85)

Tambin observe que (desde que AXAT es simtrica)


vech(AXAT ) = Hn vec(AXAT ).

(7.86)

214

CAPTULO 7. EL PRODUCTO KRONECKER

Juntos, los resultados (4.23) y (4.24) implican que


vech(AXAT ) = Hn (A

A) Gn vechX.

(7.87)

El resultado (4.25) puede considerarse como la contraparte del vech de la


frmula (2.10) para el vec de un producto de matrices. Segn este resultado,
la premultiplicacin del vech X por la matriz Hn (A A) Gn n(n + 1)=2
n(n + 1)=2 que transforma el vech X en vech(AXAT ). Ahora considerando
varias propiedades de la matriz Hn (A A) Gn .
Observe [a la luz de los resultados (4.23) y (4.I0)] que (para cualquier matriz
simtrica Xn n)
(A

A) Gn vechX = vec(AXAT ) = Gn Hn vec(AXAT )


= Gn Hn (A A) Gn vechX.

As. (A A) Gn x = Gn Hn (A A) Gn x para cada vector columna x [n(n+


1)=2]-dimensionaI llegando a la conclusin que
Gn Hn (A
Y. Para Hn = GTn Gn

A) Gn .

(7.88)

A) Gn Hn ,

(7.89)

A) Gn = (A

GTn ,

Gn Hn (A

A) = (A

como es evidente del resultado (4.22) al observar [a la luz del resultado (3.9)]
que
(1=2)(In2 + Knn ) (A

A) = (1=2) [(A A) + Knn (A A)]


= (1=2) [(A A) + (A A) Knn ]
= (A A) [(1=2)(In2 + Knn )] .

Ms an, premultiplicando ambos lados de la igualdad (4.27) por Hn , (y


1
recordando que Hn Gn = I) encontramos que [para Hn = GTn Gn
GT ]
Hn (A

A) Gn Hn = Hn (A

anlogo al resultado (4.26).


Varias propiedades de la matriz, Hn (A
iente.

A) ,

(7.90)

A) Gn se dan en el teorema sigu-

7.2. 16.2. EL OPERADOR VEC

215

Teorema 16.4.1. Para cualquier matriz A n n,


(1) Hn (A A) Gn es invariante a la eleccin de Hn ,
(2) Hn (A
A ) Gn ,es una inversa generalizada de Hn (A A) Gn ;
(3) tr [Hn (A A) Gn ] = (1=2) [tr (A)]2 + (1=2) tr (A2 );
(4) rk [Hn (A A) Gn ] = (1=2) [rk (A)]2 + (1=2) rk (A);
(5) Hn (A A) Gn es no singular si y slo si A es no singular.
(1)

(2)

Demostracin (1). Sea Hn y Hn que representa dos elecciones cualesquiera


para Hn , es decir, dos inversas a izquierda cualesquiera de Gn . Entonces, usando el resultado (4.26), encontramos que
H(2)
n (A

(1)
A) Gn = H(2)
n Gn Hn (A

A) Gn = H(1)
n (A

A) Gn .

(2) Usando el resultado (4.26) y observando (a la luz de la discusin en la


Seccin 16.1) que A A es una inversa generalizada de A A, encontramos
que
Hn (A
= Hn (A
= Hn (A

A) Gn Hn A
A) A
A
A) A
A

A Gn Hn (A A)Gn
Gn Hn (A A)Gn
(A A)Gn = Hn (A A)Gn .

(3) Fijando Hn = GTn Gn


GTn a la luz de la Parte (1), es suciente vericar
la Parte (3) para una sola eleccin de Hn . Entonces, usando los resultados
(5.2.3), (4.22), (1.25), y (3.15). Encontramos que
tr [Hn (A

A) Gn ] =
=
=
=

tr [(A A) Gn Hn ]
trf(A A) [(1=2)(In2 + Knn )]g
(1=2)tr (A A) + (1=2)tr [(A A) Knn ]
(1=2) [tr (A)]2 + (1=2) tr A2 .

(4) Dado que [segn la Parte (2)] Hn (A


A ) Gn es una inversa generalizada de Hn (A A) Gn ,se sigue del resultado (10.2.1) que
rk [Hn (A

A) Gn ] = tr[Hn (A

A) Gn Hn A

Gn ].

216

CAPTULO 7. EL PRODUCTO KRONECKER

Ms an, usando el resultado (4.26), la Parte (3). y resultado (10.2.1). Encontramos que

tr[Hn (A A) Gn Hn A
A
= tr[Hn (A A) A
A Gn ]
= trfHn [ AA
AA
Gn g
2

= (1=2) tr AA

= (1=2) tr AA

Gn ]

+ (1=2) tr AA AA
+ (1=2) trAA )

= (1=2) [rk (A)]2 + (1=2) rk (A) .


(5) Dado que Hn (A A) Gn , es una matriz cuadrada de orden n(n + 1)=2,
la parte (5) es una consecuencia inmediata de la parte(4).
Para los propsitos de derivar una frmula recursiva para Hn (A A) Gn ,
sea B que representa una matriz (n + 1) (n + 1),arbitraria, la particin B
como
B=

c bT
a A
(1)

(2)

(donde A es n n), y se dene Qn+1 = Qn+1 Qn+1 , u, y U como en la


Subseccin b. Entonces,

QTn+1 (B

B) Qn+1 =

"

(1)T
Qn+1
(2)T
Qn+1

(B
(B

(1)
B) Qn+1
(1)
B) Qn+1

(1)T
Qn+1
(2)T
Qn+1

(B
(B

(2)
B) Qn+1
(2)
B) Qn+1

Ms an, dado que

uT Bu uT BU
c bT
.
= ITn+1 BIn+1 = (u; U)T B (u; U) =
UT Bu UT BU
a A
encontramos que

7.2. 16.2. EL OPERADOR VEC

(1)T

Qn+1 (B

(1)

B) Qn+1 =

217

In+1

= B
(1)

Qn+1 (B

(2)

B) Qn+1 =

In+1

= B
(2)

Qn+1 (B

(1)

B) Qn+1 =

In+1

= B
(2)T

Qn+1 (B

(2)

B) Qn+1 =

In+1

= B

uT (B

B) (In+1

u Bu = B
uT (B

u)

c = cB,
B) (In+1

U)

u BU = B

b ,

UT (B

B) (In+1

U Bu = B

a,

UT (B

B) (In+1

U BU = B

u)
U)

A.

As, a la luz de los resultados (1.27), (1.4), (3.14), y (3.12), tenemos que

QTn+1 (B

B) Qn+1

3
bT
bT A Knn 7
7.
bT A 5
A A

c2
cbT
cbT
6 ca
cA
abT
6
=4
ca
abT
cA
a a Knn (a A) a A

bT

Y a la luz de los resultados (4.12), (4.5), (4.15), y (4.16) [as como la Parte
1
(1) del Teorema 16.4.1],se sigue que, para Hn = GTn Gn
GTn ,
Hn+1 (B B) Gn+1
2

1
60
B) Qn+1 6
40
0

3
0 0
In 0 7
7
In 0 5
0 Gn

1
0
0
0
4
= 0 (1=2) In (1=2) In 0 5 QTn+1 (B
0
0
0
Hn
2
c2
cbT
cbT
T
= 4
ca
(1=2) cA + ab
(1=2) cA + abT
bT
Hn (a a)
Hn (a A)
Hn (a A)
2
3
1 0 0
60 In 0 7
6
7
40 In 0 5
0 0 Gn

3
bT bT
A
[(1=2)(In2 + Knn )]5
Hn (A A)

218

CAPTULO 7. EL PRODUCTO KRONECKER


3
c2
2cbT
bT bT G n
=4
ca
cA + abT
bT A G n 5
Hn (a a) 2Hn (a A) Hn (A A) Gn
2

(7.91)

El resultado (4.29) proporciona lo que es en efecto una frmula recursiva para


Hn (A A) Gn Sea
c2
2cbT
bT bT
S=
Gn Hn (A
A ) Gn Hn [a a; 2 (a
T
bT A
ca cA + ab
1

[donde Hn = GTn Gn
GTn ]. Y observa [a la luz de la parte (2) del Teorema
16.4.1) que S es un complemento de Schur de la submatriz Hn (A A) Gn
n(n+1)=2 n(n+1)=2, en la esquina inferior derecha de la matriz particionada
(4.29). Adems, usando los resultados (4.26), (4.22), y (3.12), encontramos
que
Gn Hn
= A
= A
= A

A
A
A
A

A Gn Hn [a a; 2 (a A)]
Gn Hn [a a; 2 (a A)]
[(1=2)(In2 + Knn )] [a a; 2 (a A)]
[a a; (a A) + (A a)] .

As,
2 2
c
6
S=6
4 ca
=

c2
ca

bT A a

bT A a

bT A a

AA a

bT A a
T
b A a AA a

3
bT A a
bT A a
bT A A
bT A a 7
7
cA + abT
bT A a
A 5
bT A A
AA a

2cbT

2cbT
bT A a
T
b A a A + abT

bT A A
,
AA abT A A

Y, en el caso especial donde A es no cuadrada,


S= c

bT A 1 a

c + bT A 1 a
a

2bT
.
A

(7.92)

Considere ahora el determinante de la matriz Hn+1 (B B) Gn+1 . Aplicando


el resultado (13.3.13) para la matriz particionada (4.29), podemos decir que

A)]

7.2. 16.2. EL OPERADOR VEC

219

si A es no singular [en este caso se sigue de la Parte (5) de Teorema 16.4.1


que Hn (A A) Gn tambin es no-singular], entonces
jHn+1 (B

B) Gn+1 j = jHn (A

A) Gn j jSj .

(7.93)

Ms an, usando el resultado (4.30), Corolario13.2.4, y resultado (13.3.13).


encontramos que si A es no-singular, entonces,

jSj =

bT A 1 a

n+1

bT A 1 a

n+1

bT A 1 a

n+2

c + bT A 1 a
a

2bT
A

jAj c + bT A 1 a 2bT A 1 a
jAj .

(7.94)

Juntos, resultados (4.31) y (4.32) implica (en el caso especial dnde A es


no-singular)

jHn+1 (B

bT A 1 a

B) Gn+1 j = c

n+2

jAj jHn (A

A) Gn j .

(7.95)

El resultado (4.33) el cual proporciona en su efecto una frmula recursiva para


el determinante de Hn (A A) Gn ;puede usarse para establecer el siguiente
teorema.
Teorema 16.4.2. Para cualquier matriz A n
jHn (A

n,

A) Gn j = jAjn+1

(7.96)

Demostracin. La prueba es por induccin matemtica. Claramente, la


igualdad (4.34) se cumple para toda matriz A1x1 . Suponga que la igualdad
(4.34) se cumple para toda matriz A n n: Sea B que representa una matriz
arbitraria (n + 1) (n + 1) y la matriz particin B como
B=

c bT
a A

(donde A es n n). Para completar el argumento de la induccin, es suciente


mostrar que

220

CAPTULO 7. EL PRODUCTO KRONECKER

B) Gn+1 j = jBjn+2 .

jHn+1 (B

(7.97)

Estableciendo la validez de esta igualdad, es conveniente considerar tres casos


diferentes consecutivamente.
Caso (1): B singular. En este caso, ambos lados derecho e izquierdo de la
igualdad (4.35) es igual a 0- rerase a la parte (5) del teorema 16.4.1.Caso (2)
Ambos A y B no-singular. Subsecuentemente (por suposicin) jHn (A A) Gn j =
jAjn+1 , se sigue del resultado (4.33) [junto con el resultado(13.3.13) que
jHn+1 (B

B) Gn+1 j = c

bT A 1 a

n+2

jAjn+2 jBjn+2 .

Caso (3): B no-singular; pero A singular. Denote la primera,. . . ,n-sima


columnas de A por a1 ; :::an , respectivamente. Dado que B es no-singular,
las las de B son Iinealmente independiente, implicando que rk(a; A) = n
y tambin (dado que A es singular) que el rk(A) = n 1. Por consiguiente, A contiene n 1 columnas linealmente independientes, digamos
a1 ; :::; ai 1 ; ai+1 ; :::; an , y a que no se puede expresar como una combinacin
lineal de las columnas de A.
Sea e que representa la i-sima columna de In . Entonces. la matriz A + aeT ,
cuyas columnas son a1 ; :::; ai 1 +a; ai+1 ; :::; an respectivamente, es no-singular
(dado que porP
otro lado podran existir escalares. c1 ; :::; ci 1 ; ci+1 ; :::; cn tales
que ai + a = j6=i cj aj , lo cual implicara que a se deja expresar como una
combinacin lineal de las columnas de A).
Ahora, sea
T=

1 eT
.
0 In

Entonces,
BT =

c bT + ceT
.
a A + aeT

Ms an jTj = 1.
Dado que In y A + aeT son no-singulares, tenemos [del mismo razonamiento
como en caso (2)] que
jHn+1 (T

T) Gn+1 j = jTjn+2 = 1

(7.98)

7.2. 16.2. EL OPERADOR VEC

jHn+1 [(BT)

221

(BT)] Gn+1 j = jBTjn+2 = jBjn+2 jTjn+2 = jBjn+2

(7.99)

Y, usando el resultado (4.26), tenemos que


jHn+1 [(BT) (BT)] Gn+1 j
= jHn+1 [(B B)(T T)] Gn+1 j
= jHn+1 [(B B)Gn+1 Hn+1 (T T)] Gn+1 j
= jHn+1 B B)Gn+1 j jHn+1 (T TGn+1 j ,
En el cual [con la combinacin de los resultados (4.36) y (4.37) implican que
jHn+1 B

7.2.9.

B)Gn+1 j = jBjn+2 .

16.5 Reformulacin de un Sistema Lineal

Considere un sistema lineal


AX = B

(7.100)

Con una matriz coeciente A m n al lado derecho de B m p y una matriz


desconocida X n p. Este sistema lineal puede ser reformulado como un
sistema lineal cuyo lado derecho es un vector mp 1 y de cuyos desconocidos
se colocan en un vector np 1. Este proceso se facilita por el uso del operador
vec (y el uso de productos de Kronecker).
Especcamente, aplicando al operador vec a cada lateral de la ecuacin (5.1)
y recordando el resultado (2.9), obtenemos el sistema lineal equivalente
(Ip

A) x = b,

(7.101)

donde b = vecB y donde x = vecX es un vector desconocido np 1 la


equivalencia est en el sentido que X es una solucin al sistema lineal (5.1) si
y slo si el vecX es una solucin al sistema lineal (5.2). Ntese que el sistema
lineal (5.2) puede ser escrito como
diag (A; A; :::; A) x = b.
Sea ahora la generalizacin del sistema lineal (5.1) para el sistema

222

CAPTULO 7. EL PRODUCTO KRONECKER

(7.102)

AXC = B,

donde A m n es una matriz , C p q una matriz, B m q una matriz y


X n p una matriz desconocida. Al aplicar al operador vec a cada lateral
de la ecuacin (5.3) y recordando el resultado (2.10), obtenemos el sistema
(lineal) equivalente
CT

A x = b,

donde b = vecB y donde x = vecX es un vector desconocido np


Una extensa generalizacin es posible. Considere el sistema
r
X

Ai XCi +

i=1

s
X

Lj XT Tj = B,

1.

(7.103)

j=1

donde A1 ; :::; Ar son matrices m n, C1 ; :::; Cr son matrices p q; L1 ; :::; Ls


matrices m p; T1 ; :::; Ts son matrices n q , B es una matriz m q , y X una
matriz desconocida n p. Usando los resultados (2.6) y (2.10), encontramos
que
vec

Ai XCi +

X
i

Ai vecX +

X
j

CTi

(
X

CTi

Lj XT Tj

vec (Ai XCi ) +

Ai +

"

vec Lj XT Tj
X

TTj

Lj vecXT

X
j

TTj

Lj

Knp

vecX.

Por consiguiente, el sistema (5.4) es equivalente al sistema (lineal)


(
"
#
)
X
X
CTi
Ai +
TTj Lj Knp x = b,
i

(7.104)

(7.105)

donde b = vecB y donde x = vecX es un vector desconocido np


un caso especial ( dnde "s = 0"), tenemos que el sistema

1. Como

7.2. 16.2. EL OPERADOR VEC


r
X

223

(Ai XCi ) = B

(7.106)

i=1

es equivalente al sistema (lineal)


"
X
CTi

Ai

x = b.

(7.107)

En nuestra consideracin del sistema (5.4) [y de los sistemas (5.1), (5.3),


y (5.7)], ha sido implcitamente supuesto que no hay ninguna restriccin
en X (de otra manera que aqullos impuestos por el sistema) - si haba
restricciones en X, el sistema (5.4) sera equivalente al sistema (5.6) si y slo
si se impusieran las restricciones equivalentes en x. Suponga ahora que X
se restringe para ser simtrica [en el caso p = n y sistema (5.4) no es ms
general que el sistema (5.7)]. Entonces, dado que el vecX = Gn vechX, el
sistema (5.7) es equivalente al sistema (lineal)
"
#
X
CTi
Ai Gn x = b.
(7.108)
i

Ahora donde x = vechX es un vector desconocido (sin restriccin) n(n +


1)=2 1 [y donde b = vecB] - la equivalencia est en el sentido que una
matriz simtrica X es una solucin al sistema (5.7) s y solo s vechX es una
solucin al sistema (5.9).

7.2.10.

16.6. Algunos resultados en Matrices Jacobianas.

En esta seccin, se presta atencin a algunas matrices Jacobianas de un tipo


encontrado en anlisis estadstico multivariado.
Sea F p q que representa una matriz de funciones, denida sobre un conjunto
S, de un vector x = (x1 ; :::; xm )T de m variables . Entonces, vecF es un vector
columna pq-dimensional obtenido por la reordenacin de los elementos de F
(de una manera particular). Por la denicin, la matriz Jacobiana de vecF
es la matriz @vec (F) =@xT pq m cuya j-sima columna de @vec (F) =@xj .
Ntese que
@vec (F)
= vec
@xj

@F
@xj

(7.109)

224

CAPTULO 7. EL PRODUCTO KRONECKER

(como es evidente de la misma denicin del operador vec). As. la matriz


Jacobiana de vecF es la matriz pq m cuya j-sima columna es vec (@F=@xj ).
Considere el caso especial ahora dnde q = p.S F es simtrica (para x en S),
entonces p(p 1)=2 de los elementos de vecF son redundantes. En contraste,
vechF no contiene las redundancias (que son atribuidas a la simetra). Por
denicin, la matriz Jacobiana de vechF es la matriz @vech (F) =@xT p(p +
1)=2 m cuya j-sima columna de @vech (F) =@xj . Ntese que [anlogo al
resultado (6.1)]
@vech (F)
= vech
@xj

@F
@xj

(7.110)

As, la matriz de Jacobiana de vechF es la matriz p(p+1)=2 m cuya j-sima


columna es el x = (x1 ; :::; xm )T de m vech (@F=@xj ).
Si F es simtrica, entonces claramente [a la luz del resultado (4.6)]
@vecF
@vechF
= Gp
;
@xj
@xj

@vechF
@vecF
= Hp
.
@xj
@xj

(7.111)

(j = 1; :::; m): y por consiguiente


@vecF
@vechF
@vechF
@vecF
= Gp
;
= Hp
.
(7.112)
T
T
T
@x
@x
@x
@xT
Luego, considere la matriz Jacobiana de vec(AFB), dnde F p q es una
matriz de funciones, denida en un conjunto S, de un vector x = (x1 ; :::; xm )T
de m variables y donde A y B son r p y q s matrices de constantes.
Haciendo uso de la frmula (2.10). Encontramos que
@vec (AFB)
= BT
@xj

@vecF
@xj

(7.113)

(j = 1; :::; m) y de que
@vec (AFB)
@vecF
= BT A
.
(7.114)
T
@x
@xT
La frmula (6.6) relaciona la matriz Jacobiana de vec(AFB) al vecF.
Cuando s = q; r = p, y m = pq se sigue de los resultados (6.6) y (3.18) que
@vec (AFB)
@vecF
= jAjq jBjp
,
T
@x
@xT

(7.115)

7.2. 16.2. EL OPERADOR VEC

225

que relaciona el Jacobiano de vec(AFB) al de vecF.


En el caso especial dnde x = vecXy F (x) = X para alguna matriz X p q
de variables. El resultado (6.6) simplica [a la luz del resultado (15.3.12)] a
@vec (AXB)
@ (vecX)T

= BT

A,

(7.116)

y (cuando s = q y r = p) el resultado (6.7) simplica a


@vec (AXB)
T

@ (vecX)

= jAjq jBjp .

Suponga ahora que F es simtrica y que A es cuadrada (en cual caso ambos
F y A son p p). Entonces,
@vech AFAT
@vechF
=
H
(A
A)
G
,
(7.117)
p
p
@xT
@xT
como es evidente del resultado (6.6) al colocar B = AT y observando [A la
luz de resultado (4.6)] que
@vec AFAT @vecF
@vech AFAT
@vechF
= Hp
;
= Gp
.
T
T
T
@x
@x
@x
@xT
Cuando m = p(p + 1)=2, se sigue de los resultados (6.10) y (4.34) que
@vech AFAT
@xT

= jAjp+1

@vechF
.
@xT

(7.118)

En el caso especial dnde x = vecX y F (x) = X para alguna matriz simtrica


X p q, los resultados (6.10) y (6,1l) simplica a
@vech AXAT

= Hp (A

@ (vechX)T

@vech AXAT
T

@ (vechX)

A) Gp ,

= jAjp+1 .

Finalmente, considere la matriz Jacobiana de vec(F 1 ), donde F p p es una


matriz de funciones, denida en un conjunto S , de un vector x = (x1 ; :::; xm )T
de m variables [con F(x) no singular para cada x en S]. Haciendo uso de los
resultados (15.8.15) y (2.10) [as como el resultado (6.1)], encontramos que

226

CAPTULO 7. EL PRODUCTO KRONECKER

@F 1
@vec (F 1 )
= vec
@xj
@xj
h
T
=
F 1
=

1 T

@F
F
@xj
i
@F
F 1 vec
@xj
i @vecF
F 1
.
@xj

= vec

(7.119)

(j = 1; :::; m), lo cual implica que


h
i
@vec (F 1 )
1 T
1 @vecF
=
F
F
.
(7.120)
@xT
@xT
Relacionando la matriz Jacobiana de vec(F 1 ) es decir de vecF. Sin embargo,
cuando m = p2 , se sigue del resultado (6.13). Junto con Corolario 13.2.5, del
2
resultado (3.18), y el Teorema 3.3,7 [y del hecho que ( 1)p = ( 1)p ] que
@vec (F 1 )
= ( 1)p jFj
T
@x

2p

@vecF
.
@xT

(7.121)

Los cuales relacionan el Jacobiano de vec (F 1 ) al vecF.


En el caso especial donde x = vecX y F (x) = X para alguna matriz X p
no singular de variables, los resultados (6.13) y (6.14) simplica a
@vec (X 1 )
T

@ (vecX)

@vec (X 1 )
T

@ (vecX)

X 1.

= ( 1)p jXj

2p

(7.122)
(7.123)

Suponga ahora que la matriz F (pxp) es simtrica. Entonces


@vech (F 1 )
@vechF
= Hp F 1 F 1 Gp
.
(7.124)
T
@x
@xT
Como es evidente del resultado (6.13) al observar [a a la luz del resultado
(4.6)] que
@vech (F 1 )
@vec (F 1 ) @vecF
@vechF
=
H
;
=
G
.
p
p
@xT
@xT
@xT
@xT

7.3. EJERCICIOS.

227

Cuando m = p(p + 1)=2, se sigue del Corolario 13.2.5., el resultado (4.34). y


del Teorema 13.3.7 que
@vech (F 1 )
= ( 1)p(p+1)=2 jFj
@xT

(p+1)

@vechF
.
@xT

(7.125)

En el caso especial dnde x = vechX y F(x) = X para alguna matriz X


simtrica no singular p p, los resultados (6.17) y (6.18) simplican a
@vech (X 1 )
T

@vech (X)

@vech (X 1 )
T

@vech (X)

7.3.

Gp ,

= ( 1)p(p+1)=2 jXj

(p+1)

= Hp X

(7.126)
.

(7.127)

Ejercicios.

Seccin 16.1.
1. (Ricardo) D ejemplo de una matriz A y una matriz identidad I tales que
I 6= I

A.

Muestre tambin una matriz B y una matriz identidad I tales que


I=I

B.

1. (a) Verique el resultado (1.13): es decir, verique que, para cualesquiera


matrices A y B m n y cualesquiera matrices C y D p q,

(A + B)

(C + D) = (A

C) + (A

D) + (B

C) + (B

D).

(b) Verique el resultado (1.14): es decir, verique que, para cualesquiera


matrices A1 ; A2 ; :::; Ar m n y matrices B1 ; B2 ; :::; Bs p q
.
!
!
r
s
r X
s
X
X
X
Ai
Bj =
(Ai Bj ) .
i=1

j=1

i=1 j=1

228

CAPTULO 7. EL PRODUCTO KRONECKER

2. Muestra que, para cualquier A es una matriz m


A

B = (A

n y una matriz B p

q,

Ip )diag(B; B; :::; B).

3. Muestre que, para cualquier vector a m 1 y un vector b p 1, (1) a b


= (a Ip )b y (2) aT bT = bT (aT Ip ).
4 Sea A y B que representan matrices cuadradas.
(a) Muestre que Si A y B son ortogonales, entonces A B es ortogonal.
(b) Muestre que Si A y B son idempotentes, entonces A B es idempotente.
5.Siendo m,n,p y q, que representan enteros positivos arbitrarios, mostrar (a)
que, para cualquier matriz Bp q (teniendo p > 1 o q > 1), existe una matriz
Am n tal que A B tiene una inversa generalizada que se puede expresar
en la forma A
B ; y (b) que, para cualquier matriz A m n (teniendo
m > 1 o n > 1), existe una matriz B p q tal que A B tiene una inversa
generalizada que no se puede expresar en la forma A
B .
6. Sea X = A B, donde A es una matriz m n y una matriz B p q.
Muestra que PX = PA PB .
7. Muestra que el producto Kronecker A B de una matriz A m m y
una matriz A B n n es (a) denida simtrica no-negativa si A y B
son ambas denidas simtricas no-negativa o ambas denidas simtricas nopositivas, y (b) denida positiva simtrica si A y B son ambas denidas
positiva simtricas o ambas denidas negativas simtrica.
8. Sea A y B que representan matrices simtricas m m y C y D matrices
simtricas n n. Usando el resultado de Ejercicio 7 (o en otro caso), muestre
que si A B, C D, B, y C estn denidas no-negativas, entonces A C
B D es denida simtricas no-negativas.
9. Sea A que represente una matriz m n y una matriz B p q. Muestre
que, en el caso de la norma usual,
kA

Bk = kAk kBk .

10. Verique el resultado (1.27).


11. Muestre que (a) si T y U son ambas matrices triangulares superiores,
entonces T U es una matriz triangular superior, y (b) si T y L son matrices
triangular inferior, entonces T L es una matriz triangular inferior.
12. Sea A que representa una matriz m n y una matriz B n n. Suponga que
A y B tienen descomposiciones LDU , diga A = L1 D1 U1 y B = L2 D2 U2 .
Usando los resultados de Ejercicio11, muestra que A B tiene descomposicin
LDU A B = LDU dnde L = L1 L2 , D = :D1 D2 , y U = U1 U2 .

7.3. EJERCICIOS.

229

Seccin 16.2.
13. Sea A1 ; A2; :::; Ak que representa k matrices (del mismo tamao). Muestre
que A1 ; A2 ; :::; Ak son linealmente independientes si y slo si el vec(Ai ); vec(A2 ); :::; vec(Ak )
son linealmente independiente.
14. Sea m que representa un entero positivo, sea ei que represente la i-sima
columna de Ii (i = 1; :::; rn), y(para i; j = l; :::; m) sea Uij = ei eTj (en cual
caso Uij es una matriz m m cuyo ij-simo elemento es 1 y cuyos m2 1
elementos restante son 0).
(a) Muestre que
vec(Im ) =

m
X

ei

ei .

i=1

(b) Muestre que (para i; j; r; s = 1; :::; m)

vec(Uri ) [vec(Usj )]T = Uij

Usr .

(c) Muestre que


m X
m
X

Uij

Uij = vec (Im ) [vec (Im )]T .

i=1 j=1

15. Sea A que representa una matriz n n.


(a) Muestre que si A es el ortogonal, entonces (vecA)T vecA = n.
T
vecA = rk (A).
(b) Muestre que si A es el idempotente, entonces vec AT
16. Muestre que para cualquier A matriz m n, X una matriz p n, B una
matriz p p y C una matriz n m,
tr(AXT BXC) = (vecX)T [(AT CT )

B]vecX = (vecX)T [(CA)

BT ]vecX.

17. (a) Sea V que representa un espacio lineal de matrices m n, y sea g que
representa una funcin que asigna el valor A B a cada par de matrices A
y B en V. Tome U para el espacio lineal de vectores mn 1 denidos por
U = x 2 Rmn

: x = vec (A) para alguna A 2 V ,

y sea x y que representa el valor asignado a cada par de vectores x e y en U


por un producto interno arbitrario f . Muestre que g es un producto interno
(para V) Si y slo si existe un f tal que (para todos A y B en V)

230

CAPTULO 7. EL PRODUCTO KRONECKER

A B = vec (A) vec (B) .


(b) Sea g que representa una funcin que asigna el valor A B a un par de
matrices arbitrarias A y B en Rm n . Muestre que g es un producto interno
(para Rm n ) si y slo si existe una matriz particionada denida positiva
simtrica mn mn.
2
3
W11 W12 : : : W1n
6 W21 W22 : : : W2n 7
6
7
W = 6 ..
..
.. 7
.
.
4 .
.
.
. 5
Wn1 Wn2 : : : Wnn
(donde cada submatriz es de dimensiones m m) tal que (para toda A y B
en Rm n )
X
A B=
aTi Wij bj ,
i;j

donde a1 ; a2; :::; an y b1 ; b2; :::; bn que representa la primera, segunda,....,nsimas columnas de A y B, respectivamente.
(c) Sea g una funcin que representa que asigna valor xT yT para un par
de vectores (la) arbitrarios en R1 n . Muestre que g es un producto interno
(para R1 n ) si y slo si existe una matriz W n n denida positiva simtrica
tal que (para cada par de vectores la xT y yT n-dimensionales)
xT
Seccin 16.3.
18. (a) Dena (para m
cada matriz A m n,

yT = xT Wy.

2) P para ser la matriz permutacin tal que, para


vecA
r

= PvecA.

Donde A es la matriz (m 1) n cuyas las son respectivamente la primero,...,(m


A
1)-simas las de A y rT es la m-sima la de A [donde A =
Y
rT
AT = AT ; r ].
Km 1 :n 0
(1) Muestre que Kmn =
P.
0
In

7.3. EJERCICIOS.

231

(2) Muestre que jPj = ( 1)(m 1)n(n 1)=2 .


(3) Muestre que jKmn j = ( 1)(m 1)n(n 1)=2 jKm 1 :n j.
(b) Muestre que jKmn j = ( 1)m(m 1)n(n 1)=4 .
(c) Muestre que jKmn j = ( 1)m(m 1)=2 .
19. Muestre que, para cualquier matriz A m n, a un vector p 1 y b un
vector q 1,
(1) bT A a = Kmp abT
A ;
T
T
(2) a A b = Kpm A
ab .
20. Sea m y n que representan los enteros positivos. y sea ei , que representa la
i-sima columna de Im , (i = 1; :::; m) y uj que representa la j-sima columna
de In , (j = 1; :::; n).
Muestre que
Kmn =

n
X

uTj

uj =

Im

j=1

m
X

ei

In

eTi .

i=1

21. Sea m, n, y p que representan los enteros positivos. Usando el resultado


del Ejercicio 20, muestre que
(a) Kmp :n = Kp:mn Km:np ;
(b) Kmp :n Knp:m Kmn:p = I;
(c) Kn:mp = Knp:m Kmn:p ;
(d) Kp:mn Km:np = Km:np Kp:mn ;
(e) Knp:m Kmn:p = Kmn:p Knp:m ;
(f) Km:np Kmp :n = Kmp :n Km:np .
[Hint. Empieza siendo
P ujT, que representa la j-sima columna de In , y mostran(Im uj ) y haciendo uso entonces del redo que Kmp :n = ;j uj Ip
sultado (3.10).]
22. Sea A que representa una matriz m n. y dena B = Kmn AT A .
Muestre (a) que B es simtrico, (b) que rk(B) = [rk(A)]2 , (c) que B2 =
(AAT )
(AT A), y (d) que tr(B) = tr(AT A).
23. Muestre que, para cualquier matriz A m n y cualquier matriz B p q,
vec (A
donde G = (Kqm

B) = (In

Ip ) (Im

G) vecA = (H

vecB) y H = (In

Seccin 16.4.
24. Muestre que, para Hn = GTn Gn

GTn ,

Ip ) vecB,

Kqm ) [vec (A) Im

Iq ].

232

CAPTULO 7. EL PRODUCTO KRONECKER

Gn Hn HTn = HTn .
25. Existe una nica matriz Ln tal que
vechA = Ln vecA
para cada matriz A n n (simtrico o no). (La matriz Ln , es una opcin
para la matriz Hn , discutido en la Seccin 16.4b. Es referida por Magnas
y Neudecker (1980) como la matriz de eliminacin - el efecto de premultiplicando el vec de una matriz A n n por Ln , es eliminar (del vec A) los
elementos del A "supradiagonal")
(a) Escriba los elementos de L1 , L2 , y L3 .
(b) Para un entero positivo arbitrario n, describa Ln en trminos de sus las.
26. Sea A que representa una matriz n n y b un vector n 1,
(a) Muestre que (1=2) (A bT ) + (bT A) Gn = (A bT )Gn .
1
b) Muestre que, para Hn = GTn Gn
GTn ,
(1) (1=2)Hn [(b A) (A b)] = Hn [(b A),
(2) (A bT )Gn Hn = (1=2) (A bT ) + (bT A) ,
(3) Gn Hn (b A) = (1=2) [(b A) + (A b)].
27. Sea A = faij g que representa una matriz n n (posiblemente nosimtrica).
1
(a) Muestre que. para Hn = GTn Gn
GTn
Hn vecA = (1=2)vech A + AT .
(b) Muestre que
GTn Gn vechA = vech [2A

diag (a11 ; a22 ; :::; ann )]

(c) Muestre que


GTn vecA = vech A + AT

diag (a11 ; a22 ; :::; ann ) .

28. Sea A que representa una matriz n n. Muestre que, para Hn = GTn Gn
Gn Hn (A

A)HTn = (A

A)HTn .

29. Muestre que si una matriz A = faij g es triangular superior, triangular


inferior, o diagonal. Entonces Hn (A A)Gn , es respectivamente triangular

GTn .

7.3. EJERCICIOS.

233

superior, triangular inferior, o diagonal con los elementos diagonales aii ajj
(i = 1; :::; n; j = i; :::; n).
Seccin 16.5.
30. Sea A1 ; :::; Ak , yB que representan matrices
m n, y sea b = vecB.
Pk
(a) Muestre que la ecuacin de la matriz i=1 xi Ai = B (en desconocidos
x1 ; :::; xk ) es equivalente a un sistema lineal de la forma dnde Ax = b donde
x = (x1 ; :::; xm )T es un vector desconocido.
(b) Muestre
P que si A1 ; :::; Ak , y B son simtricos, entonces la matriz de la
ecuacin ki=1 xi Ai = B (en los desconocidos x1 ; :::; xk ) es equivalente a un
sistema lineal de la forma A x = b , dnde b = vechB y x = (x1 ; :::; xk )T
es un vector desconocido.
Seccin 16.6
31. Sea F que representa una matriz de funciones p q, denida sobre un
conjunto S, de un vector, x = (x1 ; :::; xm )T de m variables. Muestre que, para
k = 2; 3; :::;
Xh
@vec Fk
=
Fs
@xT

1 T

Fk

i @vecF
@xT

(donde F0 = Ip ).
32. Sea F = ffis g y G que representa una matriz de funciones p q y r s,
denida sobre un conjunto s, de un vector, x = (x1 ; :::; xm )T de m variables
(a) Muestre que (para j = 1; :::; m)
@ (F G)
=
@xj

@G
@xj

@F
@xj

G .

(b) Muestre que (para j = 1; :::; m)


@ (F G)
= (Iq
@xj

Ksp

Ir ) (vecF)

@vecG @vecF
+
@xj
@xj

(vecG) .

Ksp

Ir ) (vecF)

@vecG @vecF
+
@xT
@xT

(vecG) .

(c) Muestre que


@ (F G)
= (Iq
@xT

234

CAPTULO 7. EL PRODUCTO KRONECKER

(d) Muestre que, en el caso especial dnde xT = ((vecX); :(vecY)T ], F (x) =


X. y G(x) = Y para algunas matrices de variables X y Y p q y r s, la
frmula en parte la (c) simplica a
@vec (X Y)
= (Iq
@xT

Ksp

Ir ) (Ipq

(vecY) ; (vecX)

Irs ).

También podría gustarte