Algebra M PDF
Algebra M PDF
Algebra M PDF
Preliminares
En este captulo presentaremos algunos resultados que son necesarios para el
desarrollo de la temtica que abordaremos a partir del segundo captulo.
1.1.
Traza
tr(A) =
n
X
Aii .
i=1
CAPTULO 1. PRELIMINARES
ny Bn
m. Entonces
tr(AB) = tr(BA).
Demostracin.
tr(AB) =
m
X
(AB)ii =
i=1
i=1
n
m
X
X
Bki Aik
i=1
k=1
m
n
X
X
Aik Bki
k=1
n
X
(BA)kk = tr(BA).
k=1
i=1
m
n
X
X
i=1
k=1
Aik Aik
k=1
m
n
X
X
i=1
k=1
(Aik )2
n. Entonces A = 0 si y slo si AT A = 0.
n y B; C n
p. Entonces AB = AC si y slo
1.2. RANGO
AC)T (AB
AC) = (BT AT
= BT AT AB
BT AT AC
= BT (AT AB
AT AC)
= (BT
CT )(AT AB
AC)
CT AT AB + CT AT AC
CT (AT AB
AT AC) = (BT
CT AT )(AB
AT AC)
CT )0 = 0.
AC = 0 y as AB = AC.
n. Entonces BAT = CAT si y
n y B; C p
CAT )(BAT
= BAT ABT
CAT )T = (BAT
= (BAT A
CAT A)BT
= (BAT A
CAT A)(BT
1.2.
(BAT A
CAT )(ABT
ACT )
BAT ACT
CAT A)CT
CT ) = 0(BT
CT ) = 0.
Rango
CAPTULO 1. PRELIMINARES
identidad n n ser representada por In . Como un caso excepcional la isima columna de In se denotar por el smbolo ei .
Notaciones y deniciones. Si A es una matriz m n, el smbolo C(A)
denotar el subespacio generado por las columnas de A, el cual es llamado
espacio columna de A. La dimensin de C(A) se llamar rango columna
de A. Adems, diremos que A tiene rango columna completo si el rango
columna de A es n.
Notaciones y deniciones. Si A es una matriz m n, el smbolo F(A)
denotar el subespacio generado por las las de A, el cual es llamado espacio
la de A. La dimensin de F(A) se llamar rango la de A. Adems,
diremos que A tiene rango la completo si el rango la de A es m.
Denicin. Un sistema de ecuaciones lineales es consitente si tiene al
menos un a solucin.
Denicin. Dos sistemas de ecuaciones lineales consistentes con igual nmero
de incgnitas son equivalentes si tiene exactamente las mismas soluciones.
Lema 1.2.1. Sean A m n y B r n tales que los sistemas Ax = 0 y Bx = 0
son equivalentes. Entonces los rangos columnas de A y B son iguales.
Demostracin. Sea c el rango columna de A. Si las columnas k1 <
< kc
de A forman un conjunto linealmente independiente. Entonces la combinacin lineal
s1 Bk1 +
+ sc Bkc = 0
(donde los si son reales) implica que el vector n dimensional que tiene a si
en la posicin ki para todo i y cero en las dems posiciones es solucin del
sistema Bx = 0, y por hiptesis es tambin solucin del sistema Ax = 0.
Luego,
s1 Ak1 +
+ sc Akc = 0,
de donde (por la independencia lineal del conjunto fAk1 ; :::; Akc g) se sigue
que si = 0 para todo i. As, el conjunto fBk1 ; :::; Bkc g es linealmente independiente, y por tanto el rango columna de B es mayor o igual que el rango
columna de A.
1.2. RANGO
n, entonces
Demostracin. Sean r el rango la de A y c el rango columna de A. Armamos que para una matriz A0 que se obtiene al reordenar algunas las de
A, de tal manera que sus primeras r las forman un conjunto linealmente
independiente, se tiene que r es el rango la de A0 y c es el rango columna
de A0 . Lo armado es claro para r. Mostrmoslo para las columnas: como
los sistemas Ax = 0 y A0 x = 0 son equivalentes, ya que: [a1
an ]T es
solucin del sistema Ax = 0 si y slo si
a1 A 1 +
+ an A
= 0,
si y slo si
a1 Ai1 +
si y slo si
a1 A0 1 +
+ an A0 n = 0,
si y slo si [a1
an ]T es solucin del sistema Ax = 0. Se sigue (por Lema
1.2.1) que rango columna de A es igual a rango columna de A0 .
Supongamos que particionamos A0 en la forma
A0 =
B
C
B
DB
A0 x =
Bx
DBx
CAPTULO 1. PRELIMINARES
rango la de AT .
Es decir,
rango la de A
esto es, r
rango columna de A,
c.
AB p ] ,
3
B1j
6
7
A n ] 4 ... 5 = B1j A 1 +
Bnj
+ Bnj A n .
Luego, C(AB)
C(A). Ahora, rk(AB) = rk(A) implica que las dimensiones de C(AB) y C(A) son iguales, y como uno est contenido en el otro
se concluye que C(AB) = C(A).
ii)
2
3
2
3
A1
A1 B
6
7
6
7
..
AB = 4 ... 5 B = 4
5,
.
Am
Am B
1.2. RANGO
3
B1
6
7
Ain ] 4 ... 5 = Ai1 B1 +
Bn
Ai B = [Ai1
+ Ain Bn .
De donde, F(AB)
F(B). Ahora, rk(AB) = rk(B) implica que las dimensiones de F(AB) y F(B) son iguales, y por la anterior contenencia se
concluye que F(AB) = F(A).
Teorema 1.2.4. Sean A una matriz m
rk(AB) rk(A).
n y B una matriz n
p. Entonces
i1
+ cr BA
ir
= 0,
entonces
B(c1 A
i1
+ cr A ir ) = 0
i1
+ cr A
ir
= 0.
CAPTULO 1. PRELIMINARES
n.
Demostracin.
rk(A) = rk(PA) = rk((PA)Q) = rk(PAQ).
2
4
A= 3
2
entonces:
2
2
4 3
2
2
2
4 3
2
1
1
0
1
1
0
1
1
0
3
1 0
2 3 5,
4 1
3
1 0
2 3 5 A2 !A3
4 1
3
1 0
2 3 5 A 2 ! 3A 2
4 1
2
4 2
3
2
2
4 9
2
1
0
1
1
3
0
3
1 0
4 1 5.
2 3
3
1 0
6 9 5.
4 1
1.2. RANGO
2
2
4 3
2
1
1
0
9
3
1 0
2 3 5 A
4 1
3A 1 + A
2
4
2
3
4
1
1
3
3
1 0
2 3 5.
1 1
matriz
1
1
3
2
2
1
3
1
3
0
5 7
7.
3 5
5
10
CAPTULO 1. PRELIMINARES
En efecto,
2
1 1
6 2 1
6
4 0 3
3 2
2
1
1
6 0
1
6
4 0
3
0
1
2
1
3
1
2
5
3
5
3
0
5 7
7 A 2 ! 2A 1 + A 2
3 5 A 4 ! 3A 1 + A 4
5
3
0
5 7
7 B 3 ! 3B 1 + B 3
3 5 B 4 ! B 1+B 4
5
1
6 0
6
4 0
0
2
1
6 0
6
4 0
0
1
1
3
1
2
5
3
5
1
1
0
0
2
5
12
0
3
0
5 7
7 = B,
3 5
5
3
0
5 7
7 = C.
12 5
0
n. Entonces
rk(A) + rk(B).
dim (gen(S))
r + s = rk(A) + rk(B).
1.2. RANGO
11
i1
A ir ] m
r,
r+1
= Ban .
Luego,
AE = [Be1
Ber Bar+1
Ban ] = B [e1
er ar+1
er ar+1
an ] E
an ]
n. Ntese
Teorema 1.2.10. Sea A una matriz m n de rango r. Entonces para cualesquiera r las linealmente independientes y r columnas linealmente independientes de A, la submatriz r r de A que se obtiene al eliminar las
otras m r las y n r columnas de A tiene rango r. Adems, A no tiene
submatrices con rango mayor que r.
Demostracin. Supongamos que las columnas A j1 ; :::; A jr de A forman
un conjunto linealmente independiente y que las las A i1 ; :::; A ir de A
forman tambin un conjunto linealmente independiente. Notamos primero
que la matriz
B = [A j1
A jr ] m r
tiene rango r. Ahora, eliminando de B todas las las, excepto las las i1 ; :::; ir ,
obtenemos la matriz
2
3
Aj1 i1 Aj2 i1
Ajr i1
6 Aj i Aj i
Ajr i2 7
1 2
2 2
6
7
C = 6 ..
..
.. 7 r r.
..
4 .
.
.
. 5
Aj1 ir Aj2 ir
Ajr ir
12
CAPTULO 1. PRELIMINARES
t1
+ cs A
ts
= 0,
c1 D
k1
+ cs D
ks
= 0.
entonces
Luego, la independencia lineal de fD k1 ; :::; D ks g implica que c1 =
=
cs = 0, de donde fA t1 ; :::; A ts g es un conjunto linealmente independiente
de s las de A, lo cual es imposible porque s > r = rk(A). La contradiccin
provien de haber supuesto la posibilidad de que A pudiera tener submatrices
con rango mayor que rk(A).
Denicin. Si A es una matriz m n, se dice que A tiene rango completo
si tiene rango columna completo o bin rango la completo.
Deniciones. Si A es una matriz m n, entonces una inversa a izquierda
de A es una matriz L n m tal que
LA = In .
Y una inversa a derecha de A es una matriz R n
m tal que
AR = Im .
1.2. RANGO
13
m]
= [AR
AR
m]
= [e1
em ] = Im .
rk(A)
rk(AR) = rk(Im ) = m.
14
CAPTULO 1. PRELIMINARES
T U
V W
U T
W V
= rk
= rk
V W
T U
= rk
W V
U T
= m + rk
VT 1 U
Demostracin.
rk
T U
V W
U T
W V
= rk
(1.1)
U T
W V
V W
T U
= rk
V W
T U
V W
T U
= rk
W V
U T
T U
V W
= m + rk
0
In
VT 1 U
1.2. RANGO
15
Entonces
rk
T U
V W
= rk
Im
VT
= rk
T
0 W
= rk(T) + rk
= m + rk
0
In
T U
V W
U
VT 1 U
W
VT 1 U
VT 1 U
16
CAPTULO 1. PRELIMINARES
Captulo 2
Inversas Generalizadas (I.G)
2.1.
Denicin y existencia
42
5
2
n es una
3
1
3 5
2
n invertible. Entonces A
17
es la nica
18
Demostracin. Claramente,
AA 1 A = A.
Ahora, si G es una inversa generalizada de A, entonces
G = In GIn = A 1 AGAA
= A 1 AA
= A 1 In = A 1 .
AIr Ir B
AB.
2.2.
Sistemas lineales
19
p. Un sistema lineal AX = B es
Demostracin. (=)) Supongamos que el sistema lineal AX = B es consistente. Entonces, existe una matriz C tal que AC = B, y para todo vector
columna kT tal que kT A = 0 tenemos
kT B = kT AC = 0C = 0.
Esto es, AX = B es compatible.
((=) Supongamos que AX = B es compatible. Para esta parte es suciente
probar que existe una matriz C n p tal que Ai C = Bi para i = 1; :::; m.
En efecto, si r es el rango de A existen enteros positivos 1
k1 <
<
kr m tales que fAk1 ; :::; Akr g es una base para el espacio la de A. Sea
A1 la matriz cuyas las son Ak1 ; :::; Akr y B1 la matriz cuyas las son
Bk1 ; :::; Bkr . Como A1 tiene rango la completo, entonces tiene al menos
una inversa a derecha R, por tanto el sistema lineal A1 X = B1 es consistente,
tiene al menos la solucin X = RB1 n p. Entonces
Akj RB1 = Bkj
para j = 1; :::; r.
Para i 2 f1; :::; mg fk1 ; :::; kr g Ai est en el generado de fAk1 ; :::; Akr g,
es por tanto que existen escalares ik1 ; :::; ikr tales que
ik1 Ak1
ikr Akr
= Ai ,
20
de donde
i1 A1
con
it
i(i 1) A(i 1)
ii Ai
= 0 cuando t 2
= fk1 ; :::; kr ; ig y
i(i+1) A(i+1)
ii
im Am
=0
im Bm
=0
= 1. Luego,
kT A = 0
con
kT =
i1
ii
i(i 1)
im
i(i+1)
y como
i(i 1) B(i 1)
it
ii Bi
i(i+1) B(i+1)
= 0 cuando t 2
= fk1 ; :::; kr ; ig, encontramos que
ik1 Bk1
ikr Bkr
= Bi .
Luego,
Ai RB1 = (
ik1 Ak1
ik1 Ak1
RB1 +
ik1 Bk1
ikr Akr
)RB1
ikr Akr
ikr Bkr
RB1
= Bi .
21
(AG)B
= (AG)AC
= (AGA)C =
AC
= B.
AGBi = Bi
implica (AGBi )
= (Bi )
8i. Luego,
AGA i = A
As,
8i.
22
AGA = AG [A
=
[A
A n ] = [AGA
A n]
AGA n ]
= A.
2.3.
A11 A12
A21 A22
de donde
A22
o equivalentemente
A22 = A21 A111 A12 .
Teorema 2.3.2. Sea A una matriz m n de rango r, la cual se deja particionar de la forma
A11 A12
A=
A21 A22
donde A11 es invertible r
de A si y slo si
r. Entonces G n
G=
A111
XA21 A111
A111 A12 Y
Y
23
X
Z
A11
A12
A21 A21 A111 A12
A11
A21
G11 G12
n m, con G11 r r, es
G21 G22
una inversa generalizada de A si y slo si AGA = A, o equivalentemente, si
y slo si
Ahora, una matriz particionada G =
A11
A21
A11
A21
A11
A21
Como
rk
A11
A21
= r = rk [A11 A12 ] ,
A11
A21
A111 = A111 .
Pero
A111 [A11 A12 ] G
A11
A21
G11 G12
G21 G22
Ir
A21 A111
= G11 + A111 A12 G21 + G12 A21 A111 + A111 A12 G22 A21 A111 :
Ir
A21 A111
24
25
entonces
AT = [(In )
(In )
i1
in ] .
As,
2
i1
..
i1
in
in (In ) in
3
2
1
0
7 6 .. . . .. 7
5 = 4.
. . 5 = In .
0
1
3
B11 B12
B21 B22
G=Q
B111
XB21 B111
B111 B12 Y
Y
P (2.2)
26
por tanto el Teorema 1.2.10 garantiza que B11 es una matriz invertible y as,
el Teorema 2.3.2 implica que H es de la forma
B111
XB21 B111
B111 B12 Y
Y
B111
XB21 B111
B111 B12 Y
Y
P.
B111 0
0 0
P.
Ntese que esta inversa generalizada se puede hallar siguiendo los siguientes
pasos (se utiliza la notacin del Teorema 2.3.5):
1) Halle r = rk(A).
2) Determine valores para i1 ; :::; ir y j1 ; :::; jr .
3) Construya B11 y encuentre B111 .
4) Construya G de la siguiente manera: Gjs it = (B111 )st para s = 1; :::; r y
t = 1; :::; r, y cero en las restantes posiciones de G.
Ejemplo. Hallemos una inversa generalizada de la matriz
2
(1) (2) 2
6 2
4 4
A=6
4 (1) (0) 1
1
4 3
1
2
1
3
3
1
2 7
7:
0 5
2
27
El rango de A es 2. Las las 1 y 3 forman un conjunto linealmente independiente y las columnas 1 y 2 tambin forman un conjunto linealmente
independiente. Luego, podemos tomar
1 2
1 0
B11 =
es
0
0
0
0
0
(1)
1
2
0
0
0
0
0
0
0
0
7
7
7.
7
5
B11 B12
B21 B22
G = PT
B111
XB21 B111
B111 B12 Y
Y
28
2.4.
G = G + (In
para ciertas matrices n
GAZAG
GA)T + S(Im
AG)
m T y S.
2.5.
G y T = G AG.
Lema 2.5.1. Sea A una matriz de rango columna completo y B una matriz
de ramgo la completo. Entonces:
i) G es una inversa generalizada de A si y slo si G es una inversa a
izquierda de A.
ii) G es una inversa generalizada de B si y slo si G es una inversa a
derecha de B.
Demostracin. Ejercicio.
Lema 2.5.2. Si una matriz A tiene rango columna completo, entonces
(AT A) 1 AT
29
2.6.
1
A
k
Demostracin.
(kA)( k1 A )(kA) = (k)( k1 )(k)(AA A) = kA.
Corolario 2.6.2. Sea A m
de A.
n. Entonces
Demostracin. Tome k =
1 en el Lema 2.6.1.
Demostracin.
AT (A )T AT = (AA A)T = AT .
Demostracin. Ejercicio.
Lema 2.6.5. Sea A m n. Para cualquier matriz B m p, C(B) C(A) si
y slo si B = AA B, o, equivalentemente, si y slo si (Im AA )B = 0.
30
n, entonces
n, entonces
n, entonces
rk(A )
rk(A).
Demostracin. Ejercicio.
Lema 2.6.10. Sean A y B matrices particionadas m
A=
T 0
B=
W
0
n de la forma
.
G1
(donde el nmero de las de
G2
G1 es igual al nmero de columnas en T) es una inversa generalizada de A
Una matriz particionada n
m; G =
31
n, B m
p y C q
n. La matriz
Demostracin. Ejercicio.
2.7.
32
2.8.
2.9.
T U
V W
p; U m q; V n p, W n q y denamos
C(T) y F(V) F(T), entonces
= rk
W V
U T
(2.3)
= rk(T) + rk(Q).
T UQ
Q
T
0
0
+
0
T U
Q
Iq
VT
In
y
Q
T UQ
Q VT
T + T UQ VT
0 0
+
0 T
Iq
Q
T U
In
T U
W V
y
, respectivamente.
V W
U T
VT
33
Demostracin. Ejercicio.
Corolario 2.9.2. Sean T m
C (V) C(W), entonces
rk
T O
V W
pyWn
p, V n
= rk
W V
O T
q. Si F (V)
F (T) o
= rk (T) + rk(W),
y matrices de bloques
T
WVT
0
W
T 0
V W
W
0
W VT
T
W V
, respectivamente.
0 T
Demostracin. Ejercicio.
Corolario 2.9.3. Sean T y W matrices. Entonces la matriz particionada
T
0
T 0
es una inversa generalizada de
.
0 W
0 W
Demostracin. Ejercicio.
Teorema 2.9.4. Si T m
entonces
rk
p, R p
T R
LT W
= rk
q, L n
m, W n
W LT
TR T
q y Q=W
LTR,
= rk(T) + rk(Q).
RQ
Q
T
0
0
+
0
R
Q [ L In ]
Iq
y
Q
RQ
Q L
0 0
=
T + RQ L
0 T
T TR
LT W
Iq
Q [In
R
L]
W LT
, respectivamente.
TR T
34
Demostracin. Ejercicio.
Teorema 2.9.6. Sean T m p; U m q, V n p, W n q y Q =
W VT U. Si C (U)
C (T) y F (V)
F (T), entonces para cualquier
B11 B12
T U
inversa generalizada B =
de
, la submatriz B22 q
B21 B22
V W
n es una inversa generalizada de Q. Similarmente, para cualquier inversa
C11 C12
W V
generalizada C =
de
, la submatriz C11 q n es una
C21 C22
U T
inversa generalizada de Q.
Demostracin. Ejercicio.
2.10.
C (A) y F (B)
F (C) .
2.11. EJERCICIOS
2.11.
35
Ejercicios
36
Captulo 3
Matrices Idempotentes
Denicin. Una matriz A n
n es idempotente si
A2 = A.
n idempotente e invertible.
Teorema Si A n
= A2 A
= AA
Demostracin. Sea
Ax = x. Entonces
x = Ax = A2 x = A x = Ax =
de donde (
= 1:
)x = 0, pero x 6= 0 implica
= In .
f0; 1g :
1 no nulo tal que
x,
= 0. Luego,
=0o
38
xk ] = [Ax1
Axk ] = [x1
xk ] = P.
+ cn xn = c1 Ax1 +
+ cn Axn ;
entonces
A(xk+1
c1 x1
cn xn ) = 0.
Pero, como xk+1 no se deja generar por fx1 ; :::; xk g se tiene que xk+1 c1 x1
cn xn 6= 0, en consecuencia 0 es un valor propio de A, lo cual es absurdo.
Se concluye nalmente que no existen matrices n n distintas de In que sean
idempotentes y tengan como nico valor propio a 1.
Teorema La matriz nula n
espectro igual a f0g :
n es la nica matriz n
n idempotente con
Demostracin.
Una cuestin que debemos anotar es que las matrices nulas y las matrices identidad no son las unicas matrices idempotentes, existen muchas. Por
ejemplo, la matriz
3
2 1 1
0 0
2
2
6 1 1 0 0 7
2
2
7
A=6
4 0 0 1 1 5
2
2
0 0 12 12
es idempotente.
39
Teorema Si A n
Demostracin. Sea fx1 ; :::; xk g una base para EA (0) y escojamos (si es necesario) vectores xk+1 ; :::; xn tales que fx1 ; :::; xk ; xk+1 ; :::; xn g sea una base para
Cn . Entonces fAxk+1 ; :::; Axn g es un conjunto linealmente independiente de
vectores propios de A asociados al valor propio 1. Luego, por Teorema 3.4.2
fx1 ; :::; xk ; Axk+1 ; :::; Axn g
es un conjunto linealmente independiente, en consecuencia la matriz
P = [x1
Axn ] 2 Cn
xk Axk+1
es invertible y
AP =
0 A2 xk+1
A2 xn = [0
Axn ]
0 Axk+1
(k ceros y n
k unos).
Luego, P 1 AP es diagonal.
Lema 10.1.1. La nica matriz idempotente n
identidad In .
n de rango n es la matriz
= A2 A
n idempotente y de
= AA
= In .
2A + A2 = In
A,
40
3.1.
Teorema 10.2.1: Para alguna matriz cuadrada A tal que A2 = kA, para
algun escalar k,
tr (A) = krank (A)
Corolario 10.2.2: Para alguna matriz idempotente A,
rank (I
A) = tr (I
A) = n
n,
rank (A) :
rank I
A A = tr I
n. Entonces,
A A =n
rank (A) ;
ny
rank I
AA
= tr I
AA
41
=m
rank (A) :
42
Captulo 4
Matrices idempotentes
Este captulo es dedicado a una clase especial de matrices llamadas matrices
idempotentes. Aqu se proporcionan algunas propiedades y resultados bsicos
referentes a las matrices idempotentes. Las matrices idempotentes juegan un
papel importante en la teora de los modelos lineales estadsticos (especialmente en lo relacionado con la teora de los mnimos cuadrados y el anlisis
de varianza) y (no es coincidencia) que aparezca frecuentemente en algunos
de los prximos captulos de este libro (incluyendo captulos 12 y 17). Realizar matrices idempotentes es el tema de un captulo separado (aun cuando
da lugar a un capitulo muy corto) es conveniente y sirve para acentuar su
importancia.
4.1.
43
44
n de rango n es la matriz
A)2 = I
2A + A2 = I
2A + A = I
(I
A:
A), se obtiene el
4.2.
45
46
A) = tr(I
A) = tr(In )
tr(A) = n
rank(A);
A) = tr(I
A) = n
n;
rank(A):
(4.1)
n. Entonces,
rank(I
A A) = tr(I
A A) = n
rank(A);
(4.2)
rank(I
AA ) = tr(I
AA ) = m
rank(A):
(4.3)
El siguiente teorema amplia los resultados del lema 10.2.5 y el colorario 9.3.8.
Teorema 10.2.7. Sea A una matriz m n y B una matriz n m. Entonces,
B es una inversa generalizada de A si y solo si BA es idempotente y el
rank(BA) = rank(A). Similaremente, B es una inversa generalizada de A si
y solo si AB es idempotente y rank(AB) = rank(A):
4.3. EJERCICIOS
47
4.3.
Ejercicios
Seccin 10.1
1. Muestre que si una matriz A n n es idempotente, entonces
(a)Para alguna matriz no singular B n n, B 1 AB es idempotente.
(b)Para algn nmero entero k mayor o igual que 2; Ak = A.
2. Sea P una matriz m n (donde m n) tal que PT P = In ; o equivalentemente una matriz m n cuyas columnas son ortonormales (con respecto al
producto interno generalmente). Muestre que la matriz simtrica PPT m m
es idempotente.
3. Muestre que, para alguna matriz A simtrica e idempotente, la matriz
I 2A es ortogonal.
4. Sea A una matriz m
AAT es idempotente.
48
n. Muestre que si
T U
= rank (T) + rank (Q) :
V W
Adems, iet
ET = I
TT ; FT = I
T T; X = ET U; Y = VFT ; EY = I
FX = I
X X; Z = EY QFX y Q = FX Z EY :
YY;
4.3. EJERCICIOS
49
(4.4)
G = G 1 + G2 ;
donde
2
3
T
T U (I Q Q) X ET
6
FT Y (I QQ ) VT
FT Y (I QQ )7
7
G1 = 6
4 FT Y (I QQ ) QX ET
5
(I Q Q) X ET
0
G2 =
T
Iq
VT ; In ;
rank (A) = rank (T) + rank (X) + rank (Y) + rank (Z) :
(4.5)
50
Captulo 5
Formas Lineales, Biliniales y
Cuadrticas
Este captulo est dedicado a ciertas funciones de un vector (ndimensional)
que se denen en la seccin 14.1 y que se conocen como formas lineales, bilineales y cuadrticas. Las formas bilineales que tienen ciertas caractersticas
(conocidas, como su simetra y denidas positivas), son de inters (por lo
menos en parte) porque calican como productos internos para Rn (como se
discute en la seccin 14.10). Las formas cuadrticas y bilineales son de gran
importancia en estadstica; las sumas de cuadrados en un anlisis de varianza
son formas cuadrticas y la suma de productos en un anlisis de covarianza
son formas bilineales.
5.1.
Preliminares
Demostracin. Ejercicio.
Proposicin. Dos formas lineales aT x y bT x son iguales si y slo si a = b.
Demostracin. Ejercicio.
Denicin. Sea A una matriz m n. Una funcin de Rm Rn en R que
asigna a cada pareja (x; y) 2 Rm Rn el valor xT Ay es llamada una forma
bilineal.
Respecto a la denicin anterior, ntese que si x = [x1 x2
[y1 y2
yn ]T , entonces
T
x Ay =
m X
n
X
x m ]T y y =
aij xi yj .
i=1 j=1
5.1. PRELIMINARES
53
xi f (ei ;
y j ; uj )
X X
X
=
xi yj f (ei ; uj ) =
aij xi yj = xT Ay
i
i;j
i;j6=i
(5.1)
(j 6= i = 1; :::; n):
(5.2)
(5.3)
55
5.2.
5.2.1.
57
simtricas. Adems, su uso de los trminos semidenida positiva, semidenida negativa no es completamente normal. En algunas presentaciones, estos
trminos son usados de la misma manera que denida no negativa y denida
no positiva usados aqu.
Este es un instructivo, a considerar el siguiente lema, el cual caracteriza los
conceptos precisos de denida no negativa, denida positiva y semidenida
positiva aplicado a matrices diagonales y el cual es fcil de vericar
Lema 14.2.1 Si D = fdi g n n representa una matriz diagonal. Entonces,
(1) D es denida no negativa si y solo si d1 ; :::; dn son no negativos; (2) D es
denida positiva si y solo si d1 ; :::; dn son positivos ; y (3) D es semidenida
positiva si y solo si di
0; para i = 1; :::; n con la igualdad contenida para
uno o mas valores de i: Suponga que una matriz simtrica A n n es a la vez
denida negativa y denida no positiva. Entonces, para cada vector x n 1;
xT Ax 0 y xT Ax 0 ( equivalentemente xT Ax 0): Concluimos que
xT Ax = 0 para cada x y de aqu (de acuerdo con el corolario 14.14) A = 0:
As tenemos el siguiente lema
Lema 14.2.2. La nica matriz n n simtrica que es tanto denida no
negativa como denida no positiva es la matriz nula n n:
5.2.2.
Ahora, consideremos algunas de las propiedades ms elementales de las matrices denida no negativa. No consideraremos, explcitamente las propiedades
de las matrices denida no positiva. Sin embargo, como A es denida positiva, denida negativa, o semidenida negativa si y solo si A es denida
no negativa, denida positiva semidenida positiva respectivamente, las
propiedades de las matrices no positivas denidas podran deducirse fcilmente de las matrices denidas no negativas.
Los siguientes dos lemas dan algunos resultados bsicos sobre multiplicacin
y sumas de matrices denida no negativa
Lema 14.2.3 Sea k > 0 que representa un escalar (positivo) y An n una
matriz. Si A es denida positiva, entonces kA tambin es denida positiva;
Si A es semidenida positiva, entonces kA tambin es semidenida positiva
Prueba Considere las formas cuadrticas xT Ax y xT (kA) x (en x). Claramente, xT (kA) x = kxT Ax. Por tanto, si xT Ax es denida positiva, entonces
xT (kA) x es denida positiva; similarmente, si xT Ax es semidenida positiva, entonces xT (kA) x es semidenida positiva. O equivalentemente si A
es denida positiva, entonces kA es denida positiva; y si A es semidenida
positiva, entonces kA es semidenida positiva.
Lema 14.2.4 Sean An n y Bn n matrices. Si A y B son ambas denida
no negativa, entonces A + B es denida no negativa. Adems, si A B
es denida positiva y la otra es denida no negativa (i.e denida positiva
semidenida positiva), entonces A + B es denida positiva.
Prueba Suponga que una de las dos matrices, digamos A, es denida positiva
y que la otra (B) es denida no negativa. Entonces, para todo vector nu nulo
x en Rn ; xT Ax > 0 y xT Bx 0 y en consecuencia
xT (A + B) x = xT Ax + xT Bx > 0
Por tanto, A + B es denida positiva.
Un argumento similar muestra que si A y B son ambas denidas no negativa,
entonces A + B es denida no negativa.
La primera implicacin del lema 14.2.4 se repite en la siguiente generalizacin.
Corolario 14.2.5. Sea A1 ; :::; Ak matrices n n: Si A1 ; :::; Ak son todas
denidas no negativa, entonces su suma A1 +; :::; +Ak es tambin denida
no negativa.
Adems, si una o mas de las matrices A1 ; :::; Ak es denida positiva y las
otras son denidas no negativa,entonces A1 +; :::; +Ak es denida positiva.
Como una consecuencia inmediata del lema 14.1.1, tenemos el siguiente lema
y corolario.
Lema 14.2.6 Sea A una matriz n n y tomemos B alguna matriz n n
tal que B + BT = A + AT : Entonces A es denida positiva si y solo si B
es denida positiva; es semidenida positiva si y solo si B es semidenida
positiva, y es denida no negativa si y solo si B es denida no negativa.
59
0;
(5.4)
rk (P) < m;
61
xT PT AP x = (xP)T APx = yT Ay = 0:
Concluimos que PT AP es semidenida positiva.
Corolario 14.2.11. (1) Una matriz denida positiva es invertible, y su inversa es denida positiva. (2) Si una matriz semidenida positiva es no singular,
entonces esta es invertible y su inversa es semidenida positiva.
Prueba. (1) Sea A una matriz denida positiva. Entonces, de acuerdo con
el lema 14.2.8, A es no singular y por lo tanto (acorde al teorema 8.14)
T
T
invertible. Como (A 1 ) = (A 1 ) AA 1 ; se sigue de la parte (1) del coroT
lario 14.2.10 (simultneamente con el resultado (2;5)) que (A 1 ) es denida
positiva y por lo tanto (a la luz del corolario 14.2.7) A 1 es denida posotiva
(2) Utilizando un razonamiento similar, podemos mostrar que la parte (2)
del colorario 14.2.11 desprende de la parte (2) del corolario 14.2.10.
Corolario 14.2.12. Cualquier submatriz principal de una matriz denida
positiva es denida positiva; cualquier submatriz principal de una matriz
semidenida positiva es denida no negativa.
Prueba. Sea A una matriz n n; y considere la submatriz principal de A
obtenida por extender todas sus las y columnas excepto su i1 ; i2 ; :::; im las
y columnas (donde i1 < i2 ; ::: < im ) Esta submatriz se expresa como PT AP,
donde P es la n m matriz cuyas columnas son i1 ; i2 ; :::; im columnas de
In : Como el rk (P) = m; sigase la parte (3) del teorema 14.2.9 que PT AP
es denida positiva si A es denida positiva. Adems, sigase la parte (1)
del teorema 14.2.9 que PT AP es es denida no negativa si A es denida no
negativa (y en particular si A es semidenida positiva).
Corolario 14.2.13 Los elementos de la diagonal de una matriz denida
positiva son positivos; los elementos de la diagonal de una matriz semidenida
positiva son no negativos.
Prueba. Este corolario se sigue inmediatamente del corolario 14.2.12 observando. (1) que el i simo de la diagonal de la matriz A (cuadrda) es
el elemento de una submatriz principal 1 1 (que se obtiene por extender
todas las las y columnas de A excepto la i sima la y columna y (2) que
5.2.3.
63
5.3.
5.3.1.
65
b = (u; I)A
1
0
= a11 u + a;
A= Q
1 T
QT AQQ
= Q
1 T
DQ
67
di yi2
5.3.2.
n
X
i=1
dk tTk tk
r
X
i=1
r
X
p
dki tki
i=1
dki tTki = PT P;
y rank(P) = rk PT P = rk (A) = r:
Recprocamente si existe una matriz P r n de rango r tal que A = PT P;
entonces
rk (A) = rk PT P = rk (P) = r;
A es simtrica y (de acuerdo al corolario 14.2.14) A es denida no negativa.
69
P1
:
0
Entonces claramente A = PT P
Corolario14.3.11 Para alguna matriz Xn m y alguna matriz simtrica
An n denida no negativa, AX = 0 si y solo si XT AX = 0:
Prueba. De acuerdo al corolario 14.3.8, existe una matriz P tal que A =
PT P y por lo tanto tal que XT AX = (PX)T PX. As que, si XT AX = 0,
entonces (a luz del corolario 5.3.2) PX = 0; implica que AX = PT (PX) = 0:
Que XT AX = 0 si AX = 0 es obvio
Corolario14.3.12 Una matriz simtrica denida no negativa es deninida
positiva si y solo si esta es no singular (o, equivalentemente. es semidenida
positiva si y solo si esta es singular).
Prueba Sea A una matriz n n simtrica denida no negativa.Si A es
denida positiva, entonces tenemos, como una consecuencia inmediata del
lema 14.2.8 que A es no singular.
Supngase que la matriz simtrica A denida no negativa es no singular,
y considere la forma cuadrtica xT Ax (en x). Si xT Ax = 0; entonces de
acuerdo con el corolario 14.3.11, Ax = 0, y consecuentemente x = A 1 Ax =
0: As que, la forma cuadrtica xT Ax es denida positiva y por lo tanto la
matriz A es denida positiva
Como caso un especial del teorema 14.3.7 (donde r = n); tenemos (a la luz
del corolario 14.3.12) el siguiente corolario.
Corolario14.3.13 Una matriz A n n es una matriz simtrica denida
positiva si y solo si existe una matriz no singular P tal que A = PT P:
El Corolario14.3.13 es una variante del teorema 14.3.7 que especica las
matrices simtricas denidas positivas. Similarmente, el siguiente corolario
es una variante del colorario 14.3.9 que especica las formas cuadrticas
denidas positivas.
Corolario14.3.14 Una forma cuadratica xT Ax
(en un vector x ndimensional) es denido positivo si y solo si, para alguna
matriz Pn n no singular, xT Ax = (Px)T Px para todo x (esto es, xT Ax
es expresable como la suma de cuadrados de los elemntos del vector Px)
5.4.
(5.5)
71
(5.6)
1 T
(5.7)
5.5.
5.5.1.
Preliminares
A
bT
a
;L =
c
L
lT
0
;U =
1
D=
D
0
0
k
U
0
u
1
1)
(n
1) entonces A =
L D U =A ;
(5.8)
L D u = a;
(5.9)
UT D ` = b;
(5.10)
k=c
`T D u
73
(5.11)
A
bT
n (donde n
2); y la particin de
a
c
donde A es de dimendiones (n 1) (n 1)
(1)Si A tiene descomposicin LDU; es decir A = L D U y si a 2 C (A )
y bT 2 F (A ) ; entonces existen vectores ` y u tales que UT D ` y tomando
` y u para ser cualquiera de esos vectores, y tomando k = c `T D u y la
descomposicin LDU de A es
A=
L
`T
0
1
D
0
0
k
U
0
u
1
(5.12)
(10 ) Si A es simtrica (caso en que AT = A y b = a); si AT tiene descomposcion UT DU; es decir A = UT D U ; y si a 2 C (A ) ; entonces existe un
vector u tal que UT D U = a; y tomando u para ser cualquier vector, y
tomando k = c uT D u y la descomposicin UT DU de A es
A=
U
0
u
1
D
0
0
k
U
0
u
1
(5.13)
(2)la matriz A tiene descomposicin LDU solamente si A tiene una descomposicin LDU, a 2 C (A ) y bT 2 F (A )
L=
L11 0
;U =
L21 L22
U11 U12
;y D =
0 U22
75
D1 0
0 D2
5.5.2.
Es fcil ver que una matriz A tiene una (nica) descomposicin LDU (y
UT DU) es decir, A = (1)A(1). El siguiente teorema arroja resultados sobre
la existencia y construccin de una descomposicin LDU UT DU de una
matriz (cuadrada) de orden dos o ms.
Teorema 14.5.4 Sea A = faij g una matriz n n (donde n 2):Denotamos Ai
la submatriz principal de A de orden i (i = 1; :::; n) : Para i = 2; :::; n tomamos
ai = (a1i ; :::; ai 1;i )T y bTi = (ai1 ; :::; ai;i 1 ) ; o equivalentemente se dene ai y
bTi por
A=
Ai 1 ai
:
aii
bTi
Li =
Ui
Li 1 0
; Ui =
1
0
`Ti
ui
1
y Di =
Di
0
0
di
(5.14)
Ui
0
ui
1
y Di =
Di
0
0
di
(5.15)
77
del teorema 14.5.3 que las submatrices principales A2; A3 ; :::; An 1 de orden
2por n 1 (tambin como la submatriz principal An = A de orden n) tienen
descomposicin LDU: Basado en la parte (2) del teorema 14.5.2 se concluye
que para i = 2; :::; n; ai 2 C (Ai 1 ) y bTi 2 F (Ai ) :
(20 )Una prueba de la parte (20 ) ; analoga a la parte (2) ; pude ser construida
haciendo uso del teorema 14.5.3 y parte (20 ) del teorema 14.5.2
Note que, las partes (1) y (2) del teorema 14.5.4 implican en particular que
A tiene una descomposicin LDU: si y solo si, para para i = 2; :::; n; ai 2
C (Ai 1 ) y bTi 2 F (Ai ) : similarmente, las partes (10 ) y (20 ) implican que
A tiene una descomposicin UT DU si y solo si, A es simtrica y,para i =
2; :::; n; ai 2 C (Ai 1 ) :
Para nes de ilustracin, considere una matriz 2 2 A = faij g y suponga
que a11 = 0: Entonces, A tiene una descomposicin LDU. si y solo si a21 =
a12 = 0 esto es, si y solo si A es de la forma
A=
0 0
:
0 a22
1 0
` 1
0 0
0 a22
1 u
0 1
LD = L
(LDU)U
=L
(L D U )U
=D U U
(5.16)
(5.17)
79
(5.18)
(5.19)
Similarmente, A2 = L1 DU = L11 D1 U2 y A2 = L1 D U = L1 DU
= L11 D1 U2 = L11 D1 U2 ; implicando que L11 D1 U2 = L11 D1 U2 de hay
que
U2 = U2
(5.20)
81
5.5.3.
(LDU) L
1 T
= L 1A L
1 T
83
(5.21)
por otra parte, tomando U como la nica matriz triangular superior unitaria
y D = fdi g como la nica matriz diagonal tal que A = UT DU;
T = D1=2 U;
p
p
Donde D1=2 = diag d1 ; :::; dn :
Prueba. Note que el corolario 14.5.10 garantiza la existencia y unicidad de
la matriz triangular superior unitaria U y la matriz diagonal D y tambin
garantiza que los elementos de la diagonal de D son positivos. note adems
que D1=2 U es triangular superior, y que los elementos de la diagonal de
p
p
T
D1=2 U son d1 ; :::; dn , y que A = D1=2 U D1=2 U: As existe una matriz triangular superior T con los elementos de la diagonal positivos tal que
A = TT T: Le sigue para mostrar que slo hay una matriz triangular superior
con los elementos de la diagonal positivos.
Supngase que T = ftij g es una matriz triangular superior n n con
los elemntos de la diagonal positivos tal que A = TT T: Denamos D =
diag (t211 ; :::; t2nn ) y
U = [diag (t11 ; :::; tnn )]
Entonces, U es triangular superior unitaria, y A = UT D U es una descomposicin UT DU de A: As se sigue del corolario 14.5.10
p que D = D o,
equivalenemente (ya que tii es positivo) se tiene que tii = di (i = 1; ::::; n)
y que U = U: Consecuentemente, T = D1=2 U = D1=2 U: Concluimos que la
unica matriz triangular superior T con los elementos de la diagonal positivos
tal que A = TT T es T = D1=2 U
La desconmposicin (5;11) de la matriz simtrica defnda positiva A es
conocida como la descomposicin de Cholesky
5.5.4.
(5.22)
85
(5.23)
p
d1 ; :::; dn
(5.24)
87
5.5.5.
d1 = a11
d1 u1j = a1j ;
di uij = aij
i 1
X
1)
1)
k=1
d1 `j1 = aj1;
di `ji = aji
i 1
X
k=1
j 1
dj = ajj
ukj dk `jk
k=1
(j = 2; :::; n) :
El primer paso en los n pasos en el procedimiento para la construccin de
U; L y D consiste en establecer d1 = a11 : El j simo paso (2
j
n);
consiste en determinar secuencialmente a uij y `ji para i = 1; :::; j 1; y
entonces determinar [por medio de la formula (5;15)] dj : Si di = 0; entonces
uij y `ji pueden ser escogidas arbitrariamente; por ejemplo escogiendo uij =
`ji = 0: Si di 6= 0; entonces dependiendo si i = 1 i > 1; tomemos
uij = aij =di y `ji = aji =di
!
!
i 1
i 1
X
X
uij = aij
`ik dk ukj =di y `ji = aji
uki dk `jk =di ;
k=1
k=1
89
respectivamente
Hay un procedimiento alternativo de n pasos para construir U; L y D en
elcual U es formado la por la ms bien columna por columna y L es
formada columna por columna la por la. El primer paso consiste en
establecer d1 = a11 y, dependiendo si d1 = 0 d1 6= 0; escogemos u12 ; :::; u1n
y `21 ; :::; `n1 arbitrariamente (para j = 2; :::; n); denamos u1j = a1j =d1
y `j1 = aj1 =d1 :El i simo paso (2
i
n 1); consiste en determinar
[por medio de la formula (5;15)] di :y, dependiendo si di = 0 di 6= 0 escogemos ui:i+1 ; :::; ui 1 y `i+1:i ; :::; `ni arbitrariamente (para j = i + 1; :::; n )
tomamos.
uij = aij
i 1
X
aji
k=1
i 1
X
k=1
Note que (con cualquiera de estos procedimientos )una vez d1 fue determinado, ajj no es necesario (al menos no para construir una descomposicin
LDU) similarmente una vez uij haya sido determinada, aij no es requerida
y, una vez `ji haya sido determinada aji no es requirida, esto tambien en
la implementacin del proceso en lacomputadora esto puede ser solucionado si tanto dj ; uij y `ji son determinadas, ellas son encontradas previamente
utlizando ajj ; aij y aji respectivamente.
En lo que concierne, fue asumido que A tiene una descomposicin LDU; la
no existencia de una descomposicin LDU puede (al menos en un principio
es determinado durante el curso del proceso incorporando siertas pruebas, si
d1 = 0; entonces antes de la asignacin de valores a u1j y `j1 deberiamos
probar si a1j =0 y aj1 =0; similarmente si di = 0 (2 i n 1); entonces
antes de la asignacin de valores a uij y `ji deberiamos probar que si
aji
i 1
X
aji =
uki dk `jk = 0
k=1
k=1
equivalentemente
i 1
X
i 1
X
k=1
i 1
X
k=1
uki dk `jk
si t11 > 0
tij =
aij
i 1
X
k=1
(5.26)
a11
si, t11 = 0
tki tkj
tii
= 0 si tii = 0
(i = 2; 3::::; j
1),
(5.27)
(5.28)
si tii > 0
(5.29)
(5.30)
tjj =
aij
i 1
X
k=1
t2kj
!1=2
91
(5.31)
(j = 2; 3; :::; n)
En el mtodo de la raz cuadrada, T es construido la por la columna
por columna en n pasos, una la columna por paso. por ejemplo, el primer
paso de la versin la por la consiste en la determinacin de t11 ; t12 ; :::; t1n ;
[por medio de las formulas (5.16) y (5.17)] el paso i simo (2 i n 1)
consiste en la determinacin de tii ; ti;i+1 ; :::; tin por medio de las formulas
(5.19) y (5.18) ; y el paso nal (n simo) consiste en la determinacin de
tnn por de la formula (5.19).
Si hay incertidumbre acerca de si A es denida no negativa, entonces, en
la aplicacin del mtodo de la raz cuadrada a A. Varias modicaciones
deben ser incorporadas. Debemos (determinar previamente a t11 ) ensayando
si a11
0; y si a11 = 0, debemos (denir a t1j = 0 ) ensayando si a ii
X
Xi 1
t2ki
0, y si a ii
t2ki = 0, debemos (denir a tij = 0) ensayando
k=1 X
si aij
tki tkj = 0. Finalmente, debemos ( determinar a tnn ) ensayando
X
si ann
t2kn 0.
Si el resultado de algn ensayo es negativo, se sigue del teorema 14.5.4 y
14.5.16 que en cualquiera de los casos, A no tiene una descomposicin
UT DU para una descomposicin (de A), expresar A = UT DU, uno
ms de los elementos de la diagonal de la matriz diagonal D son negativos.
Asi, si el resultado de algn ensayo es negativo terminamos el mtodo de
la raz cuadrada procediendo y concluyendo (en base al corolario 4.5.15) que
A no es denida no negativa. Si el resultado de cada ensayo es positivo,
entonces A es no negativa, y el procedimiento es llevado a la terminacin y
produccin de la descomposicin de Cholesky.
Supngase, por ejemplo que
0
4
@
2
A=
2
1
2
2
1
1 A
1 10
2 1
@
0 0
A=
0 0
1T 0
1
2 1
A
@
0
0 0
3
0 0
1
1
0 A
3
Note que si a23 = a32 hubieran sido igualadas a otro nmero diferente de 1
se hubiera dado el caso de que a23 t12 t13 6= 0; y A no hubiera sido denida
no negativa. O, si el valor de a 22 hubiera sido ms pequeo que uno, se habra
tenido el caso de que a22 t212 < 0, y A no habra sido denida no negativa.
5.5.6.
(5.32)
1 T
(5.33)
93
5.5.7.
m. Si A es seudo
PT AP
5.6.
5.6.1.
Los siguientes resultados son una consecuencia inmediata del corolario 14.2.13
Teorema 14.7.1. Para alguna matriz A denida positiva, tr(A) > 0.
El siguiente teorema extiende el resultado del teorema 14.7.1 a matrices
denidas no negativas que no son denidas positivas, esto es, matrices semidenidas positivas.
95
0 (i = 1; 2; :::::n). As
con tr(A) = 0 si y solo si a11 + a22 + :::: + ann 0 son iguales a cero. Que la
matriz no negativa A sea seudo simtrica es equivalente a que los elementos
de la diagonal de A sean ceros. es una consecuencia inmediata del Lema
14.6.4.
En el caso especial en que A es una matriz simetrica no negativa,el Teorema
14.7.2 ( a la luz del Lema 14.6.1) puede ser restaurado como sigue.
Corolario 14.7.3 Sea A = faij g una matriz n n simtrica no negativa.Entonces, tr(A)
0, con la igualdad si y solo si los elementos de la
diagonal de A, a11 ; a22 ; :::; ann son iguales a cero o equivalentemente si A = 0:
5.6.2.
(5.34)
QAQT
(5.35)
De aqui que Q es de rango la completo y que QT de rango columna completo, (como consecuencia del lema 8.3.1) tenemos que la condicin (7.2) es
equivalente a la condicin
QT QAT QT Q =
QT QAQT Q
BAB
(5.36)
97
(5.37)
(5.38)
Por otra parte, dado que QT es de rango columna completo, se sigue del lema
8.3.1 que la condicin (7.5) es equivalente a la condicin
QT QB = QT 0
la cual se puede expresar como AB = 0 se concluye que la condicin (7.4)
es equivalente a la condicin AB = 0.
En el caso especial en que A = I B = I, el corolario 14.7.7 se reduce al
corolario 14.7.3.
5.7.
5.7.1.
T U
V W
W V
U T
99
T U
V W
RT
ST
RT R R T S
ST R ST S
(R; S) =
T U
V W
C(T) y
C(RT ) = C(T)
F(V)
F(R) = F(T):
5.7.2.
C(W) y R(U)
Matrices Diagonales
El lema 14.2.1 caracteriza los conceptos de deniciones no negativas, positivas y semidenidas positiva como su aplicacin a las matrices diagonales.El
siguiente resultado extiende el resultado del lema 14.2.1 a matrices diagonales
.
Lema 14.8.3 Si Ai representa una matriz ni ni con (i = 1; 2; ::::::k); siendo
n = n1 + n2 + ::: + nk y se dene la matriz A diagonal como
A = diag(A1 ; A2 ; :::; Ak ):
Entonces,(1) A es denida no ngativa si y solo si A1 ; A2 ; :::; Ak son denidas
no negativas; (2) A es denida positiva si y solo si A1 ; A2 ; :::; Ak son denidas
positivas; (3) A es semidenida positiva si y solo si el bloque diagonal
A1 ; A2 ; :::; Ak son denidas no negativas con al menos uno del bloque diagonal semidenido positivo.
Prueba. Considere la forma cuadratica xT Ax ( donde x es un vector columna n dimensional) y A una matriz. La particin de xT como
xT = (xT1 ; xT2 ; :::; xTk ), donde ( para i = 1; 2; :::; k) xi es un vector columna
ni dimensional. Entonces claramente,
xT Ax = xT1 Ax + xT A2 x2 + ::: + xTk Ak xk :
(1) Si A1 ; A2 ; :::; Ak son denidos no negativos, entonces por denicin
xTi Ai xi 0 para cada xi con (i = 1; 2; :::; k), implicando que xT Ax 0 para
cada x y de all que A es denida no negativa. Inversamente, si A es denida
101
xT Ax 0 para cada x con la igualdad para x0 (0; :::; 0; xi ;0; :::; 0). As que,
A es semidenida positiva.
Inversamente, supngase que A es semidenida positivo. Entonces se sigue
de la parte (1) que A1 ; A2 ; :::; Ak son denidos no negativos.Por otro lado se
sigue de la parte (2) que no todas las matrices A1 ; A2 ; :::; Ak son denidas
positivas y de aqu que (ellos son denidos no negativos) tal que al menos
una de ellas es semidenida positiva.
5.7.3.
T U
V W
Im
0
T U
In
T
T
V (T U) T
TT
Q
donde Q = W VT U (T U)T (I TT ) U.
Supngase que A es denida positiva. Entonces de acuerdo con el corolario
14.2.10, PT AP es denida positiva. As que, se sigue del corolario 14.2.12 que
Q es denido positivo. Una implicacin adicional del corolario 14.2.12 es que
T es denida positiva y por lo tanto no singular, as que Q = W VT 1 U.
Concluimos que si A es denida positiva, entonces el complemento de Schur
de T es denido positivo.
Supngase ahora que A es semidenida positiva. Entonces de acuerdo con
el corolario 14.2.10, PT AP es semidenida positiva. As que se sigue del
corolario 14.2.12 que Q es denida no negativa.Si C(U) C(T) el cual (a
la luz del corolario 14.8.2) deba ser el caso si A era simtrica - entonces ( de
acuerdo al lema 9.3.5) (I TT )U = 0, y por lo tanto Q = W VT U.
Concluimos que si A es simtrica semidenida positiva, ms generalmente,
si A es semidenida positiva y C(U) C(T) , entonces el complemento de
Schur de T es denido no negativo.
Que el complemento de Schur de T es de denido no negativo si A es semidenida positivo y F(V)
F(T) puede ser establecido en un argumento
similar
103
T U
UT W
Im
0
T U
In
UT T U
UT T U)P
(5.39)
T U
UT W
5.8.
5.8.1.
105
0 c
c 0
0.
B11 B12
,
B21 B22
Pero,
(B22
0.
0.
2)
(n
2), es
107
Demostracin. La prueba es por induccin matemtica. Claramente el determinante de cualquier matriz denida no negativa 1 1 es no negativa.
Suponga ahora que el determinante de toda matriz denida no negativa
(n 1) (n 1) es no negativo, y consideremos una matriz A n n denida
no negativa (para completar el argumento de induccin debemos demostrar
que det(A) 0). Es suciente restringirse al caso donde al menos uno de los
elementos de la diagonal de A formada por las componenetes a11 ; : : : ; ann de
A es no negativo, y por lo tanto positivo (si todas las componentes en esa diagonal de A son cero, entonces, de acuerdo al Lema 14.6.4, A es antisimtrica
y tenemos como consecuencia del Teorema 14.9.2 que el det(A) 0). Asumiendo que amm > 0 para algn entero m (1
m
n). Sea B = PT AP,
donde P es una matriz de permutacin obtenida al intercambiar la primera
y la m sima columna de In (si m = 1 tomamos P = In ). Observamos (de
acuerdo al Teorema 14.2.9) que B es denida no negativa y que
det(B) = (det(A))2 det(A) = det(A).
Consideremos la particin de B como
B=
B11 B12
,
B21 B22
donde el tamao de B11 es 1 1. Claramente, B11 = [amm ] y consecuentemente se sigue del Teorema 13.3.8 que
det(B) = amm det(B22
Adems, de acuerdo a las partes (1) y (3) del Teorema 14.8.4, B22 B21 B111 B12
(que es (n 1) (n 1)) es denida no negativa. Luego, por hiptesis de
induccin
det(B22
0.
0.
simtrica n
a12
a22
..
.
ak2
n y para k = 1; : : : ; n sea
3
a1k
a2k 7
7
.. 7
..
.
. 5
akk
A
aT
n (donde n
2) y la particin
a
;
c
109
aT A 1 a)
por consiguiente (de acuerdo la lema 14.9.1) det(A ) > 0 (y de ah det(A) >
0), concluimos que el complemento Schur c aT A 1 a de A (como A misma)
es denida positiva y de ah, [de acuerdo a la aparte (1) del teorema 14.8.5]
que A es denida positiva.
Demostracin. (Del teorema 14.9.5) que los determinantes de A1 ; A2 ; : : : ; An
son positivos si A es denida positiva es una consecuencia inmediata del corolario 14.2.12 y lema 14.9.1.Para el propsito de probar esto, suponga que los
determinantes de A1 ; A2 ; : : : ; An son positivos. La prueba consiste en establecer por medio de argumentos de induccin matemtica, que A1 ; A2 ; : : : ; An
son denidos positivos, el cual (desde A = An ), implica en particular que A
es denida positiva. Claramente A1 es denida positiva. Suponga ahora que
Ak 1 es denida positiva (donde 2 k n) y la particin de Ak es
Ak =
Ak 1 ak
aTk
akk
n (donde
B a
;
aT c
B
u BU
T
UT Bu
uT Bu
2)
(n
2) de UT BU es
P=
111
U 0
:
0T 1
1
UT Bu UT a
uT Bu uT a A :
aT u
c
f11 f12
f21 f22
con
f11 = uT Bu uT BU B 1 UT Bu;
f12 = uT a uT BU B 1 UT a;
f22 = c aT U B 1 UT a:
Adicionalmente,
j B j=j U j2 j B j=j UT BU j=j B j (uT Bu
uT BU B 1 UT Bu) =j B j f11
2
f12
jB j:
B a
aT c
113
A B12
BT12 B22
donde B12 = PT1 AP2 y B22 = PT2 AP2 , de ahi, rk(B) = rk(A) = r; se sigue
del lema 9.2.2 que B22 = BT12 A 1 B12 , asi:
B =(Ir ; A 1 B12 )T A (Ir ; A 1 B12 );
es decir que,
A = PBPT = QT A Q ,
donde, Q = (Ir ; A 1 B12 )PT :
Adems, rk(Q)
rk(A) = r, y (por lo tanto Q es de dimensin r
rk(Q) r: As, rk(Q) = r.
n )
5.9.
Ejercicios
Seccin 14.1
1)
Demostrar q ue una forma bilineal simetrica XT Ay (en los vectores
X y y
n -dimensional) puede ser expresado en terminos de la
correspondiente forma cuadratica, que es la forma cuadratica cuya matriz es
A entonces verique que :
XT Ay = 1=2(x + y)T A(X + y)
XT AX
yT Ay
5.9. EJERCICIOS
115
1=ai;j
5.9. EJERCICIOS
117
gii = di
uik gki = di
k=i+1
y que
gij=
8
>
>
>
>
<
>
>
>
>
:
n
X
k=i+1
giklik
k=i+1
k=i+1
n
X
n
X
9
>
>
giklik ; para j<i >
>
=
>
>
uik gkj , para j>i >
>
;
5.9. EJERCICIOS
Donde las sumas generadas
119
n
X
giklik y
k=n+1
0.
n
X
k=i+1
k
X
Ai Es semi-simetrica o equivalen-
i=1
i=1
5.9. EJERCICIOS
121
5.9. EJERCICIOS
123
Captulo 6
Diferenciacin de matrices
Es natural y conveniente usar terminologa y notacin matricial en deniciones y discusiones de ciertas funciones de una o ms variables. En el capitulo ??, se uso la notacin y terminologa matricial en la denicin y discusin
de formas lineales, bilinales y cuadrticas. En algunos casos, el uso de notacin y terminologa matricial es inevitable. Considere por ejemplo el caso
donde el determinante de una matriz n n es considerada como una funcin
de sus m2 componentes.
La diferenciacin de matrices es el clculo de la primera, segunda, o derivadas
parciales de orden superior de una funcin o funciones que han sido expresadas en trminos de matrices. Es natural, conveniente y en algn caso necesario, emplear notacin y terminologa matricial. No solamente las funciones
pueden ser expresadas en trminos de matrices, pero las funciones pueden
contener elemtos de un vector o matriz, como puede ser el caso, donde los
elementos de la inversa de una matriz A (invertible) n n fueran considerada
como funcin de los elementos de A. La diferenciacin de matrices es de considerable importancia en estadstica, es especialmente utilizada en relacin
con la estimacin mxima de verosimilitud de los parmetros en un modelo estadstico. La estimacin mxima de verosimilitud de los parmetros de
modelos satisfacen la ecuacin( conocida como la ecuacin de verosimilitud)
obtenida por la ecuacin en cero de la derivada de primer orden (con respecto
a los parmetros del modelo) del logaritmo de la llamada funcin de verosimilitud, en algunos casos la funcin de verosimilitud implica el determinante y/o
inversa de una matriz. Adicionalmente, una aproximacin (conveniente para
muestras extensas) de la varianza-covarianza de una matriz de una estimacin
mxima de verosimilitud, pueden obtenerse invirtiendo la matriz (conocida
125
126
6.1.
Preliminares
x!c
Por denicin, lim f (x) = f (c) es un escalar b tal que, para todo escalar
x!c
positivo e, existe una vecindad Ne de c tal que jf (x) bj < e para todo x en
Ne distintos de c. Una matriz F p x q de funciones, donde cada dominio de
esta, est en el mismo conjunto S de Rm 1 , diremos que esta es continua en
un punto interior c de S, si todos los elementos pq de F son continuos en c.
6.2.
127
es el vector la (D1 f (c); : : : ; Dm f (c)) cuyos elementos son los valores de las
funciones D1 f; : : : ; Dm f de c - note que Df (c) es denida nicamente, si c
es tal que todas las m derivadas parciales de f , existen c. el vector columna
(Df )hace referencia al gradiente ( vector gradiente) de f .
Una notacin alternativa se obtiene escribiendo @f (x)=@xj para la j
esima derivada parcial de f en x, escribiendo @f (x)=@x0 para el vector
la [@f (x)/@x1 , . . . ,@f (x)=@xm ]0 de derivadas parciales de f en x, y escribiendo @f (x)=@x para el vector columna [@f (x)/@x1 , . . . ,@f (x)=@xm ]0 de
derivadas parciales de f en x, en este contexto @f (x)=@x0 puede ser llamada
la derivada f (x) con respecto a x0 , y @f =@x puede ser llamada la derivada
de f (x) con respecto a x. Los smbolos @f (x)=@xj , @f (x)=@x0 , @f (x)=@x
tienen la mismas interpretaciones como Dj f (x); Df (x),y [Df (x)]0 , respectivamente y son algunas veces abreviadas a @f / @xj , @f / @x0 , y @f / @x:
En ciertas ocasiones (para ser acertados dentro del contexto), estos smbolos
pueden ser usados para representar la funcin Dj f y los verctores de funciones Df y (Df )0 (ms que sus valores en x.) La funcin f (con dominio
S en Rm 1 ) ser continuamente diferenciable en el punto interior c de S , s
D1 f (x); : : : ; Dm f (x) existen y son continuas para todo punto x en alguna
vecindad de c. Y se puede demostrar, que si f es continua y diferenciable en
c entonces.
lim
f (x)
x !c
[f (c) + D f (c)(x
jjx cjj
c)]
= 0;
(6.1)
c) + jjx
cjj
f (x)
[f (c) + Df (c)(x c )]
:
jjx cjj
128
6.2.1.
129
lim
f (x)
[f (c) + D f (c)(x
x !c
c) + (1=2)(x
jjx cjj2
c)T H f (c)(x
c)]
= 0;
(6.2)
lo cual indica que, para x sucientemente cerrado a c, entonces la formula
de Taylor de segundo orden .
f (c) + D f (c)(x
c) + (1=2)(x
c)T H f (c)(x
c)
Aproxima a f (x) con un error que es de orden mas pequeo que jjx cjj2 (e.g.,
Magnus and Neudecker, 1988, sec. 6.9).
Las derivadas parciales de f de orden k (donde k
2) puede ser denida
recursivamente. Suponga que el (k 1) esimo orden de la derivada parcial
de f en x, existe para todo x en alguna vecindad de c. para j = 1; : : : ; k,
sea i; j que representa un entero arbitrario entre 1 y m inclusive, cuando la
i1 esima derivada parcial de la i2 : : : ik esima del (k 1) esimo orden
de la derivada parcial de f en c existe es llamado el i1 i2 : : : ik esimo del
k esimo orden de la derivada parcial de f en c. La funcin cuyo valor en c
es el i1 i2 : : : ik esimo orden de la derivada parcial de f en c se reere como
el i1 i2 : : : ik del k esimo orden de la derivada parcial de f .
El smbolo @ 2 f (x)=@xi ; :::; @xik (o en forma abreviada @ 2 f =@xi ; :::; @xik )
puede ser usado para representar a la i1 ; : : : ; ik esima derivada parcial del
k esimo orden de f en x.
La funcin f puede ser k veces continuamente diferenciable en c si f y todas
sus primeras derivadas parciales del (k 1) esimo orden son continuamente diferenciables en c , equivalentemente si todas las primeras derivadas
parciales del k esimo orden de f existen y son continuas en todo punto en alguna vecindad de c, se puede demostrar que si f es k veces continua diferenciable en c, entonces para cualquier permutacin j1 ; : : : ; jk de
la secuencia i1 ; : : : ; ik , la ( j1 ; : : : ; jk y i1 ; : : : ; ik ) esima derivadas parciales del k esimo orden de f son idnticas y, denotando i1 ; : : : ; is (i1 <
::: < is ) los distintos enteros representados entre i1 ; : : : ; ik y denotando por
Kj el nmero de enteros en la secuencia i1 ; : : : ; ik igual para ij , esto se
puede escribir @ k f (x)=@xki11 ; :::; @xkiss (o simplemente @ k f =@xki11 ; :::; @xkiss ) para
@ k f (x)=@xi1 ; :::; @xik .Se puede demostrar que si f es k veces continuamente
diferenciable en c, entonces, para x sucientemente cerrada a c. Entonces la
130
6.2.2.
131
132
6.2.3.
133
6.3.
Diferenciacin de funciones
La tcnica empleada en la diferenciacin de matrices puede considerarse como generalizaciones o extensiones de esas empleadas en la diferenciacin no
matricial. Algunos resultados elementales en la diferenciacin no matricial
son indicadas (sin prueba) en los siguientes dos lemas.
Lema. Sea f una funcin, denida en un conjunto S; de un vector x =
(x1 ; :::; xm )0 de m variables, y suponga que (para x 2 S) f (x) es constante
(mas generalmente) no varia con xj ;entonces, para cualquier punto interior
c de S; Dj f (c) = 0:
Lema. Sean f y g funciones, denidas en un conjunto S; de un vector x =
(x1 ; :::; xm )0 de m variables. Y, sean a y b constantes (o mas generalmente)
funciones (denidas en S) que son continuas en todo punto interior de S y
son tales que a(x) y b(x) no varia con xj : Dene
` = af + bg;
h = f g;
r = f =g;
(6.3)
134
y
(6.4)
(6.5)
Las formulas (2.1) (2.3) pueden ser expresada de una manera menos formal
y mas sencilla como:
@f
@g
@(af + bg)
=a
+b
;
@xj
@xj
@xj
(6.6)
@f g
@g
@f
=f
+g
;
@xj
@xj
@xj
(6.7)
y
@(f =g)
@f
= [g
@xj
@xj
dg
]=g 2 :
@xj
(6.8)
@g
:
@xj
(6.9)
(1=g 2 )
@g
:
@xj
(6.10)
135
(6.11)
y
k
X
Q
Dj h(c) =
[ fs (c)]Dj fi (c)
(6.12)
i=1 s6=i
+ fk ak )
= a1
@f1
@f2
+ a2
+
@xj
@xj
+ ak
@fk
@xj
(6.13)
y
@(f1 ; f2 ; :::; fk )
=
@xj
k
X
Y
i=1
s6=i
fs
@fi
@xj
(6.14)
Note que las formulas .......para las derivadas parciales de un cociente de dos
funciones o para un producto de dos o mas funciones se puede reescribir en
notacin vectorial como:
@(f =g)
@f
= g 2 [g
@x
@x
@g
]
@x
(6.15)
y
k
@(f1 ; f2 ; :::; fk ) X Y
=
fs
@x
i=1
s6=i
@fi
@x
(6.16)
136
@f k
= kf k
@xj
@f
:
@xj
(6.18)
Claramente
@xj
= 1;
@xj
tenemos en particular [tomando f (x) = xkj ] que:
@xkj
= k xkj
@xj
6.4.
(6.19)
Los resultados de la seccion 15.2 se pueden utilizar para derivar las formulas
para las derivadas parciales de una forma lineal a0 x o una forma cuadrtica
x0 Ax (en un vector columna x sin restriccin m dimensional). Sean ai y xi
los i esimos elementos de a y x, respectivamente, y sea aik el ik esimo
elemento de A: Entonces,
a0 x =
ai x i
y x0 Ax =
aik xik :
i;k
A la luz del lemma 15.2.1 y de los resultados (2.17) y (2.7) tenemos que
@xi
=
@xj
1; si i = j;
0; si i 6= j;
y que
8
si i = k = j;
>
> 2xj ;
@(xi xj ) < xi ;
si k = j pero i 6= j;
=
xk ;
si i = j pero k 6= j;
>
xj
>
:
0; de otro modo (i.e., si i 6= j y k 6= j)
(6.20)
@(a0 x)
@xj
P
@( i;k aik xi xk )
=
@xj
=
@(ajj x2j +
= ajj
i6=j
aij xi xj +
k6=j
ajk xj xk +
@xj
i6=j;k6=j
aik xi xk )
X
@x2j X @(xi xj ) X
@(xj xk )
@(xi xk )
+
aij
+
ajk
+
aik
@xj
@xj
@xj
@xj
i6=j
k6=j
i6=j;k6=j
= 2ajj xj +
aij xi +
i6=j
X
i
aij xi +
ajk xi + 0
k6=j
ajk xk :
(6.21)
(6.22)
o alternativamente como:
@(a0 x)
= a0
@x0
y el resultado (3.4) se puede modica a la notacin matricial como:
(6.23)
@(x0 Ax)
= (A + A0 )x;
(6.24)
@x
P
Como es evidente observar
sobre
que
esimo elemento del
k ajk xk es el j
P
0
vector columna Ax y i aij xi es el j esimo de A x. La sj esima derivada
138
esima
(6.25)
(6.26)
Note que todas las derivadas parciales de a0 x de orden superior a uno son cero,
y que todas las derivadas parciales x0 Ax de orden superior a dos son cero.
Note tambin que, en el caso especial donde A es simtrica los resultados ...
y ... se simplican a:
@(x0 Ax)
= 2Ax;
@x
@ 2 (x0 Ax)
= 2A.
@x@x0
(6.27)
(6.29)
6.5.
Los resultados presentados en la seccin 15.2 (sobre la diferenciacin de funciones) se pueden extender a la diferenciacin de matrices de funciones el
siguiente lemma generaliza (y se sigue de) el lemma 15.2.1
Lema. Sea F = ffis g una matriz p x q de funciones, denidas en un conjunto
S; de un vector x = (x1 ; :::; xm )0 de m variables; y suponga que (para x 2
S) F(x) es constante o (mas generalmente) no varia con xj : Entonces, en
cualquier punto interior c de S, @F=@xj = 0:
Una generalizacin de la formula (2.4) es dada por el siguiente lemma.
Lema. Sean F = ffis g y G = fgis g matrices p x q de funciones, denidas
en un conjunto S; de un vector x = (x1 ; :::; xm )0 de m variables. Y , sea a y b
que representan constantes o (mas generalmente) funciones (denidas en S)
que son continuas en cada punto interior de S y son tal que a(x) y b(x) no
varia con xj : Entonces, en cualquier punto interior c (de S) en el cual F y G
son continuamente diferenciable , aF + bG es continuamente diferenciable y
@F
@G
@(aF + bG)
=a
+b
:
@xj
@xj
@xj
Sea L=aF + bG: El is
(6.30)
esimo elemento de L es
`is = afis + bgis :
140
Lemma 1
@F
@G
@L
=a
+b
:
@xj
@xj
@xj
@G
:
@xj
(6.31)
(6.32)
esima de H es
q
X
fis gis :
s=1
@FG
= F(@G=@xj ) + (@F=@xj )G:
@xj
en especial el caso donde (x 2 S) F(x) es constante o (ms general) no varia
con respecto a xj , frmula (4.3) simplicando nos queda:
@FG
= F(@G=@xj ):
@xj
(6.33)
(6.34)
los resultados del Lemma15.4.3 puede ser extendido (repitiendo varias veces
la aplicacin) al producto de 3 o mas matrices.sea F,G y H de p q; q r
y r v matrices de funciones, denidas sobre un conjunto S de vectores
0
x =(x1 ; :::; xm ) de m-variables.entonces para algn punto interior (de S) en
el cual F,G y H son continuamente diferenciables,FGH tambien lo son y:
@FGH
@H
@G
@F
= FG
+F
H+
GH:
@xj
@xj
@xj
@xj
(6.35)
(6.36)
Fk
@Fk
1 @xj
+ F1
Fk
@Fk
2 @xj
Fk
(6.37)
@F1
F
@xj 2
Fk
142
(6.38)
Es claro que por el Lema 15.4.3 podemos tomar G = gI. Ntese tambin que
si F es una matriz de funciones de p q, denidas sobre el conjunto S de
0
vectores x = (x1 ; :::; xm ) de m-variables, entonces en algn punto interior en
el cual F es continuamente diferenciable, F0 es continuamente diferenciable
y
0
@F
@F0
=
:
(6.39)
@xj
@xj
6.6.
(6.40)
1; si s = i y t = j
0; en otra parte
@X
= ui u0j :
@xij
(6.41)
143
1; si s = t = i
0; en otra parte
1; si s = i y t = j o si s = j y t = i
0; en otra parte
o en notacin matricial:
@X
= ui u0i
@xii
(6.42)
@X
= ui u0j : + uj u0i :
@xij
(6.43)
6.7.
(6.44)
144
@tr (F)
@f11 @f22
=
+
+
@xj
@xj
@xj
@fpp
@F
= tr
@xj
@xj
= tr
@F
A
@xj
= tr A
@F
@xj
(6.45)
= tr F
@G
@xj
+ tr G
@F
@xj
(6.46)
Ntese que las versiones alternativas de la frmula (6.3) pueden ser obtenidas
haciendo uso de alguna o ambas de las dos sustituciones
tr F
@G
@xj
= tr
@G
F
@xj
y tr G
@F
@xj
= tr
@F
G :
@xj
(6.47)
145
@X
@xij
aii ,
aij + aji ,
si j = i
si j < i
@X
@xii
y para j < i
tr A
@X
@xij
= tr(Aui u0j ) + tr (Auj u0i ) = u0j Aui + u0i Auj = aji + aij :
(6.49)
1,
0,
si j = i
si j =
6 i
146
o equivalentemente,
@tr(X)
= I,
@X
Como es evidente, se pueden obtener los resultados (6.4) - (6.7), tomando
A = I.
6.8.
Regla de la Cadena
La regla de la cadena puede ser muy til en la derivacin de derivadas parciales de una funcin f que es la composicin de una funcin g y un vector de
funciones h, que es de una funcin f cuyos valores en un punto arbitrario x
estn dados por la frmula f (x) = g[h(x)]. La regla de la cadena es estudiada
(sin demostracin) en el siguiente teorema.
Teorema 15.7.1 (regla de la cadena).Sea h = fhi g un vector de funciones
0
de n 1, denida sobre un conjunto S, de un vector x = (x1 ; :::; xm ) de mvariables. Sea g una funcin, denida sobre un conjunto T/ , de un vector
y = (y1 ; :::; yn )0 de n-variables. Supngase que h(x) 2 T para todo x en S, y
tomando f como la funcin compuesta f (x) = g[h(x)]. Si h es continuamente
diferenciable en un punto interior c de S y si [asumimos que h(c) es un punto
interior de T ] y si g es continuamente diferenciable en h(c), entonces f es
continuamente diferenciable en c y
Dj f (c) =
n
X
(6.50)
i=1
(6.51)
@g
@g
Donde @y
y @y
0 se interpretan siendo evaluadas en y = h(x).
i
Las frmulas (7.1) o (7.2) pueden reescribirse como
Df (c) =
n
X
i=1
(6.52)
147
X @g @hi
@f
@g @h
=
=
.
0
0
0 @x0
@x
@y
@x
@y
i
i=1
n
(6.53)
n
X
(6.54)
i=1
o equivalentemente,
X @g @hi
@f
@g @h
=
=
.
0 @x
@xj
@y
@x
@y
i
j
j
i=1
n
(6.55)
@g
@g
[Donde @y
y @y
0 son interpretadas siendo evaluadas en y = h(x)]. Las fri
mulas (7.5) o (7.6) pueden reescribirse como
Df (c) =
n
X
(6.56)
i=1
X @g @hi
@f
@g @h
=
=
,
0
0 @x0
@x0
@y
@x
@y
i
i=1
n
(6.57)
148
(6.58)
@g
@Y
@H
:
@xj
(6.59)
@g
[Las cantidades @y@gis y @Y
que aparecen en las frmulas (7.9) y (7.10), son
interpretadas teniendo en cuenta la evaluacin de Y = H(x)]
6.9.
ij .
(6.60)
Para ver esto, arreglemos los elementos de X en forma de un vector columna x de m2 dimensiones, y f como una funcin de x. Como cada elemento
de X es una funcin continuamente diferenciable de x, (de acuerdo al lema
15.2.2) luego la suma y el producto de dichas funciones tambin son continuamente diferenciables, de la denicin de determinante se sigue [dada por
la expresin (13.1.2)] que f es continuamente
diferenciable. Ms an, expanPm
diendo det(X) como det(X)= t=1 xit it [en concordancia con el resultado
(13.5.1)], observemos que i1 ; :::; im no vara con respecto a xij y recalcando
el resultado (5.2), encontramos que
@det(X) X
=
@xij
t=1
m
it
@xit
=
@xij
ij :
(6.61)
(6.63)
@F
):
@xj
(6.64)
150
que g es continuamente diferenciable (en todos los puntos del dominio) y que
(para y > 0)
@logy
1
= .
@y
y
Aplicando la regla de la cadena encontramos [teniendo en cuenta los resultados (8.4) y (8.5)] que si F es continuamente diferenciable en un punto interior
c de S (en cualquier caso h es continuamente diferenciable en c), entonces `
es continuamente diferenciable en c y (en x = c)
@ log(det(F))
1 @det(F)
1
@F
=
=
tr adj(F)
= tr(F
@xj
j F j @xj
jFj
@xj
@F
):
@xj
(6.65)
Ahora consideremos el resultado (8.6) en el caso especial donde x es un vector
columna m2 dimensional cuyos elementos son los mismos que la matriz X =
fxij g de m m de m2 variables independientes y donde F (x) = X. Sea c un
punto interior de S [donde S consta de algunos o todos los valores de x para
los cuales det(X) > 0], y sea uj la j-sima columna de Im .Del resultado (5.3)
@X
se sigue que X es continuamente diferenciable en c y (en x = c), @x
= ui u0j .
ij
Concluimos que la funcin ` denida sobre S por `(x) = log(det(X)) es
continuamente diferenciable en c y (en x = c)
@ log(det(X))
= tr(X 1 ui u0j )= u0j X 1 ui = yji ,
@xij
(6.66)
@X
= tr [adj(X)ui u0i ] = u0i adj(X)ui
@xii
y (para j < i)
tr adj(X)
@X
@xij
ii ,
ij ,
si j = i
si j < i
o equivalentemente,
@det(X)
= 2adj(X)
@X
diag(
11 ; 22 ; :::; mm ).
(6.68)
yii ,
2yij ,
si j = i
si j < i
152
@ log(det(X))
= 2X 1 diag(y11 ; y22 ; :::; ymm ):
(6.69)
@X
la diferenciacion de una matriz adjunta F = ffis g de p p de funciones,denidas
0
sobre un conjunto S de un vector x = (x1 ; :::; xm ) de m-variables. sea Fsi una
submatriz de (p 1) (p 1) obtenidas de F sacando la s-esima la, y la iesima columna (de F), y sea si = ( 1)s+i det(Fsi ). entonces por denicin,
si es el cofactor fsi , y de aqu el is-esimo elemento de adj(F):discutamos
sobre la diferenciacin de los determinantes (incluido el resultado (8.4)), si
F es continuamente diferenciable en un punto interior c de S;entonces si es
continuamente diferenciable en un punto interior c (en x = c).
@ si
@Fsi
= ( 1)s+i tr adj(Fsi )
:
@xj
@xj
(6.70)
@F 1
@F
+
F
@xj
@xj
@I
= 0:
@xj
y de aqui
F
multiplicando por F
@F 1
=
@xj
@F
F
@xj
(6.71)
obtenemos:
@F 1
=
@xj
@F 1
F :
@xj
(6.72)
+jFj
@F 1
@xj
(6.73)
@F
@F
F 1+jFj
F 1
F
@xj
@xj
@F
@F 1
F 1
F 1
F
:
= j F j tr F 1
@xj
@xj
= j F jtr F
Formula (8.15) se puede generalizar usando el resultado (4.6).Sea A y B matrices de funciones de x de tamaos k p y p r respectivamente (denidas
sobre el conjunto S como los elementos de F). supongase que A y B son
continuamente diferenciable en c:entonces AF 1 B es continuamente diferenciable en c y (en x = c):
@(AF 1 B)
= AF
@xj
@B
@xj
AF
@F 1
@A 1
F B+
F B
@xj
@xj
(6.74)
AF
@F 1
F B:
@xj
+ tr F
@2F 1
@[ F
=
@xi @xj
=
@F @F 1
@xj @xi
tr F
@F
@xj
(6.75)
@F 1 @F
F
@xi
@xj
(6.76)
Y, haciendo uso del resultado (4.6), nos damos cuenta que (en x = c)
= jFj tr F
@F
@xi
tr F
(@F=@xj ) F 1 ]
@xi
@F
F
@xi @xj
@F 1 @F
F
@xi @xj
154
=
@F
@xj
@F
F
@xi @xj
@F
F
@xi
1
+F
F
1
@F
F
@xi
@F
F
@xi @xj
@F
F
@xj
+F
F
1
@F
F
@xj
@F
F
@xi
1
@F
F
@xj
@F
F
@xi
(6.77)
@F
@xj
6.10.
= tr F
= tr F
@F
@xi @xj
+ tr F
@F
@xi @xj
+ tr F
@F
F
@xi
@F
F
@xi
@F
@xj
@F
@xj
(6.78)
155
B11 B12
B21 B22
1
11
(@B11 =@xj )B
0
1
11
0
0
P=
@F
G:
@xj
156
x!c
Desde el det [F (c)] o, S contenidos alrededor de N de c tales que jdet [F (x)] det [F (c)]j <
jdet:[F (c)]j para x 2 N o, equivalente, tal que jdet:[F(c)]j jdet:[F(c)]
det:[F(x)]j
> 0 para x 2 N , y desde jdet[F(c)]j
jdet[F(x)]j+jdet[F(c)]-det[F(x)]j o
equivalente jdet:[F(x)]j
jdet:[F(c)]j
jdet[F(c)]-det[F(x)]j, tenemos que
jdet:[F(x)]j > 0 para x 2 N ,concluimos que F(x) no es singular para x 2 N .
Demostracin (del Teorema 15.10.1) desde que (una lnea del lema 15.1.1)
F es continua en c (inriendo que B11 es continua en c), siguiendo del Lema
15.10.2 el cual B11 no es singular en todos los puntos en algunos alrededor
de N1 de c supongamos N2 representa una vecindad de c en la cual rango
(F) = r, y toma N cualquiera de los dos alrededor de N1 y N2 tiene el radio
mas pequeo. Luego claramente el rango (B11 ) = rango (F) = r para x 2 N .
La existencia de una inversa generalizada G de F tal que
G= Q
1
11
0
0
1
11
(@B11 =@xj )B
0
1
11
0
0
Y por lo tanto
G
@F
G=Q
@xj
1
11
0
0
1
11
0
0
=Q
1
11
(@B11 =@xj )B
0
1
11
0
0
157
158
@F
G
@xj
@G
F=
@xj
FG
@F
GF:
@xj
Demostracin diferenciando ambos lados de la igualdad F = FGF [con la ayuda del resultad
que (en x = c)
@F
@F
@G
@F
= FG
+F
F+
GF
@xj
@xj
@xj
@xj
159
@F
@F
@G
@F
GF = FGFG
GF + FGF
FGF + FG
GFGF
@xj
@xj
@xj
@xj
= FG
@F
@G
@F
GF + F
F + FG
GF
@xj
@xj
@xj
O equivalente,
F
@G
F=
@xj
FG
@F
GF
@xj
AG
@F
@A
GB +
GB
@xj
@xj
El teorema 15.10.6 indica que aun si la inversa generalizada G es no continuamente diferenciable (en x = c) o la formula
@G
@F
=G
G
@xj
@xj
No es aplicable para G podemos para el propsito de obtener la derivada parcial de AGB (en x = c) continua aunque G es continuamente diferenciable
y por formula (10.5) es valido. en el caso especial
donde (para x 2 S) A(x) y B(x) son constantes o (mas generalmente) no
varia con xj formula (10.4) simplicamos para
@(AGB)
@F
= AG
GB
@xj
@xj
160
Preliminar para probar el teorema 15.10.6 es conveniente establecer el siguiente teorema el cual es de mucho mas inters el echo propio.
Teorema 15.10.7 supongamos que Fp q matriz de funciones denida en un
conjunto S de columna de vectores de x m-dimensional y supongamos que
G representa una inversa generalizada de F. supongamos que c. representa
algn punto interior (de S) en el cual F es continuamente diferenciable, y
suponte que F tiene un rango constante en algunas vecindade de c. luego
existe alguna inversa generalizada de G (de F) tal que G es continuamente
diferenciable (en c) y G (c) = G(c).
Demostracin (del teorema15.10.7). de acuerdo al teorema , existe una
inversa generalizada, digamos H, de F la cual es continuamente diferenciable
en c. supongamos
G = H + Z HFZFH
Donde Z = G(c) H(c). Luego sigue del teorema 9.2.7. Donde G es una
inversa generalizada, de F y del resultado de la seccin 15.4 la cual G es
continuamente diferenciable (en c). Adems,
G (c) = H(c) + Z
= H(c) + Z
H(c)F(c) [G(c)
H(c)] F(c)H(c)
H(c)F(c)H(c) + H(c)F(c)H(c)
= H(c) + Z
G(c)
@B
@G
@A
+A
B+
GB
@xj
@xj
@xj
161
Para completar la prueba , observa que A(c) = LF(c) y B(c) = F(c)R para
algunas matrices L Y R y por lo tanto (en la linea del lema 15.10.5) que (en
x = c)
@G
@G
@F
A
B = LF
FR =
LFG
G FR
@xj
@xj
@xj
=
6.11.
AG
@F
G B=
@xj
AG
@F
GB
@xj
Recordemos (de la seccin 14.12 d) que Px;w representa la matriz X(X WX) X W
(donde X n p y Wn n ) y que , por una matriz W denida simtrica positiva , Px;w es la proyeccin de la matriz por C(X) con respecto a W. si
los elementos de W y los de X , son funciones de un vector , decimos que
z, de variables , entonces la diferenciacin( con respecto a los elementos de
z) de Px;w pueden ser de inters. El siguiente teorema da algunos resultados en la diferenciacin de Px;w y tambin en la difrenciacin de WPx;w y
W WPx;w .
Teorema15.11.1 Supongamos que Xn p y Wn n matriz denida simtrica
positiva, y supongamos que los elementos de X y W son funciones, denidas
0
en un conjunto S, de un vector z = (z1 ; :::; zm ) de m variables. Mas, supongamos que c representa algn punto interior (de S) en el cual X y W son
continuamente diferenciable, y supongamos que X tiene rango constante en
alguna vecindad de c. luego, Px;w , WPx;w , y W WPx;w son continuamente diferenciables en c, y (en z = c)
@Px;w
= (I
@zj
Px;w )
@X
0
X WX
@zj
0
XW
@X
+X(X WX)
W (I Px;w )
@zj
0
0 @W
+X(X WX) X
W (I Px;w ) ;
@zj
0
(6.79)
162
+W (I
Px;w
Px;w )
+WX(X WX)
WPx;w )
=
@zj
Px;w )
@X
0
X WX
@zj
@(W
@W
(I
@zj
@X
@zj
(6.80)
XW
W (I
Px;w ) ;
@W
(I Px;w )
@zj
@X
0
X WX
Px;w )
@zj
(6.81)
Px;w
W (I
WX(X WX)
@X
@zj
XW
W (I
Px;w ) :
KW)
@X
@Y
(YWX) Y + X(YWX)
(I
@zj
@zj
@(WK)
= (I
@zj
WK)
@X
(YWX) Y
@zj
@Y
@W
+X(YWX)
W(I WK) + K
(I
@zj
@zj
KW)
@W
K;
@zj
(6.82)
(6.83)
KW) ;
163
@W
(I KW)
@zj
@X
+W(I KW)
(YWX) YW
@zj
@Y
+WX(YWX)
W(I KW) ;
@zj
@(W
(I
(6.84)
WK)
@W
(I KW)
@zj
@W
W(I KW)
(YWX) YW
@zj
@Y
WX(YWX)
W(I KW)
@zj
WKW)
= (I
@zj
(6.85)
WK)
@W
K;
@zj
164
(6.88)
@(KW) @W
@(WKW)
=W
+
KW ;
@zj
@zj
@zj
(6.89)
@(W
@W
WKW)
=
@zj
@zj
@(WKW)
;
@zj
(6.90)
165
corolario 15.11.4 Supongamos que Xn p y Wn n denida positiva simtrica, y supongamos que los elementos de X y W son funciones denidas en
un conjunto S de una columna de vectores z dimensional m-dimensionales,
supongamos que c representa algn punto interior de S en la cual X y Wson
continuamente diferenciable en c, luego X tiene un rango constante en alguna
vecindad de c.
Demostracin. Suponemos que Px;w es continuamente diferenciable en c.
puesto que (de acuerdo con el lema 15.11) las funciones continuamente diferenciable, X,W, y Px;w son todos continuos en z = c, de esta manera, sigue
del lema 15.11.3 el cual X tiene un rango constante en alguna vecindad de c.
En el caso especial donde X es una matriz de constantes, o mas generalmente,
donde (para z 2 S) X(z) no varia con zj , formulas (11.1)-(11.3) se reduce a
@Px;w
0
0 @W
= X(X WX) X
(I
@zj
@zj
@W
@(WPx;w )
=
@zj
@zj
@(W
(I
WPx;w )
= (I
@zj
Px;w )
0
Px;w )
(6.91)
Px;w ) ;
@W
(I
@zj
@W
(I
@zj
Px;w ) ;
Px;w ) ;
(6.92)
(6.93)
Las formulas (11.1)-(11.3) puede ser expresado en una forma mas general
haciendo uso del siguiente lema.
Lema 15.11.5 Supongamos que Xn p y Wn n denida simtrica positiva,
y suponte que los elementos de X y W son funciones, denidas en un con0
junto S, de un vector z = (z1 ; :::; zm ) de m variables. Supongamos que c
representa cualquier punto interior (de S) en la cual W y X son continuamente diferenciable, y suponte que X tiene un rango constante en alguna
vecindad de c. mas, supongamos que B representa cualquier matriz p n tal
0
0
que X WXB = X W. Luego, en z = c.
@Px;w
@zj
WPx;w = (I
Px;w )
@W
Px;w + W(I
@zj
Px;w )
@X
B
@zj
(6.94)
166
@(Px;w WX)
@(WX)
@(WX)
0
=
= Px;w
+
@zj
@zj
@zj
@(Px;w )
@zj
WX ;
Entonces esto
@(Px;w )
@zj
WX = (I
= (I
@(WX)
@zj
@W
0
X+(I
Px;w )
@zj
0
Px;w )
Px;w )W
@X
;
@zj
Implica que
@(Px;w )
@zj
WXB =(I
Px;w )
@W
XB+(I
@zj
Px;w )W
@X
B:
@zj
(6.95)
Adems haciendo uso de la parte (2) y(3) del teorema 14.12.11,igual que
(11.17) puede ser re expresada como la igualdad (11.16)
0
0
Puesto que ningn (@Px;w =@zj) WPx;w ,ni (I Px;w )(@W=@zj)Px;w involucra B, sigue del lema 15.11.5 que W(I Px;w )(@w=@zj )B es invariante
de la seleccin de B, de esta manera puesto que la seleccin de B incluye
h 0
i0
0
0
0
(X WX) X W y (X WX) X W, tenemos que
@X 0
0
(X WX) X W = W(I
@zj
W(I
Px;w )
W(I
Px;w )
Lo cual[puesto W(I
0
WX(X WX)
Px;w )
i0 0
@X h 0
(X WX) X W = W(I
@zj
@X
B
@zj
Px;w )
(6.96)
@X
B;
@zj
@X
@zj
W(I
Px;w ) = W(I
@X
Px;w )
B
@zj
(6.97)
167
Px;w ) = W
@X
Px;w )
B
@zj
W(I
@X
Px;w )
B + W 1 W(I
@zj
@W
+Px;w W 1
(I Px;w ) ;
@zj
@(WPx;w )
@W
=
@zj
@zj
+W(I
@(W
(I
Px;w )
@W
(I
@zj
W(I
(donde Bp
6.12.
(6.100)
(6.101)
Px;w )
@X
Px;w )
B
@zj
@W
(I Px;w )
@zj
@X
B
Px;w )
@zj
@X
Px;w )
B
@zj
Px;w )
W(I
(6.99)
@X
Px;w )
B
@zj
@X
B+ W(I
Px;w )
@zj
WPx;w )
= (I
@zj
(6.102)
168
exp
c)0 W (x
(1=2) (x
c) dx;
Rn
(k0 x) exp
(1=2) (x
c)0 W (x
c) dx;
Rn
(x
c)0 A(X
C) exp
(1=2) (x
c)0 w (x
c) dx
Rn
R
[Donde el smbolo Rn f (z)dz es usado para denotar la integral de una funcin
f (z) de un vector z (columnas) de n variables sobre todo Rn ]
Estas 3 integrales son de importancia considerables en probabilidad y estadsticadonde ellas hacienden en conexin con la distribucin normal multivariable (e.g.,Searle 1971,capitulo 2)ellas pueden ser evaluadas, introduciendo un
cambio apropiado de variables y recordando (Desde el calculo integral de una
variable sencilla )que.
Z 1
2=2
e x dx = (2 )1=2 ;
1
xe
x2=2
dx = 0;
x2 e
x2=2
dx = (2 )1=2 ;
n tal
c);
= jpj
169
J=
1=2
De esta manera hacer uso de manera estndar sobre cambio de variables (e.g.,
Batle 1976 seccin 46) encontramos que
Z
exp
(1=2) (x c)0 W (x c) dx
Rn
Rn
= jWj
1=2
2
eZ1 =2dz1 :::
1
1
1=2
= (2 )n=2 jWj
eZn =2dzn
(6.103)
(k c)
+
exp
(1=2) (x
c)0 W (x
c) dx
Rn
k0 (x
c) exp
c)0 W (x
(1=2) (x
c) dx
Rn
Rn
+ jWj
1=2
n
X
i=1
di
1
1
1=2
zi e
Zi2 =2
dzi
s 6= i
1=2
1
1
Zs2 =2
dzi
1
1
Zs2 =2
dzs
170
1=2
(6.104)
z0 P
1 0
Rn
jWj
jWj
i;j6=i
bij
1=2
1=2
bij
bij
i=1
zi e
Zi2 =2
dzi
jWj
1=2
n=2
(2 )
n=2
(2 )
Rn
i;j
2
zi2 e Zi =2 dzi
zj e
Zj2 =2
s 6= i
dzj
Zs2 =2
dzs
s 6= i; j
1
1
Zs2 =2
dzs g
1)=2
i;j
jWj
1=2
jWj
1=2
(2 )n=2 jWj
tr
tr AP
1=2
1 0
AP
tr AW
P
1
1 0
i
i
(6.105)
= (1=2)
tr AB
n=2
1=2
jBj
exp (1=4) b0 B 1 b
171
b0
a0 B 1 b + (1=2) b0 B 1 AB 1 b + 2a0
(6.106)
b0 + b0 x + x0 Bx = (1=2) (x
c)0 A (x
(a0 + a0 x + x0 Ax) = (x
c) + f;
c) + K0 x + g;
=e
c)0 A (x
g + k0 x + (x
exp
c)
c)0 w (x
(1=2) (x
c) dx
Rn
=e
n=2
g (2 )
1=2
jWj
+ (k c) (2 )
= (2 )n=2 jWj
= (2 )n=2 2
n=2
jBj
1=2
n=2
1=2
n=2
jBj
1=2
n=2
+ (2 )
g + (k0 c) + tr AW
exp (1=4) b0 B 1 b
(1=2) a0 B 1 b + (1=4) b0 B
= (1=2)
jwj
1=2
b0
[a0
jWj
1=2
tr AW
(1=4) b0 B 1 AB 1 b
(A + A0 ) B 1 b+ (1=2) tr AB
exp (1=4) b0 B 1 b
b0
[tr AB
+ (1=2) b0 B 1 AB 1 b + 2a0 ]
a0 B 1 b
172
6.13.
Ejercicios
Seccion15.1
1. Usando el resultado de la parte (c) del ejercicio 6.2, muestra que toda bola
abierta de un punto x en Rmx1 es un conjunto abierto.
2. Sea f que representa una funcin denida sobre un conjunto de un vector
x = (x1 ::::::xn )0 de m variables, supongamos que s contiene al menos algunos
puntos interiores, y sea c que representa un punto un punto arbitrario de esos,
vericar si f en tiempos k diferenciables, continuamente en c; luego f es k
veces diferenciable continuamente en cada punto de algunas bolas abiertas
de c:
3. Sea X = fxij g que representa alguna matriz m n derivables mn; y sea
x que representa un vector columna dimensional mn obtenido por cambio
de elemento de X (en la forma de un vector columnas).Adems sea S que
representa un conjunto de valores de X; y sea S que representa un conjunto correspondientes de valores de x (i:e:;la serie obtenida por cambiar los
elementos de cada matriz m
n en S en la forma de un vector columna).
Vericar que un vector de columna dimensional mn en un punto interior de
S si y solo si existe un nuevo arreglo de una matriz m
n que un punto
interior de S.
4. Sea f que representa una funcin cuyo dominio es un conjunto S en
Rmx1 (que contiene al menos unos puntos interiores). Muestra que la matriz
H f hessian de f es la matriz inclinacin de del vector (Df )0 inclinacin
de f .
Seccin 15.2
5.Sea g que representa una funcin denida sobre un conjunto S de un vector
x = (x1 ; :::; xn )0 de m variables, sea S (x 2 s : g (x) 6= 0) y se c que representa cualquier punto interior de S en el cual g es diferenciable continuamente
(incluir formulas (2.16) y (2.8)para mostrar que cualquier numero entero k
positivo)g k es diferenciable continuamente en c y
@g k
=
@xj
kg
k 1
@g
;
@xj
Por medio de eso generalizar formula (2.8) y establecer que la formula (2.16)
es valido para los valores negativos (as como positivo) de k
Seccin 15.4
6. Sea F que representa una matriz p
p de funciones denida sobre un
0
conjunto S de un vector x = (x1 ; :::; xn ) de m variables, sea c que representa
6.13. EJERCICIOS
173
@F
F=0
@xj
n derivables
p de constante
@ tr (AXB)
= A0 B0 :
@X
[surg: Observa que tr(AXB) =tr(BAX)]
(2)Muestre que para cualquier vector a y b de columnas dimensinales
myn
@ (a0 Xb)
= ab0 :
@X
[surg: Observar que a0 Xb = tr(a0 Xb) :]
(b) Suponga que X es una matriz simtrica (pero de otro modo libre) de
dimensiones m n
(1)Muestre que para cualquier de las matrices p m y m p de constante
AyB
@ tr (AXB)
= C + C0 diag (c11 ; c22 :::cmm ) ;
@X
Donde C = fcij g = AB:
(2)Muestre que para cualquier vectores columnas a = fai g y b = fbi g ;
174
@ (a0 Xb)
= ab0 + ba diag (a1 b1 ; a2 b2 ::::am bm ) :
@X
9.(a)Sea X = fxst g que representa alguna matriz m n derivables independientes y suponga que X tiene la libertad de recorre sobre todo Rmxn :Demuestre
que para cualquier matriz n m de constante A
@ tr (AX)2
= 2 (AXA)0 :
@X
(b) Sea X = fxst g que representa alguna matriz de variables simtrica m
m(perodeotromodolibre):M uestrequeparacualquiermatrizm m de constante A
@ tr (AX)2
= 2 [B + B diag (b11 ; b22 :::bmm )] ;
@X
Donde B = fbst g = AXA:
10. Sea X = fxij g que representa una matriz m
n derivables independientes, y suponga que X tiene la libertad de recorre sobre todo Rmxn :Demuestre
que, para k = 2; 3; ::::;
@ tr Xk
k 1
= k (X0 ) ;
@X
Por medio de eso generalice el resultado (2.17)
11. Sea X = fxst g que representa una matriz m
n derivables independientes, y suponga que X tiene la libertad de recorre sobre todo Rmxn :
(a)Demuestre que para cualquier matriz de constante A m m
@ tr (X0 AX)
= (A + A0 ) X:
@X
(b)Demuestre que para cualquier matriz de constante A n
@tr (XAX0 )
= X (A + A0 ) :
@X
(c)Demuestre (en el caso especial donde n = m) que para cualquier matriz
de constante A m m
@ tr (XAX)
= (AX)0 + (AX)0 :
@X
6.13. EJERCICIOS
175
(d)Use la formula de la parte (a)-(c) para idear o concebir simples formulas @tr(X0 X) =@X;@tr(XX0 ) =@X; y (en el caso especial donde n = m)@ tr(X2 ) =@X:
Seccin 15.7
12. Sea X = fxij g que representa una matriz m m: Sea f que representa
una funcin de X denida sobre un conjunto S comprender o incluir algunas
o todas las matrices simtricas m m.
Supn que para propsito de diferenciacin, f esta interpretada como una
funcin del vector x columna dimensional [m (m + 1) =2] ; cuyos elementos
son xij (j i = 1; ::::; m) :Supn adems que all existe una funcin g; cuyo
dominio es un conjunto T de matrices simtricas no necesariamente que
contiene S como un subconjunto propia tal que g (X) = f (X) para X 2 S;
as que g es una funcin de X y f es la funcin obtenida por limitar el
dominio de g a S: Dene S = (x : X 2 S) :sea c que representa un punto
interior de S ;y sea C que representa el valor correspondiente de X: Muestra
que si C es un punto interior de T y si g es diferenciable continuamente en
C; luego f es diferenciable continuamente en C:y que (en x = c)
@g
@f
=
+
@X
@X
@g
@X
diag
@g
@g
@g
;
; :::;
@X11 @X22
@Xmm
n
X
i=1
Seccin 15.8
14. Sea X = fxij g que representa una matriz m
m de variables independientes m2 (donde m
2) y Supn que el rango de X comprende todo
Rmxn :Muestra que (para cualquier numero entero k positivo)la funcin f
176
[adj (X)]0 :
h
+ (X0 AX)
i0
X0 A :
A :
6.13. EJERCICIOS
177
tr F 1 B AF 1 B
AF
@F
:
@Xj
tr X B AX B
AX
i0
178
todos los valores de x para el cual det AX 1 B > 0 use el resultado del ejercicio 18 para demostrar que log(det(AX 1 B)) es diferenciable continuamente
en cualquier punto interior c de S y que (en x = c)
@ log(det AX 1 B)
@Xj
K + K0
Donde K = fkij g = X 1 B AX 1 B
AX 1 :
20.Sea F = ff is gque representa matrices de funciones p p denida sobre un
conjunto S; de un vector x = (x1; :::; xm )0 de m variables. Sea c que representa
cualquier punto interior de S en el cual es diferenciable continuamente por
ejemplo usar el resultado de la parte (b) del ejercicio 13.10.Muestre que si el
rank [F (c)] p 3;luego
@adj (F)
= 0:
@Xj
21. (a) Sea X que representa una matriz m
m de variables independientes m2 ;supn que el rango de X es un conjunto S comprendiendo algn o
todos los valores de X para el cual X es no singular. Muestre que (cuando
los elementos son considerados como funciones de X) X 1 es diferenciable
continuamente en cualquier punto interior c de S y que (en x = c)
@X 1
=
@xij
yi z0j ;
yi yj0 ;
si j = i;
0
0
yi yj yi yj ; si ji
6.13. EJERCICIOS
179
(b)Supn que det(X) > 0 para todo X en S: Muestre log(det (X)) es dos
veces diferenciable continuamente en C y que (en x = c)
@ 2 log(det (X))
= yti yjs :
@xij @xst
23.Sea F = ff is gque representa matrices de funciones p p denida sobre
un conjunto S; de un vector x = (x1; :::; xm )0 de m variables. Para cualquier
conjunto no vaci T = ft1; :::; tm g ;cuyos miembros son nmeros enteros entre
1 y m; denida D(T ) = @F=@xt1 :::@xts :Sea k que representa un nmero
entero positivo, para i = 1; :::; k; sea ij que representa un nmero entero
arbitrario entre 1 y m inclusive.
(a)Supn que F es no singular para todo x en S: y denotar por c cualquier
punto interior (de S) en el cual F es k veces diferenciable continuamente en
c y que (en x = c)
@F 1
@xji :::@xjk
k
X
X
(E;1)
r=1 T1 :::Tr
r=1 T1 :::Tr
180
px:w )
p0x:w )
p0x:w )
(I
@w
@w
x(xwx)x
(I
@zi
@zj
@w
@w
x(xwx)x
(I
@zi
@zj
px:w )
px:w )]
wpx:w
Captulo 7
El producto kronecker
Muchas de las matrices particionadas encontradas en estadsticas son expresables en trminos de 2 (o ms) matrices (de dimensiones relativamente
pequeas) en forma de algo llamado un producto kronecker. En la Seccin
16.1, la denicin de un producto kronecker de matrices es dada, y se presenta
un buen nmero de resultados en los productos kronecker. Estos resultados
pueden ser aplicados para los propsitos computacionales (y otros).
En las secciones subsecuentes a este captulo, la nocin introducida en el
Captulo 15 (en relacin con la diferenciacin de una funcin de una matriz)
de reestructurar (no redundante) los elementos de una matriz en la forma
de un vector columna es formalizado introduciendo algo llamado el operador
vec o vech. Se presenta un nmero de resultados en el operador vec o vech.
Los productos kronecker aparecen en muchos de estos resultados.
7.1.
ny Bp
amn B
182
1) + r]-simo la y [q (j
1) + s]-sima
2
a11 b11
6a11 b21
6
6a11 b31
B=6
6a21 b11
6
4a21 b21
a21 b31
2
b11 a11
6b11 a21
6
6b21 a11
A=6
6b21 a21
6
4b31 a11
b31 a21
a11 b12
a11 b22
a11 b32
a21 b12
a21 b22
a21 b32
a12 b11
a12 b21
a12 b31
a22 b11
a22 b21
a22 b31
b11 a12
b11 a22
b21 a12
b21 a22
b31 a12
b31 a22
b12 a11
b12 a21
b22 a11
a22 b21
b32 a11
b32 a21
3
a12 b12
a12 b11 7
7
a12 b11 7
7,
a22 b12 7
7
a22 b22 5
a22 b32
3
b12 a12
b12 a22 7
7
b22 a12 7
7.
a22 b22 7
7
b32 a12 5
b32 a22
A=A
(7.1)
k = kA,
an ]T 2 Rn y b = [b1
bm ]T 2 Rm ,
183
(7.2)
3
a1 b
6 a2 b 7
6
7
b = 6 .. 7
4 . 5
an b
bT = a1 bT
an bT
(7.3)
a
es la matriz n
a = abT
(7.4)
q. Claramente,
0
B=B
(7.5)
0 = 0.
(7.6)
I
y si adems B = Ip , entonces
Im
Ip = Imp .
(7.8)
B=A
(kB) = k(A
B)
(7.9)
184
C = (A
C) + (B
C),
(7.10)
(A + B) = (C
D) + (C
B).
(7.11)
(A + B)
C
Los resultados (1.11) y (1.12) pueden usarse para mostrar que, para algunas
matrices A y B m n y algunas matrices C y D p q,
(A + B)
(C + D) = (A
D) + (A
D) + (B
C) + (B
D). (7.12)
B)T = AT
T
BT .
(7.14)
B)T = A
B;
n, matriz B = fbij g p
q,
(B
185
C) = (A
B)
(7.15)
C.
1)+r:q(j 1)+s
(7.16)
= aij brs C.
1)+r:q(j 1)+s
= fp(i
1)+r:q(j 1)+s C
= aij brs C,
(7.17)
juntos los resultados (1.17) y (1.18) implica que ( para i,j,r y s arbitrarios)
Gp(i
1)+r:q(j 1)+s
= Hp(i
1)+r:q(j 1)+s .
Concluimos que G = H.
El smbolo A B C se usa para representar el valor de los lados izquierdo
y derecho de la igualdad (1.16), y este valor es llamado como el producto
kronecker de A, B, y C. Esta notacin y terminologa se extiende en forma
obvia a algn nmero nito de matrices.
El siguiente lema establece una conexin entre el producto .ordinario"de productos kronecker y el producto Kronecker de productos ordinarios.
Lema 16.1.2. Para cualesquier matriz A = faij g m
n u, matriz C = fcij g, y matriz D = fdij g,
(A
B) (C
D) = (AC)
(BD) .
n, matriz B = fbij g
(7.18)
186
Demostracin. Por denicin A B es una matriz particionada, comprendiendo m n columnas de bloques dimensionales p q, el ij-simo del cual
es aij B; y C D es una matriz particionada, comprendiendo n las y u
columas de bloques dimensionales q v, el jr-simo del cual es cjr D. Esto
es, (A B) (C D) es una matriz particionada, comprendiendo m las y u
columnas de bloques dimensionales p v, el ir-simo del cual es la matriz
n
X
(aij B) (cjr D) =
B = (A
Ip ) (In
B) = (Im
B) (A
Iq ) .
(7.19)
Y, a la luz del resultado (1.4), una implicacin ms es que, para alguna matriz
A m n, matriz C p q, vector b p 1, y vector d n 1,
A
bT (d
C) = bT
A (C
d) = AdbT C.
(7.20)
El resultado (1.19) puede ser extendido (por la aplicacin repetida) al producto ordinario de un nmero ordinario del producto de Kronecker. Tenemos
que
(A1
B1 ) (A2
B2 )
(Ak
Bk ) = (A1 A2
Ak )
(B1 B2
Bk ) ,
(7.21)
187
B)
=A
B 1,
(7.22)
B) A
= AA
BB
= Im
In = Imp .
Ms generalmente, A 1 B 1 es una inversa generalizada del producto kronecker A B de alguna matriz A m n y alguna B p q, como es evidente
observar que
(A
B) A
(A
B) = AA 1 A
BB 1 B = A
B. (7.23)
B) = tr (a11 B) + tr (a22 B) +
+ tr (amm B)
= (a11 + a22 +
amm ) tr(B).
Esto es,
tr(A
(7.24)
B) = tr(A)tr(B).
B) = tr[(A
B) (A
B 1 )] = tr[ AA
BB
] = tr(AA )tr(BB ),
B) = rk(A)rk(B).
(7.25)
188
2
3
A11 B A12 B : : : A1c B
6A21 B A22 B : : : A2c B7
6
7
B=6
7 (7.26)
..
..
..
4
5
.
.
.
Ar1 B Ar2 B : : : Arc B
(B1 ; B2 ; :::; Bk ) = (a
B1 ; a
B2 ; :::; a
Bk ) ,
(7.27)
Es una matriz particionada cuyos rc bloques A11 ; A12 ; :::; Arc son todos del
mismo tamao, diga (en cual caso A es de dimensiones rm cn) m n. Sea
Uij que representa una matriz r c cuyo ij-simo elemento es 1 y cuyo rc 1
elementos restantes son 0. Entonces,
A=
189
r X
c
X
Uij
Aij ,
(7.28)
i=1 j=1
7.2.
Algunas veces es conveniente (como en la discusin de la matriz diferenciacin en el captulo 15) ordenar los elementos de una matriz A = faij g
m n en la forma de un vector columna mn-dimensional. Es la manera
convencional de hacerlo, sucesivamente en las las primeras, segundas,..., nsimas columnas a1 ; a2 ; :::; an de A una bajo la otra, dando el vector columna
mn-dimensional
2
3
a1
6 a2 7
6 7
6 .. 7 ,
4.5
(7.29)
an
190
vec(aT ) = vec(a) = a,
(7.30)
b.
(7.31)
Como es evidente del resultado (1.2) observe que la i-sima (de las columnas
m) de baT es ai b.
Claramente, para algn escalar c y una matriz A,
vec(cA) = cvec(A),
(7.32)
(7.33)
Ms generalmente, para algunos escalares c1 ; c2 ; :::; ck y para algunas matrices k A1 ; A2 ; :::; Ak (del mismo tamao),
vec
k
X
i=1
ci Ai
k
X
ci vec(Ai ),
(7.34)
i=1
como puede ser fcilmente establecido por la aplicacin repetida de los resultados (2.59) y (2.4).
Sea A que representa una matriz m n B una matriz n p, y denote las
primeras, segundas,..., p-simas columnas de B por b1 ; b2 ; :::; bp respectivamente. Entonces,
191
3
Ab1
6Ab2 7
6
7
vec(AB) = 6 .. 7 ,
4 . 5
(7.35)
Abp
como es evidente observar que la j-sima de AB es Abj .Ntese que el resultado (2.7) implica que
(7.36)
vec(AB) = (Ip
B)vec(B).
(7.37)
n, una matriz B n
A)vec(B).
p y una
(7.38)
B=
p
X
bj uTj ,
j=1
192
"
vec(ABC) = vec A
=
bj uTj
! #
C
[ CT uj
(Abj )]
CT
A (uj
CT
A vec bj uTj
bj )
X
j
CT
A vec
bj uTj
A vecB.
Im )vec(A),
(7.39)
vec(AB) = (BT
A)vec(Im ).
(7.40)
A)vec(B) = A
xT vec BT .
(7.41)
n,
tr AT B = (vecA)T vecB.
(7.42)
193
tr A B
n
X
j=1
3 2 3T
b1
a1
6 b2 7 6 a2 7
6 7 6 7
6 .. 7 = 6 .. 7
4 . 5 4.5
bn
= (vecA)T vecB.
an
3
b1
6 b2 7
6 7
6 .. 7
4 . 5
bn
n, B m
p, C p
q,
(7.43)
B) vecC.
B) vecC.
194
o tr(CT BT AD). Ntese adems [a la luz del resultado (1.7)] que, en el caso
especial donde q = n y D = In , el resultado (2.15) se reduce en efecto a
tr(AT BC) = (vecA)T diag(B; B; :::; B)vecC.
(7.44)
3
vecA1
6vecA2 7
6
7
V ec(A1 ; A2 ; : : : ; Ak ) = 6 .. 7 ;
4 . 5
(7.45)
vecAk
3
vecA1
6 vecA2 7
6
7
6 .. 7 .
4 . 5
vecAk
7.2.1.
195
3
2 3
a1
r1
6 a2 7
6 r2 7
6 7
6 7
(vecA) = 6 .. 7 y (vecAT ) 6 .. 7 .
4.5
4 . 5
2
an
rm
(7.46)
196
(7.47)
m X
n
X
Uij
UTij .
(7.48)
i=1 j=1
Demostracin. Usando los resultados (3.1), (2.4.3), (2.4.5), y (2.10), encontramos que, para cualquier matriz A m n,
aij UTij
i;j
i;j
i;j
i;j
i;j
X
i;j
Uij
UTij vec(A)
197
Kmn a =
UTij
Uij
i;j
a.
UTij .
Uij
i;j
A la luz del resultado (1.29), el resultado (3.3) pueden ser reexpresados como
Kmn
UT11
6 UT
6 21
= 6 ..
4 .
3
UT1n
UT2n 7
7
.. 7 .
. 5
UT12
UT22
..
.
UTm1 UTm2
(7.49)
UTmn
Es decir, puede considerarse como una matriz particionada mn mn, comprendiendo m las y n columnas de bloques dimensionales nxm, el ij-simo
de que es la matriz UTij = uj eTi (cuyo ij-simo elemento es 1 y cuyos otros
mn 1 elementos son 0). Por ejemplo,
K23 =
2
1
60
6
60
=6
60
6
40
0
0
0
0
1
0
0
0
1
0
0
0
0
0
0
0
0
1
0
0
0
1
0
0
0
3
0
07
7
07
7.
07
7
05
1
a = K1m a.
(7.50)
198
a = Knm Kmn a,
implicando (a la luz del Lema 2.3.2) que
Imn = Knm Kmn .
1
As (a la luz del Lema 8.1.3), Kmn es no singular y Kmn
= Knm . Es ms,
que Kmn es una matriz permutacin, es ortogonal, y por consiguiente KTmn =
1
Kmn
. En resumen, tenemos que Kmn es el no singular y que
1
KTmn = Kmn
= Knm .
(7.51)
(7.52)
tr(Kmm ) = m.
(7.53)
Para vericar la frmula (3.8), sea ei que representa la i-sima columna Im ,sea
Uij = ei eTj , y observa que eTj ei iguales a 1, si j = i, e igual a 0, si j 6= i.
Entonces, haciendo uso de los resultados (3.3), (1.25), y (5.2.6). Encontramos
que
tr(Kmm ) = tr
=
Uij
199
UTij
i;j
tr Uij
UTij
i;j
tr (Uij ) tr UTij
i;j
i;j
tr ei eTj
i;j
X
i;j
7.2.2.
tr
2
eTj ei
2
eTi ei
i;j
m
X
(1)2 = m.
i=1
A) kqn = kpm (A
A = kpm (A
n y la matriz B p
q,
B) ,
(7.54)
B) kqn .
(7.55)
200
(B
A) kqn vecX = (B
A) kqn x = kpm (A
Ms an,
kqn1
B) x
B) .
A) kqn = kpm (A
A = (B
B) kqn .
Como indicamos por el resultado (3.10), el efecto en A B de premultiplicacin y postmultiplicacin por las matrices de la vec-permutacin kpm y knp ,
respectivamente, es intercambiar o onmutar"A y B. por que es debido a este
efecto que las matrices de vec-permutacin son a menudo llamado matrices
de conmutacin.
En los varios casos especiales dnde A B es una la o vector columna. el resultado (3.9) o (3.10) del Teorema 16.3.2 ms simplemente puede declararse,
como indicado por el corolario siguiente.
Corolario 16.3.3. Para cualquier matriz A m
n y vector b m
n,
A = kpm (A
b) ,
(7.56)
b = kmp (b
A) ,
(7.57)
bT
A= A
bT knp ,
(7.58)
bT = bT
A kpn .
(7.59)
201
bT ,
a=a
AT
B Kmn = tr Kmn AT
n.
tr[Kmn (A
B)] = tr
=
"
Uij
UTij
tr
Uij
UTij
AT
tr
Uij AT
i;j
i;j
UTij B
i;j
tr Uij AT tr UTij B
i;j
tr ei uTj AT tr uj eTi B
i;j
i;j
bij aij
i;j
= tr AT B :
202
tr AT B
7.2.3.
d. Relacin entre el vec del producto de Kronecker de dos matrices y el producto de Kronecker de su vecs.
El teorema siguiente relaciona el vec del producto de Kronecker de dos matrices A y B al producto de Kronecker del vecs de A y B.
Teorema 16.3.5. Para cualquier matriz A m
vec (A
B) = (In
Kqm
n y una matriz B p
Ip ) [vec (A)
vec (B)] .
q,
(7.61)
Demostracin. Sea ai que representa la i-sima columna de A y ei la isima columna de In , (i = 1; :::; n). y, sea bj que representa j-sima columna
de B,P
y uj el j-simo P
de Iq (j = 1; : : : ; q). Entonces, escribiendo A y B como
A = i ai eTi y B = i bj uTj y haciendo uso de los resultados (1.14), (2.6),
(1.15), (1.19), (2.3), (1.16), y (3.11), encontramos que
vec (A
B) = vec
=
"
203
ai eTi
bj uTj
i;j
vec[ ai eTi
bj uTj ]
i;j
vec[(ai
uj )T ]
bj ) (ei
i;j
(ei
uj )
(ai
bj )
i;j
(uj
ei
ai )
bj
i;j
(In
Kqm
Ip ) (ej
(In
Kqm
Ip ) [vec ai eTi
ai
uj
bj )
i;j
X
i;j
= (In
= (In
= (In
Kqm
Kqm
Kqm
Ip )
"
"
vec ai eTi
Ip ) vec
bj uTj ]
Ip ) [vec (A)
ai eTi
vec bj uTj
vec
vec (B)] .
bj uTj
!#
7.2.4.
Preliminarmente para derivar una frmula para el determinante de un producto de Kronecker de dos matrices, observe [a la luz de los resultados (1.20)
y (3.10) que, para cualquier
matriz A m n y cualquier matriz B p p,
B = (A Ip ) (In B)
= Kmp (Ip A) Kpm (In B)
= Kmp diag (A; A; :::; A) Kpm diag (B; B; :::; B) .
(7.62)
204
7.2.5.
n y cualquier matriz B p
p)
205
2 3
a11
6a21 7
6 7
6a31 7
6 7
2 3
6a12 7
a11
6 7
7
4
5
vecA = (a11 ) ; vecA = a21 ,y vecA = 6
6a22 7 , respectivamente.
6a32 7
a22
6 7
6a13 7
6 7
4a23 5
a33
1) + (n
2) + ::: + n
(j
1) = nj
= nj
(0 + 1 + 2 + ::: + j
j(j 1)=2
1)
y que, de los n (j 1) = n j +1 elementos de aj , hay (para i j) n i elementos que llegan despus de aij . Como nj j(j 1)=2 = (j 1) (n j=2)+
206
i,se sigue que (para i j) el ij-simo elemento de A es el [(j 1) (n j=2) + i]simo elemento de vech A. Por camino de comparacin , el ij-simo elemento de A es (como se discuti en la seccin 16.2), as que (para i j) el
[(j 1) n + i]-simo elemento de vec A es el [(j 1) (n j=2) + i]-simo elemento de vech A.
Por ejemplo, cuando n = 8, encontramos
[siendo i = 7 y j = 5 y observando que (j 1) n + i = 39 y que (j 1) (n j=2) + i = 29]
que a75 es el 39-simo elemento de vec A y el 29-simo elemento de vech A.
Sea c1 ; c2 ; :::; ck que representa cualesquiera k escalares, y sea A1 ; A2 ; :::; Ak
que representa cualesquiera k matrices cuadradas (de el mismo orden). Entonces,
vech
k
X
ci Ai
i=1
k
X
ci vech(Ai ),
(7.64)
i=1
7.2.6.
b. La matriz Duplicacin.
vecA = Gn vechA
Para cada matriz simtrica A n
cacin.
Claramente,
(7.65)
2
1
60
G1 = (1) ; G2 = 6
40
0
0
1
1
0
207
2
1
60
6
60
3
6
0
60
6
07
7 , y G3 = 60
6
05
60
6
1
60
6
40
0
0
1
0
1
0
0
0
0
0
0
0
1
0
0
0
1
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
1
0
1
0
3
0
07
7
07
7
07
7
07
7.
07
7
07
7
05
1
(7.66)
Para ver esto, observe que las columnas de Gn son ortogonales (desde que
cada la de Gn contiene slo un elemento no cero) y son no nulos. O, alternativamente, observe que cada la de In(n+1)=2 es una la de Gn y que Gn
contiene n(n + 1)=2 las linealmente independientes.
Ahora, para propsitos de derivar una frmula recursiva para Gn , sea B que
representa una matriz arbitraria (n + 1) (n + 1), y B particionada como
B=
c bT
a A
208
Adems, sea u que representa la primera columna de In+1 y sea U que representa la submatriz (n + 1) n de In+1 obtenida por agrupacin de u, Qn+1
se puede expresar como
(1)
(2)
Qn+1 = Qn+1 ; Qn+1 , donde
(1)
u,
(2)
U.
Claramente,
2
3
c
vechB = 4 a 5 .
vechA
1
6
0
QTn+1 vecB = 6
40
0
209
(7.67)
(7.68)
(7.69)
210
(7.72)
(como es evidente del Lema 8.1.1 observando que Gn , es una inversa a derecha
de Hn ).
Notamos tambin que
vecA = Gn Hn vecA
(7.73)
211
1
GTn ,
Gn Hn = GTn Gn
7.2.7.
(7.75)
GTn = PGn
(7.76)
n,
212
(7.77)
knn Gn = Gn
Adems, desde kTnn = knn ,
GTn Gn
(knn Gn )T = GTn Gn
GTn ,
GTn ,
Hn knn = Hn .
(7.78)
GTn ,
Hn [(1=2)(In2 + Knn )] = Hn .
(7.80)
(7.82)
(7.83)
213
Ahora, observe [a la luz de los resultados (4.19), (4.16), y (4.17)] que, para
1
Hn = GTn Gn
GTn ,
[(1=2)(In2 + Knn ) Gn Hn ]2
= [(1=2)(In2 + Knn )]2 (1=2)(In2 + Knn )Gn Hn
Gn Hn [(1=2)(In2 + Knn )] + Gn Hn Gn Hn
= (1=2)(In2 + Knn ) Gn Hn Gn Hn + Gn Hn
= (1=2)(In2 + Knn ) Gn Hn .
Es ms, como consecuencia de los resultados (5.2.3) y (4.20), tenemos que
tr [(1=2)(In2 + Knn )
Gn Hn ] =
=
=
=
Gn Hn = 0
GTn ]
(7.84)
Gn Hn = (1=2)(In2 + Knn ).
7.2.8.
A)vecX = (A
A)Gn vechX.
(7.85)
(7.86)
214
A) Gn vechX.
(7.87)
A) Gn .
(7.88)
A) Gn Hn ,
(7.89)
A) Gn = (A
GTn ,
Gn Hn (A
A) = (A
como es evidente del resultado (4.22) al observar [a la luz del resultado (3.9)]
que
(1=2)(In2 + Knn ) (A
A) Gn Hn = Hn (A
A) ,
(7.90)
215
(2)
(1)
A) Gn = H(2)
n Gn Hn (A
A) Gn = H(1)
n (A
A) Gn .
A) Gn Hn A
A) A
A
A) A
A
A Gn Hn (A A)Gn
Gn Hn (A A)Gn
(A A)Gn = Hn (A A)Gn .
A) Gn ] =
=
=
=
tr [(A A) Gn Hn ]
trf(A A) [(1=2)(In2 + Knn )]g
(1=2)tr (A A) + (1=2)tr [(A A) Knn ]
(1=2) [tr (A)]2 + (1=2) tr A2 .
A) Gn ] = tr[Hn (A
A) Gn Hn A
Gn ].
216
Ms an, usando el resultado (4.26), la Parte (3). y resultado (10.2.1). Encontramos que
tr[Hn (A A) Gn Hn A
A
= tr[Hn (A A) A
A Gn ]
= trfHn [ AA
AA
Gn g
2
= (1=2) tr AA
= (1=2) tr AA
Gn ]
+ (1=2) tr AA AA
+ (1=2) trAA )
c bT
a A
(1)
(2)
QTn+1 (B
B) Qn+1 =
"
(1)T
Qn+1
(2)T
Qn+1
(B
(B
(1)
B) Qn+1
(1)
B) Qn+1
(1)T
Qn+1
(2)T
Qn+1
(B
(B
(2)
B) Qn+1
(2)
B) Qn+1
uT Bu uT BU
c bT
.
= ITn+1 BIn+1 = (u; U)T B (u; U) =
UT Bu UT BU
a A
encontramos que
(1)T
Qn+1 (B
(1)
B) Qn+1 =
217
In+1
= B
(1)
Qn+1 (B
(2)
B) Qn+1 =
In+1
= B
(2)
Qn+1 (B
(1)
B) Qn+1 =
In+1
= B
(2)T
Qn+1 (B
(2)
B) Qn+1 =
In+1
= B
uT (B
B) (In+1
u Bu = B
uT (B
u)
c = cB,
B) (In+1
U)
u BU = B
b ,
UT (B
B) (In+1
U Bu = B
a,
UT (B
B) (In+1
U BU = B
u)
U)
A.
As, a la luz de los resultados (1.27), (1.4), (3.14), y (3.12), tenemos que
QTn+1 (B
B) Qn+1
3
bT
bT A Knn 7
7.
bT A 5
A A
c2
cbT
cbT
6 ca
cA
abT
6
=4
ca
abT
cA
a a Knn (a A) a A
bT
Y a la luz de los resultados (4.12), (4.5), (4.15), y (4.16) [as como la Parte
1
(1) del Teorema 16.4.1],se sigue que, para Hn = GTn Gn
GTn ,
Hn+1 (B B) Gn+1
2
1
60
B) Qn+1 6
40
0
3
0 0
In 0 7
7
In 0 5
0 Gn
1
0
0
0
4
= 0 (1=2) In (1=2) In 0 5 QTn+1 (B
0
0
0
Hn
2
c2
cbT
cbT
T
= 4
ca
(1=2) cA + ab
(1=2) cA + abT
bT
Hn (a a)
Hn (a A)
Hn (a A)
2
3
1 0 0
60 In 0 7
6
7
40 In 0 5
0 0 Gn
3
bT bT
A
[(1=2)(In2 + Knn )]5
Hn (A A)
218
(7.91)
[donde Hn = GTn Gn
GTn ]. Y observa [a la luz de la parte (2) del Teorema
16.4.1) que S es un complemento de Schur de la submatriz Hn (A A) Gn
n(n+1)=2 n(n+1)=2, en la esquina inferior derecha de la matriz particionada
(4.29). Adems, usando los resultados (4.26), (4.22), y (3.12), encontramos
que
Gn Hn
= A
= A
= A
A
A
A
A
A Gn Hn [a a; 2 (a A)]
Gn Hn [a a; 2 (a A)]
[(1=2)(In2 + Knn )] [a a; 2 (a A)]
[a a; (a A) + (A a)] .
As,
2 2
c
6
S=6
4 ca
=
c2
ca
bT A a
bT A a
bT A a
AA a
bT A a
T
b A a AA a
3
bT A a
bT A a
bT A A
bT A a 7
7
cA + abT
bT A a
A 5
bT A A
AA a
2cbT
2cbT
bT A a
T
b A a A + abT
bT A A
,
AA abT A A
bT A 1 a
c + bT A 1 a
a
2bT
.
A
(7.92)
A)]
219
B) Gn+1 j = jHn (A
A) Gn j jSj .
(7.93)
jSj =
bT A 1 a
n+1
bT A 1 a
n+1
bT A 1 a
n+2
c + bT A 1 a
a
2bT
A
jAj c + bT A 1 a 2bT A 1 a
jAj .
(7.94)
jHn+1 (B
bT A 1 a
B) Gn+1 j = c
n+2
jAj jHn (A
A) Gn j .
(7.95)
n,
A) Gn j = jAjn+1
(7.96)
c bT
a A
220
B) Gn+1 j = jBjn+2 .
jHn+1 (B
(7.97)
B) Gn+1 j = c
bT A 1 a
n+2
jAjn+2 jBjn+2 .
1 eT
.
0 In
Entonces,
BT =
c bT + ceT
.
a A + aeT
Ms an jTj = 1.
Dado que In y A + aeT son no-singulares, tenemos [del mismo razonamiento
como en caso (2)] que
jHn+1 (T
T) Gn+1 j = jTjn+2 = 1
(7.98)
jHn+1 [(BT)
221
(7.99)
7.2.9.
B)Gn+1 j = jBjn+2 .
(7.100)
A) x = b,
(7.101)
222
(7.102)
AXC = B,
A x = b,
Ai XCi +
i=1
s
X
Lj XT Tj = B,
1.
(7.103)
j=1
Ai XCi +
X
i
Ai vecX +
X
j
CTi
(
X
CTi
Lj XT Tj
Ai +
"
vec Lj XT Tj
X
TTj
Lj vecXT
X
j
TTj
Lj
Knp
vecX.
(7.104)
(7.105)
1. Como
223
(Ai XCi ) = B
(7.106)
i=1
Ai
x = b.
(7.107)
7.2.10.
@F
@xj
(7.109)
224
@F
@xj
(7.110)
@vechF
@vecF
= Hp
.
@xj
@xj
(7.111)
@vecF
@xj
(7.113)
(j = 1; :::; m) y de que
@vec (AFB)
@vecF
= BT A
.
(7.114)
T
@x
@xT
La frmula (6.6) relaciona la matriz Jacobiana de vec(AFB) al vecF.
Cuando s = q; r = p, y m = pq se sigue de los resultados (6.6) y (3.18) que
@vec (AFB)
@vecF
= jAjq jBjp
,
T
@x
@xT
(7.115)
225
= BT
A,
(7.116)
@ (vecX)
= jAjq jBjp .
Suponga ahora que F es simtrica y que A es cuadrada (en cual caso ambos
F y A son p p). Entonces,
@vech AFAT
@vechF
=
H
(A
A)
G
,
(7.117)
p
p
@xT
@xT
como es evidente del resultado (6.6) al colocar B = AT y observando [A la
luz de resultado (4.6)] que
@vec AFAT @vecF
@vech AFAT
@vechF
= Hp
;
= Gp
.
T
T
T
@x
@x
@x
@xT
Cuando m = p(p + 1)=2, se sigue de los resultados (6.10) y (4.34) que
@vech AFAT
@xT
= jAjp+1
@vechF
.
@xT
(7.118)
= Hp (A
@ (vechX)T
@vech AXAT
T
@ (vechX)
A) Gp ,
= jAjp+1 .
226
@F 1
@vec (F 1 )
= vec
@xj
@xj
h
T
=
F 1
=
1 T
@F
F
@xj
i
@F
F 1 vec
@xj
i @vecF
F 1
.
@xj
= vec
(7.119)
2p
@vecF
.
@xT
(7.121)
@ (vecX)
@vec (X 1 )
T
@ (vecX)
X 1.
= ( 1)p jXj
2p
(7.122)
(7.123)
7.3. EJERCICIOS.
227
(p+1)
@vechF
.
@xT
(7.125)
@vech (X)
@vech (X 1 )
T
@vech (X)
7.3.
Gp ,
= ( 1)p(p+1)=2 jXj
(p+1)
= Hp X
(7.126)
.
(7.127)
Ejercicios.
Seccin 16.1.
1. (Ricardo) D ejemplo de una matriz A y una matriz identidad I tales que
I 6= I
A.
B.
(A + B)
(C + D) = (A
C) + (A
D) + (B
C) + (B
D).
j=1
i=1 j=1
228
B = (A
n y una matriz B p
q,
Bk = kAk kBk .
7.3. EJERCICIOS.
229
Seccin 16.2.
13. Sea A1 ; A2; :::; Ak que representa k matrices (del mismo tamao). Muestre
que A1 ; A2 ; :::; Ak son linealmente independientes si y slo si el vec(Ai ); vec(A2 ); :::; vec(Ak )
son linealmente independiente.
14. Sea m que representa un entero positivo, sea ei que represente la i-sima
columna de Ii (i = 1; :::; rn), y(para i; j = l; :::; m) sea Uij = ei eTj (en cual
caso Uij es una matriz m m cuyo ij-simo elemento es 1 y cuyos m2 1
elementos restante son 0).
(a) Muestre que
vec(Im ) =
m
X
ei
ei .
i=1
Usr .
Uij
i=1 j=1
BT ]vecX.
17. (a) Sea V que representa un espacio lineal de matrices m n, y sea g que
representa una funcin que asigna el valor A B a cada par de matrices A
y B en V. Tome U para el espacio lineal de vectores mn 1 denidos por
U = x 2 Rmn
230
donde a1 ; a2; :::; an y b1 ; b2; :::; bn que representa la primera, segunda,....,nsimas columnas de A y B, respectivamente.
(c) Sea g una funcin que representa que asigna valor xT yT para un par
de vectores (la) arbitrarios en R1 n . Muestre que g es un producto interno
(para R1 n ) si y slo si existe una matriz W n n denida positiva simtrica
tal que (para cada par de vectores la xT y yT n-dimensionales)
xT
Seccin 16.3.
18. (a) Dena (para m
cada matriz A m n,
yT = xT Wy.
= PvecA.
7.3. EJERCICIOS.
231
n
X
uTj
uj =
Im
j=1
m
X
ei
In
eTi .
i=1
B) = (In
Ip ) (Im
G) vecA = (H
vecB) y H = (In
Seccin 16.4.
24. Muestre que, para Hn = GTn Gn
GTn ,
Ip ) vecB,
Iq ].
232
Gn Hn HTn = HTn .
25. Existe una nica matriz Ln tal que
vechA = Ln vecA
para cada matriz A n n (simtrico o no). (La matriz Ln , es una opcin
para la matriz Hn , discutido en la Seccin 16.4b. Es referida por Magnas
y Neudecker (1980) como la matriz de eliminacin - el efecto de premultiplicando el vec de una matriz A n n por Ln , es eliminar (del vec A) los
elementos del A "supradiagonal")
(a) Escriba los elementos de L1 , L2 , y L3 .
(b) Para un entero positivo arbitrario n, describa Ln en trminos de sus las.
26. Sea A que representa una matriz n n y b un vector n 1,
(a) Muestre que (1=2) (A bT ) + (bT A) Gn = (A bT )Gn .
1
b) Muestre que, para Hn = GTn Gn
GTn ,
(1) (1=2)Hn [(b A) (A b)] = Hn [(b A),
(2) (A bT )Gn Hn = (1=2) (A bT ) + (bT A) ,
(3) Gn Hn (b A) = (1=2) [(b A) + (A b)].
27. Sea A = faij g que representa una matriz n n (posiblemente nosimtrica).
1
(a) Muestre que. para Hn = GTn Gn
GTn
Hn vecA = (1=2)vech A + AT .
(b) Muestre que
GTn Gn vechA = vech [2A
28. Sea A que representa una matriz n n. Muestre que, para Hn = GTn Gn
Gn Hn (A
A)HTn = (A
A)HTn .
GTn .
7.3. EJERCICIOS.
233
superior, triangular inferior, o diagonal con los elementos diagonales aii ajj
(i = 1; :::; n; j = i; :::; n).
Seccin 16.5.
30. Sea A1 ; :::; Ak , yB que representan matrices
m n, y sea b = vecB.
Pk
(a) Muestre que la ecuacin de la matriz i=1 xi Ai = B (en desconocidos
x1 ; :::; xk ) es equivalente a un sistema lineal de la forma dnde Ax = b donde
x = (x1 ; :::; xm )T es un vector desconocido.
(b) Muestre
P que si A1 ; :::; Ak , y B son simtricos, entonces la matriz de la
ecuacin ki=1 xi Ai = B (en los desconocidos x1 ; :::; xk ) es equivalente a un
sistema lineal de la forma A x = b , dnde b = vechB y x = (x1 ; :::; xk )T
es un vector desconocido.
Seccin 16.6
31. Sea F que representa una matriz de funciones p q, denida sobre un
conjunto S, de un vector, x = (x1 ; :::; xm )T de m variables. Muestre que, para
k = 2; 3; :::;
Xh
@vec Fk
=
Fs
@xT
1 T
Fk
i @vecF
@xT
(donde F0 = Ip ).
32. Sea F = ffis g y G que representa una matriz de funciones p q y r s,
denida sobre un conjunto s, de un vector, x = (x1 ; :::; xm )T de m variables
(a) Muestre que (para j = 1; :::; m)
@ (F G)
=
@xj
@G
@xj
@F
@xj
G .
Ksp
Ir ) (vecF)
@vecG @vecF
+
@xj
@xj
(vecG) .
Ksp
Ir ) (vecF)
@vecG @vecF
+
@xT
@xT
(vecG) .
234
Ksp
Ir ) (Ipq
(vecY) ; (vecX)
Irs ).