Algebra Linear Notas 16
Algebra Linear Notas 16
Algebra Linear Notas 16
Vol. II
Álgebra linear
Introdução 7
Notações 9
ficará em pé autonomamente. Por isso, a linguagem deste volume será mais técnica
e poderá aparecer mais “fria” que a usada até agora: o rigor matemático será apre-
sentado na sua pureza, deixando ao leitor a tarefa de compará-lo com a apresentação
mais intuitiva do vol. I.
Além disso, haverá também muito material novo, que nem foi roçado no curso
de geometria analı́tica. Antes de tudo, no capı́tulo 1 partiremos da noção geral de
espaço vetorial sobre um corpo fixado, tratando Rn como um caso particular, mesmo
se extremamente significativo. No capı́tulo 2 estudaremos em detalhe as funções li-
neares, ou seja, as funções entre espaços vetoriais que “respeitam” as operações
de soma e produto externo. Estas funções, com algumas propriedades adicionais,
constituirão a ferramenta fundamental para definir rigorosamente o fato que duas
figuras geométricas sejam congruentes o semelhantes. É evidente que se trata de um
passo essencial em direção à formalização da geometria euclidiana, sendo as noções
de congruência e semelhança presentes desde o começo da obra “Os Elementos”
de Euclides. No capı́tulo 3 aprofundaremos as noções de determinante e posto de
uma matriz, mostrando as definições completas e demonstrando todas as afirmações
que foram somente enunciadas no vol. I. Ademais, introduziremos pela primeira vez
as noções de autovalor e autovetor de um endomorfismo ou de uma matriz, que
serão centrais nos capı́tulos sucessivos. No capı́tulo 4 estudaremos a teoria geral
do produto interno (ou escalar) em um espaço vetorial real, sendo o canônico em
Rn , definido no vol. I, um caso particular. Introduziremos também o conceito de
orientação e as suas principais aplicações. Além do mais, analisaremos as relações
profundas entre as noções de função linear, produto interno e orientação, sendo esta
a base para definir rigorosamente as rotações. No capı́tulo 5 estudaremos apro-
fundadamente os espaços vetoriais complexos, comparando-os com os reais. Como
é possı́vel definir um produto interno em um espaço vetorial real, analogamente é
possı́vel definir um produto hermitiano em um espaço vetorial complexo: este será o
tópico do capı́tulo 6, junto com as relações entre as noções de função linear e produto
hermitiano. No capı́tulo 7 descreveremos as formas canônicas das funções lineares de
um espaço fixado em si mesmo, isto é, a forma diagonal e a forma canônica de Jor-
dan. Também enunciaremos e demonstraremos os teoremas espectrais e as relativas
aplicações, que são particularmente relevantes. Enfim, no capı́tulo 8 estudaremos
a noção de forma bilinear real, que generaliza a de produto escalar, e as de forma
hermitiana e forma bilinear complexa, as quais desempenham no contexto complexo
um papel análogo ao das formas bilineares reais, mas de duas maneiras distintas. A
teoria das formas bilineares será a base para classificar as quádricas no vol. III.
Este breve resumo confirma que a relação entre o vol. I e o vol. II tem duas
faces: por um lado temos que repetir a matéria do curso de geometria analı́tica
de modo mais intrı́nseco, por outro lado temos que acrescentar muitos conteúdos
completamente novos. Podemos afirmar que este volume constituirá o trecho mais
ı́ngreme da trilha que estamos percorrendo até a cima da montanha, sendo esta
cima a formalização completa da geometria euclidiana e da noção cartesiana de
referencial. Contudo, depois deste esforço, a cima será mais próxima e, no vol. III,
a alcançaremos.
Notações
X = {x : ϕ(x)}
sendo ϕ(x) a propriedade. Às vezes, para destacar que estamos definindo um con-
junto e não enunciando uma igualdade entre objetos já definidos, usamos o sı́mbolo
9
10 NOTAÇÕES
‘:=’. Por exemplo, o conjunto dos números inteiros pares pode ser definido da se-
guinte maneira:
P := {n ∈ Z : ∃m ∈ Z : n = 2m}.
Quando o conjunto for finito, podemos defini-lo também mostrando a lista dos seus
elementos, por exemplo:
X := {1, 8, −2}.
Quando definiremos a noção de vetor, usaremos as seguintes notações:
• indicaremos os vetores por uma letra sublinhada, por exemplo ‘v’;
• o vetor nulo em qualquer dimensão será indicado por ‘0’ e o oposto do vetor
‘v’ será denotado por ‘−v’;
• usaremos o sı́mbolo ‘+’ para indicar a soma entre vetores, por exemplo
v+w, e o sı́mbolo ‘ · ’ para denotar o produto externo; todavia, normalmente
indicaremos o produto externo sem escrever explicitamente ‘·’, por exemplo
λv;
• usaremos o sı́mbolo ‘h · , · i’ ou ‘•’ para indicar o produto escalar ou interno,
por exemplo hv, wi ou v • w;
• usaremos o sı́mbolo ‘∧’ para indicar o produto vetorial em R3 , por exemplo
v ∧ w;
• dado um conjunto de vetores A = {v 1 , . . . , v k }, denotaremos por hAi ou
por hv 1 , . . . , v k i o subespaço gerado por A; em princı́pio, quando k = 2,
a notação hv 1 , v 2 i pode indicar quer o subespaço gerado pelos dois veto-
res, quer o produto interno, mas o contexto esclarecerá sem dúvida o que
estamos denotando.
CAPı́TULO 0
Noções preliminares
Neste capı́tulo vamos introduzir algumas noções algébricas básicas que serão
usadas neste volume. Assumimos que o leitor já tenha uma certa familiaridade com
estas noções ou que a esteja adquirindo em outros cursos paralelos ao de álgebra
linear, portanto este capı́tulo só tem que ser pensado como um breve resumo.
0.1. Grupos e corpos
Seja X um conjunto. Chamamos de operação em X uma função ∗ : X × X → X,
ou seja, uma função que, a partir de dois elementos de X, dá outro elemento de X.
Por exemplo, a soma e o produto entre números naturais são duas operações em N,
pois são duas funções da forma + : N × N → N e · : N × N → N. Uma operação
assim definida é também dita operação interna em X. Ao contrário, dados dois
conjuntos X e Y , uma operação externa em X, com coeficientes em Y , é uma
função ∗ : Y × X → X ou ∗ : X × Y → X. Por exemplo, podemos multiplicar
um número real por um número inteiro, obtendo outro número real. Trata-se da
operação externa · : N × R → R, portanto é uma operação em R com coeficientes
em N. Com esta notação o resultado da operação ∗, aplicada a x e y, deveria ser
denotado por ∗(x, y), mas frequentemente se usa a notação x∗y. Além disso, quando
o sı́mbolo da operação é ‘ · ’, pode ser subentendido, portanto denotamos · (x, y) por
xy.
Uma estrutura algébrica é um conjunto com algumas operações, que podem ser
internas ou externas e que devem satisfazer algumas hipóteses. Vamos mostrar dois
casos significativos de estruturas algébricas, ou seja, os grupos e os corpos, que serão
usados ao longo do texto.
Definição 0.1.1. Um grupo é uma tripla (G, · , 1), onde:
• G é um conjunto;
• · : G × G → G é uma operação, frequentemente chamada de produto;
• 1 ∈ G é um elemento fixado,
tal que:
(i) o produto é associativo, ou seja, g(hk) = (gh)k para todos g, h, k ∈ G;
(ii) 1 é o elemento neutro do produto, ou seja, g1 = 1g = g para todo g ∈ G;
(iii) todo g ∈ G possui um inverso, ou seja, para cada g ∈ G existe um elemento
g −1 ∈ G tal que g · g −1 = g −1 · g = 1. ♦
Definição 0.1.2. O grupo (G, · , 1) é dito abeliano ou comutativo se gh = hg
para todos g, h ∈ G. Neste caso, acontece frequentemente (mas nem sempre) que:
• a operação é denotada por ‘+’ e chamada de soma;
11
12 0. NOÇÕES PRELIMINARES
esta notação, temos que (a, b) = (a, 0) + (0, b) = (a, 0) + (0, 1)(b, 0) = ι(a) + iι(b),
portanto, como decidimos de subentender ι, temos que (a, b) = a + ib.
Observação 0.5.2. Observamos que o grupo abeliano (C, + , 0) coincide com o
subjacente ao espaço vetorial R2 . Além disso, temos que x · (a, b) = (xa, xb), sendo
a, b, x ∈ R, isto é, o produto entre um número real e um número complexo coincide
com o produto externo de R2 . Por isso, o corpo complexo pode ser pensado como
o espaço vetorial R2 enriquecido pela operação de produto entre dois vetores, cujo
resultado é outro vetor.1 ♦
0.5.1. Quociente de números complexos. Já afirmamos que C é um corpo.
De fato, o leitor pode conferir facilmente que a definição 0.1.5 é satisfeita. Em
particular, vamos mostrar como verificar que todo número complexo não nulo é
invertı́vel. Suponhamos por enquanto de saber que essa propriedade vale. Então,
para calcular o quociente de dois números complexos (sendo o denominador não
nulo), se pode atuar da seguinte maneira:
a + ib a + ib c − id (a + ib)(c − id) ac + bd bc − ad
= · = 2 2 2
= 2 2
+i 2 .
c + id c + id c − id c −i d c +d c + d2
1 c 1
Em particular, c+id = c2 +d 2 − i c2 +d2 . Agora, voltando a supor de não saber que todo
número não nulo é invertı́vel, podemos conferir (usando a definição do produto) que
c 1 1 c 1
(c + id) · c2 +d2 − i c2 +d2 = 1, logo fica demonstrado que c+id = c2 +d 2 − i c2 +d2 .
z
ρ
b z = a + ib
θ
a
0.5.5. Exercı́cios.
0.1. Verifique que z + w = z̄ + w̄ e zw = z̄ · w̄ para todos z, w ∈ C.
0.2. Calcule as seguintes potências de números complexos, exprimindo-as em forma
cartesiana:
√ √ 25 √ 40
(1) (1 + i)4 (2) 22 − i 22 (3) 23 + 2i .
√ √
2 2
0.3. Calcule as formas cartesianas dos números complexos z tais que z 3 = 2 +i 2 .
0.4. Calcule as formas cartesianas dos números complexos z tais que z 2 −4z +i+4 = 0.
20 0. NOÇÕES PRELIMINARES
0.5. (∗) Encontre todos os números complexos z que satisfazem o seguinte sistema:
2
z z̄ − z̄z = −z̄
(z 3 + z̄)3 = 1.
0.6.1. Exercı́cios.
0.6. Resolva o seguinte sistema linear, cujos coeficientes pertencem ao corpo C, com
o método de escalonamento de Gauss:
x + y + iz = 1
2x + (2 − i)y + (2i + 1)z = i
ix + z = −i.
0.7. (∗) Resolva o seguinte sistema linear, cujos coeficientes pertencem ao corpo Z5 ,
com o método de escalonamento de Gauss:
2x − y + 3z = 4
3x − 3y + 4z = −1
2x + 3y + z = 3.
Vimos no vol. I que M (n, m; R), com estas operações, é um espaço vetorial real.
Veremos no capı́tulo 1 (exemplo 1.1.5) que o mesmo vale para um corpo genérico.
Definição 0.7.3. A matriz nula de ordem (n, m), que denotamos por 0n,m ou
simplesmente por 0, é a cujas entradas são todas iguais a 0. ♦
Segue imediatamente das duas definições precedentes que uma matriz é diagonal
se, e somente se, todas as entradas não nulas (caso existam) pertencem à diagonal
principal. Além do mais, é imediato verificar que, se A for antissimétrica, então
toda entrada da diagonal principal é nula.
22 0. NOÇÕES PRELIMINARES
a ser enunciada, mas que torna mais rápidas e elegantes as expressões com várias
somas envolvidas.
0.8.1. Combinações lineares. Suponhamos que um vetor v ∈ Rn seja com-
binação linear de uma famı́lia {a1 , . . . , ak } ⊂ Rn . Isso significa que v = λ1 a1 + · · · +
λk ak , sendo λ1 , . . . , λk ∈ R. Podemos usar a também a seguinte notação. Pomos o
ı́ndice de um escalar acima, isto é, λ1 , . . . , λk ∈ R, e escrevemos:
(2) v = λ i ai .
Dado que o ı́ndice i aparece acima e abaixo na mesma fórmula (2), fica subentendida
a soma correspondente, ou seja, a fórmula (2) equivale à v = ki=1 λi ai .
P
Espaços vetoriais
os polinômios na forma p(x) = a0 +a1 x+· · ·+an xn e q(x) = b0 +b1 x+· · ·+bn xn . Definimos
então p(x) + q(x) := (a0 + b0 ) + (a1 + b1 )x + · · · + (an + bn )xn . Enfim, definimos o produto
externo da seguinte maneira: λ(a0 + a1 x + · · · + an xn ) := (λa0 ) + (λa1 )x + · · · + (λan )xn . O
leitor pode verificar que as propriedades (1)–(8) são satisfeitas, portanto K[x] é um espaço
vetorial sobre K. O vetor nulo é o polinômio p(x) = 0 e, se p(x) = a0 + a1 x + · · · + an xn ,
o polinômio oposto é (−p)(x) = −a0 − a1 x − · · · − an xn . ♦
Exemplo 1.1.5. Seja M (n, m; K) o conjunto das matrizes de n linhas e m colunas
com entradas em K (v. seção 0.7). Indicamos uma matriz por [aij ], sendo i entre 1 e n e
sendo j entre 1 e m. Definimos a soma por [aij ] + [bij ] := [aij + bij ] e o produto externo
por λ[aij ] := [λaij ]. Obtemos um espaço vetorial sobre K, no qual o vetor nulo é a matriz
nula e −[aij ] = [−aij ]. ♦
Exemplo 1.1.6. Seja C 0 (R) o conjunto das funções contı́nuas de R a R. Definimos a
soma por (f +g)(x) := f (x)+g(x) e o produto externo por (λf )(x) := λ·f (x). Trata-se de
um espaço vetorial real, pois a soma de duas funções contı́nuas é contı́nua e um múltiplo
de uma função contı́nua é contı́nuo. Dado λ ∈ R, denotamos por cλ a função constante
cλ (x) = λ ∀x ∈ R. O vetor nulo é a função constante c0 e o oposto da função f é a função
−f definida por (−f )(x) := −(f (x)). Podemos definir de modo análogo o espaço vetorial
das funções k vezes diferenciáveis, ou de classe C k , ou analı́ticas. Também o conjunto de
todas as funções de R a R, com a soma e o produto externo que acabamos de definir, é
um espaço vetorial real. ♦
Exemplo 1.1.7. Seja SeqK o conjunto das sequências com entradas em K. Isso significa
que um elemento de SeqK é uma sequência (a0 , a1 , . . .), com ai ∈ K. Denotamos a sequência
por (ai ). A soma é definida por (ai ) + (bi ) := (ai + bi ); o produto externo é definido por
λ(ai ) := (λai ). O leitor pode verificar que as propriedades (1)–(8) são satisfeitas, portanto
SeqK é um espaço vetorial sobre K. Em particular, o vetor nulo é a sequência (0, 0, . . .) e
−(ai ) = (−ai ). ♦
A partir das propriedades (1)–(8), podemos deduzir outras propriedades signifi-
cativas, enunciadas no seguinte lema.
Lema 1.1.8. Seja V um espaço vetorial. Valem as seguintes propriedades.
(9) Se v + w = v + z, então w = z.
(10) O vetor nulo 0 é único, ou seja, não existem outros vetores de V que satis-
fazem a propriedade (2).
(11) Dado um vetor v ∈ V , o vetor oposto −v é único, ou seja, não existem
outros vetor de V que satisfazem a propriedade (3).
(12) 0v = 0 para todo v ∈ V .
(13) λ0 = 0 para todo λ ∈ K.
(14) (−1)v = −v para todo v ∈ V .
(15) λv = 0 se, e somente se, λ = 0 ou v = 0.
(16) Dados v ∈ V e λ, µ ∈ K, se v 6= 0 e λ 6= µ, então λv 6= µv.
Demonstração. (9) Acrescentando −v de ambos os lados da igualdade v+w =
v + z, obtemos 0 + w = 0 + z, logo w = z. (10) Seja 00 outro elemento neutro da
soma. Então 0 + 00 = 0, pois 00 é neutro. Também 0 + 00 = 00 , pois 0 é neutro. Logo
0 = 00 . (11) Seja −v 0 outro oposto de v. Então, v + (−v) = v + (−v 0 ) = 0. Pelo
item 9, a igualdade v + (−v) = v + (−v 0 ) implica −v = −v 0 . (12) Pela propriedade
28 1. ESPAÇOS VETORIAIS
1 0 1 0
0 1 −1 k+1
IV → IV + III 2
.
0 0 1+k −k − k + 1
0 0 0 2 − k2
√
Portanto, A é combinação linear de {A1 , A2 , A3 } se, e somente se, k = ± 2 (não é
necessário analisar k = −1, pois já está excluso pela última equação). ♦
Exercı́cio 1.2.5. No espaço vetorial real C 0 (R) (v. exemplo 1.1.6), estabeleça se a
função f (x) = ex é combinação linear da famı́lia {f1 (x), f2 (x)}, sendo f1 (x) = e−x e
f2 (x) = x4 .
Resolução. Neste caso não há um modo canônico que nos reconduza a um sistema
linear, pois os vetores considerados, que são funções contı́nuas, não podem ser interpretados
de modo evidente como uma n-upla de números reais. Se poderia construir um sistema
linear marcando alguns pontos de R e avaliando as funções nestes pontos, mas, para este
exercı́cio, uma técnica ad hoc pode ser mais eficaz. Suponhamos que f seja combinação
de f1 e f2 , ou seja, suponhamos que existam λ, µ ∈ R tais que:
(4) ex = λe−x + µx4 .
Queremos deixar claro que λ e µ são números reais, não funções. Avaliando os dois lados
de (4) em x = 0, obtemos 1 = λ, logo ex = e−x + µx4 . Ademais, limx→−∞ ex = 0 e
limx→−∞ (e−x + µx4 ) = +∞, portanto é impossı́vel que ex = e−x + µx4 . Por isso, ex não
é combinação linear de e−x e x4 . ♦
Exemplo 1.2.9. Considerando o espaço vetorial K[x] (v. exemplo 1.1.4), seja A =
{1, x, x2 , . . .} ⊂ K[x]. Então qualquer elemento de K[x] é combinação linear dos vetores
de A. Se consideramos B = {1, x2 , x4 , . . .} ⊂ V , então as combinações lineares de B são
os polinômios que são soma de monômios de grau par. ♦
Exemplo 1.2.10. Considerando o espaço vetorial SeqK (v. exemplo 1.1.7), seja A =
{(1, 0, 0, . . .), (0, 1, 0, . . .), . . .} ⊂ SeqK . Então não podemos afirmar que qualquer elemento
de SeqK é combinação linear de A. De fato, pela definição 1.2.8, uma combinação linear
envolve uma quantidade finita de vetores de A, sendo esta a única possibilidade, pois nem
definimos as somas infinitas. Portanto, uma sequência (ai ) é combinação linear de A se,
e somente se, contém uma quantidade finita de elementos não nulos. Isso acontece se, e
somente se, a sequência é definitivamente nula, ou seja, se existe N ∈ N tal que an = 0
para todo n ≥ N . ♦
1.2.2. Exercı́cios.
1.1. No espaço vetorial M (2; C), estabeleça para quais valores do parâmetro k ∈ C a
matriz A é combinação linear da famı́lia {A1 , A2 , A3 }, sendo:
1 2 k 1−i 1 1−i i + 2 −2
A= A1 = , A2 = , A3 = .
0 0 0 0 k−i 2 0 2i
1.2. No espaço vetorial SeqC , estabeleça para quais valores do parâmetro k ∈ C a
sequência s é combinação linear da famı́lia {s1 , s2 , s3 }, sendo s = (1, 2+k, 3−k 2 , k, 0, 0, . . .),
s1 = (i, 0, 0, . . .), s2 = (0, i, 0, 0, . . .) e s3 = (0, 0, i, 0, 0, . . .).
1.3. No espaço vetorial Q[x], estabeleça para quais valores do parâmetro k ∈ Q o
polinômio p(x) é combinação linear da famı́lia {q(x), r(x)}, sendo p(x) = x2 , q(x) =
x2 − x − k e r(x) = x2 + kx + 2.
1.4. No espaço vetorial C 0 (R), estabeleça se a função f (x) é combinação linear da
famı́lia {g(x), h(x)}, sendo f (x) = sin x, g(x) = x e h(x) = x2 .
1.5. (∗) Consideremos o corpo Z5 e o espaço vetorial Z35 . Estabeleça para quais valores
do parâmetro k ∈ Z5 o vetor (2, 0, k) é combinação linear da famı́lia {(1, 1, 3), (−1, 2, 1)}.
(1) 0 ∈ W .
(2) Se w ∈ W , então −w ∈ W .
(3) W herda canonicamente de V uma estrutura de espaço vetorial sobre K,
obtida restringindo a W a soma e o produto externo de V . O vetor nulo de
W coincide com o de V e, dado w ∈ W , o oposto de w em W coincide com
o oposto de w em V .
Demonstração. (1) Por definição W não é vazio, logo existe w ∈ W . Pelo
item 2 da definição 1.3.1, temos que 0w ∈ W , logo 0 ∈ W . (2) Seja w ∈ W . Pelo
item 2 da definição 1.3.1, temos que (−1)w ∈ W , logo −w ∈ W . (3) Por definição
de subespaço vetorial, a restrição da soma e do produto externo de V a W definem
duas operações + : W × W → W e · : K × W → W . As propriedades (1),(4),(5)–
(8) valem para todos os vetores de V , portanto, em particular, para os de W . Já
mostramos que 0 ∈ W e, se w ∈ W , então −w ∈ W , sendo −w o oposto em V . Por
isso, também as propriedades (2) e (3) valem em W . Ademais, pelos itens 10 e 11
do lema 1.3.1, o elemento neutro e o oposto de um vetor são únicos em W , portanto
coincidem com os de V .
Exemplo 1.3.3. Seja V o espaço vetorial K[x] e seja W ⊂ V o subconjunto formado
pelos polinômios de grau menor ou igual a 5 e pelo polinômio nulo. Trata-se de um
subespaço vetorial. De fato, se p(x) = a0 +a1 x+· · ·+a5 x5 , q(x) = b0 +b1 x+· · ·+b5 x5 ∈ W ,
então p(x) + q(x) = (a0 + b0 ) + (a1 + b1 )x + · · · + (a5 + b5 )x5 ∈ W e λp(x) = (λa0 ) +
(λa1 )x + · · · + (λa5 )x5 ∈ W . ♦
Exemplo 1.3.4. Sejam V o espaço vetorial K[x] e W ⊂ V o subconjunto formado
pelos polinômios de grau maior ou igual a 5 e pelo polinômio nulo. Nesse caso não se
trata de um subespaço vetorial. De fato, por exemplo, p(x) = x5 + x4 , q(x) = −x5 ∈ W ,
mas p(x) + q(x) = x4 ∈/ W. ♦
Exemplo 1.3.5. Sejam V o espaço vetorial SeqK (v. exemplo 1.1.7) e W ⊂ V o
conjunto das sequências definitivamente nulas. Então W é um subespaço vetorial de V . De
fato, sejam (ai ) e (bi ) duas sequências definitivamente nulas. Em particular, suponhamos
que ai = 0 para todo i ≥ N e que bi = 0 para todo i ≥ M . Então ai + bi = 0 para todo
i ≥ max{N, M }, logo (ai ) + (bi ) é definitivamente nula. Ademais, para λ ∈ K, temos que
λai = 0 para todo i ≥ N , logo λ(ai ) é definitivamente nula. ♦
Exemplo 1.3.6. Sejam V o espaço vetorial C 0 (R) (v. exemplo 1.1.6) e W = {f : R →
R contı́nuas : f (x) = 0 ∀x ≥ 3} ⊂ V . Trata-se de um subespaço vetorial. De fato,
sejam f (x), g(x) ∈ W . Então, para qualquer x0 ≥ 3 fixado, temos que (f + g)(x0 ) =
f (x0 ) + g(x0 ) = 0 + 0 = 0, logo f (x) + g(x) ∈ W . Analogamente, para qualquer x0 ≥ 3
fixado, temos que (λf )(x0 ) = λf (x0 ) = λ0 = 0, logo λf (x) ∈ W . ♦
Exemplo 1.3.7. Seja V o espaço vetorial C 0 (R). Seja W = {f : R → R contı́nuas :
∃x ∈ R : f (x) = 0} ⊂ V . Nesse caso não se trata de um subespaço vetorial. De fato, a
função f (x) = x pertence a W , pois f se anula em x = 0. Também g(x) = 1 − x pertence
a W , pois g se anula em x = 1. Todavia, a soma (f + g)(x) = 1 não pertence a W , pois a
função constante 1 não se anula em nenhum ponto. ♦
1.3.4. Exercı́cios.
1.6. Seja V = C[x] e seja W o subconjunto formado pelos polinômios com coeficientes
reais. Estabeleça se W é um subespaço vetorial de V .
1.7. Seja V = C 0 (R) e seja W = C 1 (R) o subconjunto formado pelas funções de classe
C 1,isto é, diferenciáveis com derivada contı́nua. Estabeleça se W é um subespaço vetorial
de V .
1.8. Lembramos que uma função f : R → R é dita de suporte compacto se existe M > 0
tal que f (x) = 0 para todo x tal que |x| > M . Seja V = C 0 (R) e seja W = Cc0 (R) o
subconjunto formado pelas funções contı́nuas de suporte compacto. Estabeleça se W é
um subespaço vetorial de V .
1.9. Sejam V = SeqK e W ⊂ V o subconjunto formado pelas sequências com ao menos
uma entrada nula. Estabeleça se W é um subespaço vetorial de V .
1.10. Sejam V = SeqC e W ⊂ V o subconjunto formado pelas sequências (zi ) limitadas,
isto é, tais que existe M > 0 tal que |zi | ≤ M para todo i ∈ N. Estabeleça se W é um
subespaço vetorial de V .
1.4. Geradores
No vol. I (seção 2.7) introduzimos a noção de “famı́lia de geradores” de um su-
bespaço vetorial, somente em relação a famı́lias finitas e a subespaços de Rn . Agora
vamos lembrar brevemente esta noção, generalizando-a a famı́lias não necessaria-
mente finitas e a espaços vetoriais quaisquer.
1.4.1. Famı́lias finitas. Começamos considerando um espaço vetorial genérico,
sem ainda tirar o vı́nculo de finitude da famı́lia de geradores.
Notação 1.4.1. Sejam v 1 , . . . , v k ∈ V . Denotamos por hv 1 , . . . , v k i o subcon-
junto de V formado pelas combinações lineares de {v 1 , . . . , v k }, ou seja:
hv 1 , . . . , v k i := {v ∈ V : ∃λ1 , . . . , λk ∈ K : v = λ1 v 1 + · · · + λk v k }. ♦
1No vol. I só consideramos K = R, mas a demonstração é a mesma para K genérico.
1.4. GERADORES 35
Exemplo 1.4.11. Seja Eij a matriz (dita elementar) tal que a entrada (i, j) é igual
a 1 e as demais são iguais a 0. O leitor pode verificar que o espaço vetorial M (n, m; K)
é gerado pelas matrizes elementares Eij , sendo i ∈ {1, . . . , n} e j ∈ {1, . . . , m}, logo é
finitamente gerado. ♦
Exemplo 1.4.12. O espaço K[x] não é finitamente gerado. De fato, seja por absurdo
{p1 (x), . . . , pk (x)} uma famı́lia finita de geradores. Seja di o grau de pi (x) e seja d o máximo
entre {d1 , . . . , dk }. Qualquer combinação linear de {p1 , . . . , pk } tem grau menor ou igual
a d, portanto hp1 , . . . , pk i não pode esgotar o espaço todo. Um conjunto (necessariamente
infinito) de geradores de K[x] é {1, x, x2 , . . .}, isto é, {xi }i∈N . ♦
Exemplo 1.4.13. O espaço das funções contı́nuas de R a R não é finitamente gerado.
De fato, seja por absurdo {f1 (x), . . . , fk (x)} uma famı́lia finita de geradores. Fixemos k +1
pontos distintos x1 , . . . , xk+1 ∈ R e consideremos os vetores v 1 = (f1 (x1 ), . . . , f1 (xk+1 )),
. . . , v k = (fk (x1 ), . . . , fk (xk+1 )). Trata-se de k vetores de Rk+1 , portanto existe um vetor
v = (y1 , . . . , yk+1 ) ∈ Rk+1 que não é combinação linear de {v 1 , . . . , v k }. Seja f : R → R
uma função contı́nua tal que f (xi ) = yi . Se f fosse combinação linear de f1 , . . . , fk , então
v seria combinação linear de {v 1 , . . . , v k }, o que é absurdo. A mesma demonstração vale
para o espaço de todas as funções de R a R, para o espaço das funções diferenciáveis, duas
vezes diferenciáveis e assim em diante. ♦
Exemplo 1.4.14. O espaço vetorial das sequências com entradas em K não é finita-
mente gerado. De fato, seja por absurdo {(a1,i ), . . . , (ak,i )} uma famı́lia finita de geradores.
Consideremos os vetores v 1 = (a1,1 , . . . , a1,k+1 ), . . . , v k = (ak,1 , . . . , ak,k+1 ). Trata-se de k
vetores de Kk+1 , portanto existe um vetor v = (b1 , . . . , bk+1 ) ∈ Kk+1 que não é combinação
linear de {v 1 , . . . , v k }. Consideremos a sequência (b1 , . . . , bk+1 , 0, 0, . . .). Se (bi ) fosse com-
binação linear de {(a1,i ), . . . , (ak,i )}, então v seria combinação linear de {v 1 , . . . , v k }, o que
é absurdo. ♦
Veremos no próximo capı́tulo que os espaços vetoriais finitamente gerados são
os que “se parecem” com Kn , conforme os comentários que fizemos no começo deste
capı́tulo, pois todo elemento deles pode ser identificado com uma n-upla de elemen-
tos de K. Pelo contrário, os espaços não finitamente gerados são intrinsecamente
diferentes de Kn para qualquer n.
1.4.4. Exercı́cios.
1.11. Seja V ⊂ C3 o subespaço vetorial definido por V = {(x, y, z) : ix − y + (2 − i)z =
0}. Encontre uma famı́lia de geradores de V formada por 5 elementos distintos.
1.12. Seja V ⊂ C 0 (R) o subespaço vetorial gerado pela famı́lia {f, g, h}, sendo f (x) =
3x, g(x) = sin(x) e h(x) = e−x . Encontre uma famı́lia A de geradores de V formada por
6 elementos distintos, tal que nenhum elemento de A seja um múltiplo de f , g ou h.
1.13. Seja A ⊂ C 0 (R) a famı́lia A := {fn (x), gn (x)}n∈N , sendo fn (x) = sin(nx) e
gn (x) = cos(nx). Demonstre que A não gera C 0 (R).
1.14. (*) Considere o espaço vetorial Z37 , sobre o corpo Z7 . Demonstre que a famı́lia
A = {(1, 2, 3), (−1, −2, −1), (3, −1, 0)} não gera Z37 .
1.15. (*) Considere o espaço vetorial Z35 , sobre o corpo Z5 . Demonstre que a famı́lia
A = {(1, 1, −1), (1, 1, 1), (3, 1, −1)} gera Z35 .
38 1. ESPAÇOS VETORIAIS
1 −1 −1 0 1 −1 −1 0
0
1 2 0 III → III − II
0 1
2 0
.
0 1 k+1 0 IV → IV − (2 − k)II 0 0 k − 1 0
0 2+k 5+k 0 0 0 1−k 0
Logo, a famı́lia dada é independente se, e somente se, k 6= 1. ♦
Exercı́cio 1.5.4. Seja V o espaço vetorial das funções contı́nuas de (0, +∞) a R.
Estabeleça se a famı́lia formada pelas seguintes funções é linearmente independente:
1
f1 (x) = f2 (x) = x + 1 f3 (x) = x2 + 1.
x
Resolução. Neste caso é mais adequada uma técnica especı́fica. Suponhamos que
αf1 (x) + βf2 (x) + γf3 (x) = 0, com α, β, γ ∈ R. Se α 6= 0, então limx→0+ [αf1 (x) + βf2 (x) +
γf3 (x)] = ±∞, enquanto limx→0+ 0 = 0. Portanto α = 0. Agora é fácil provar que os
polinômios f2 (x) e f3 (x) são independentes, usando a mesma técnica do exemplo 1.5.2,
logo β = γ = 0, portanto {f1 , f2 , f3 } é independente. ♦
1.5.3. Exercı́cios.
1.16. Estabeleça para quais valores do parâmetro k ∈ C os seguintes polinômios for-
mam uma famı́lia independente em C[x]:
x3 + kx2 + x + i (1 − i)x2 + ix + k kx3 + (3 − i)x2 + (2i − 1)x.
1.17. Estabeleça para quais valores do parâmetro k ∈ C as seguintes matrizes formam
uma famı́lia independente em M (2; C):
1 0 k i 0 1 −2 1
.
0 k 1 0 i 2i −1 i − 1
Exercı́cio 1.6.8. Seja K[x] o espaço vetorial dos polinômios com coeficientes em K
em uma variável. Ache uma base do subespaço vetorial K3 [x], formado pelos polinômios
de grau menor ou igual a 3.
Resolução. O genérico elemento de K3 [x] é da forma p(x) = a3 x3 + a2 x2 + a1 x + a0 ,
logo é combinação linear da famı́lia A = {x3 , x2 , x, 1}. Mostremos que A é independente,
portanto é uma base de K3 [x]. Seja p(x) = λ3 x3 + λ2 x2 + λ1 x + λ0 . Se p(x) = 0, por
definição todos os coeficientes de p(x) têm que ser nulos, logo λi = 0 para todo i entre 0
e 3. ♦
Seja v ∈ V . Então:
µ1
+ µ2 − µ1 λλ21 a2 + · · · + µn − µ1 λλn1 an .
v = µ 1 a1 + · · · + µ n an = λ1
v
Isso mostra que C = {v 1 , a2 , . . . , an } é uma famı́lia de geradores de V . Mostremos
que é independente, portanto é uma base. Seja µ1 v 1 + µ2 a2 + · · · + µn an = 0. Então:
µ1 λ1 a1 + (µ1 λ2 + µ2 )a2 + · · · + (µ1 λn + µn )an = 0.
Sendo A uma base, os coeficientes são nulos. Como λ1 6= 0 por hipótese, temos que
µ1 = 0, logo µ2 = · · · = µn = 0.
Passo II . Seja 2 ≤ k ≤ n. Pela hipótese de indução, a menos da ordem podemos
supor que {v 1 , . . . , v k−1 , ak , . . . , an } seja uma base. Portanto:
v k = λ1 v 1 + · · · + λk−1 v k−1 + λk ak + · · · + λn an .
Como B é independente, os coeficientes λk , . . . , λn não são todos nulos, se não v k seria
combinação linear de v 1 , . . . , v k−1 . A menos da ordem, seja λk 6= 0. Atuando como
no passo I, podemos substituir ak com v k e obtemos a base {v 1 , . . . , v k , ak+1 , . . . , an }
de V .
Exercı́cio 1.6.11. Complete os vetores {(1, 1, −1, 0), (0, 2, 1, 1)} a uma base de R4
escolhendo os demais vetores entre os da base:
A = {(1, 1, 0, 0), (1, −1, 0, 0), (1, 1, 1, 0), (0, 0, 0, 1)}.
Resolução. Comecemos pelo vetor v 1 = (1, 1, −1, 0). Conforme o passo I do teorema
1.6.10, temos que escrever v 1 como combinação linear dos vetores de A e selecionar um
coeficiente não nulo. Temos:
(1, 1, −1, 0) = α(1, 1, 0, 0) + β(1, −1, 0, 0) + γ(1, 1, 1, 0) + δ(0, 0, 0, 1).
Pela quarta componente temos δ = 0, pela terceira temos γ = −1. Como γ 6= 0, podemos
substituir v 1 ao terceiro vetor de A. Obtemos a base:
A0 = {(1, 1, 0, 0), (1, −1, 0, 0), (1, 1, −1, 0), (0, 0, 0, 1)}.
44 1. ESPAÇOS VETORIAIS
Agora, conforme o passo II do teorema 1.6.10, temos que escrever v 2 = (0, 2, 1, 1) como
combinação linear dos vetores de A0 e selecionar um coeficiente não nulo, que não pode
ser o coeficiente de v 1 . Temos:
(0, 2, 1, 1) = α(1, 1, 0, 0) + β(1, −1, 0, 0) + γ(1, 1, −1, 0) + δ(0, 0, 0, 1).
Pela quarta componente temos δ = 1, logo podemos substituir v 2 ao quarto vetor de A0 .
Afinal obtemos a base:
A00 = {(1, 1, 0, 0), (1, −1, 0, 0), (1, 1, −1, 0), (0, 2, 1, 1)}.
É claro que, escolhendo outros coeficientes não nulos, obterı́amos outra base. ♦
Exercı́cio 1.7.9. Seja V o espaço vetorial das sequências reais (v. exemplo 1.1.7).
Seja A o subconjunto formado pelas sequências (an ) tais que existe n ∈ N tal que an = 0.
Mostre que A não é um subespaço afim (em particular, não é um subespaço vetorial).
Resolução. Como 0 = (0, 0, 0, 0, . . .) ∈ A, se A fosse um subespaço afim, seria
vetorial. Temos que (1, 0, 1, 1, . . .) ∈ A e (0, 1, 0, 0, . . .) ∈ A, mas a soma é igual a
(1, 1, 1, 1, . . .) ∈
/ A. Portanto A não é vetorial, logo nem afim. ♦
O seguinte lema sugere como verificar quando dois subespaços afins coincidem.
Lema 1.7.10. Sejam A = v 0 + W e A0 = v 00 + W 0 dois subespaços afins de V .
As seguintes condições são equivalentes:
(1) A = A0 ;
(2) W = W 0 e v 00 ∈ A;
(3) W = W 0 e v 0 ∈ A0 .
Demonstração. (1) ⇒ (2). Seja A = v 0 + W = v 00 + W 0 . Então, pelo lema
1.7.7, temos que W = W 0 = A − A. Ademais, é óbvio que v 00 ∈ A. (2) ⇒ (1). Temos
que v 00 = v 0 + w0 , com w0 ∈ W . Portanto, v 00 + W = {v 0 + (w0 + w) : w ∈ W } ⊂
v 0 + W . Analogamente, v 0 + W = {v 00 + (−w0 + w) : w ∈ W } ⊂ v 00 + W . Logo,
v 0 + W = v 00 + W . (1) ⇔ (3). A prova é análoga à precedente, trocando os papeis
de v 0 + W e v 00 + W 0 .
1.7.2. Subespaços afins e sistemas lineares. Enfim, demonstramos no vol.
I que, se um sistema linear de n variáveis não for impossı́vel, o conjunto das suas
soluções é um subespaço afim de Kn , o qual é vetorial se, e somente se, o sistema é
homogêneo. Reciprocamente, todo subespaço afim de Kn é o conjunto das soluções
de um sistema linear não impossı́vel de n variáveis. Contudo, como no caso dos
subespaços vetoriais, pode acontecer que um sistema não linear defina um subespaço
afim, pois pode ser equivalente a um sistema linear.
Observação 1.7.11. Os subespaços afins podem ser também caracterizados
pela propriedade de serem fechados por combinações convexas. Aprofundaremos
esse assunto no vol. III. ♦
1.7.3. Exercı́cios.
1.26. Demonstre que A ⊂ C3 , definido por A = {(a, b, c) : a − b = 1; a − (2 − i)c = i},
é um subespaço afim.
1.27. Seja A ⊂ Kn o subconjunto formado pelos vetores com pelo menos uma entrada
igual a 1. Estabeleça se A é um subespaço afim de Kn .
1.28. Sejam V = SeqC e A ⊂ V o subconjunto formado pelas sequências (an ) tais que
limn→+∞ an = i. Estabeleça se A é um subespaço afim de V .
1.29. Seja V = Q[x]; seja A ⊂ V o subconjunto formado pelos polinômios tais que o
coeficiente de grau 0 é igual a 2 e seja B ⊂ V o subconjunto formado pelos polinômios tais
que o coeficiente de grau máximo é igual a 2. Estabeleça se A e B são subespaços afins
de V .
1.30.R(∗) Sejam V = C 0 (R) e A ⊂ V o subconjunto formado pelas funções contı́nuas
+∞
tais que −∞ f = −3. Estabeleça se A é um subespaço afim de V .
1.8. MATRIZ DE MUDANÇA DE BASE 49
(7) b i = x j i aj .
(8) B = A · X.
A notação (8) é sugerida pelo fato que a fórmula (7) é formalmente a mesma que
define o produto de matrizes. De fato, se construı́mos dois “vetores de vetores”
(a1 , . . . , ak ) e (b1 , . . . , bh ) e aplicamos a regra formal do produto de matrizes, obte-
mos:
x11 · · · x1h
a1 · · · ak ... .. = b · · · b .
. 1 h
xk1 · · · xkh
Em particular, se V = Kn , podemos identificar os “vetor de vetores” (a1 , . . . , ak ) e
(b1 , . . . , bh ) com as matrizes A = [a1 | · · · | ak ] ∈ M (n, k; K) e B = [b1 | · · · | bh ] ∈
M (n, h; K), portanto a identidade (8) se torna a igualdade de matrizes B = AX.
di = z ji aj = xj l y li aj = y li (xj l aj ) = y li bl = ci .
(10) A .. = ... .
.
µm λn
Em particular, se B for também uma base, então µ(A, B) é a matriz de mudança de
base, portanto a fórmula (10) determina os coeficientes de um vetor a respeito de A,
a partir dos a respeito de B. Claramente, para acharmos os coeficientes a respeito
de B a partir dos a respeito de A, temos que inverter µ(A, B) (equivalentemente,
temos que calcular µ(B, A)).
1.8.4. Exercı́cios.
1.31. Dadas as duas bases de R3 A = {(1, −1, 0), (0, 1, 1), (0, 1, −1)} e A0 = {(1, 1, 1),
(0, 1, 0), (0, −1, −1)}, calcule µ(A, A0 ).
1.32. Seja A = {a1 , a2 , a3 } uma base de V . Demonstre que também a famı́lia B =
{2a1 − a2 + a3 , a1 + a2 + a3 , a2 − a3 } é uma base de V .
52 1. ESPAÇOS VETORIAIS
55
56 2. FUNÇÕES LINEARES E AFINS
Exemplo 2.1.8. Seja f : C → C a conjugação, isto é, f (z) = z̄. Vale o item 1 da
definição 2.1.1, pois z + w = z̄ + w̄, mas não o item 2, pois λz = λ̄ · z̄ 6= λ · z̄ para λ ∈ C \ R
e z 6= 0. ♦
2.1.2. Propriedades principais. O seguinte lema mostra duas propriedades
importantes das funções lineares.
Lema 2.1.9. Seja f : V → W linear. Temos que:
• f (0) = 0;
• para todo v ∈ V , f (−v) = −f (v).
Demonstração. f (0) = f (0 · 0) = 0 · f (0) = 0. Analogamente, f (−v) =
f ((−1)v) = (−1)f (v) = −f (v).
Os seguintes exemplos mostram que não vale a volta do lema 2.1.9.
Exemplo 2.1.10. Na demonstração do lema 2.1.9 só usamos o item 2 da definição
2.1.1, não o item 1. Por isso, a função considerada no exemplo 2.1.7 verifica as duas
condições enunciadas no lema, mas não é linear. ♦
Exemplo 2.1.11. A função f : R → R, x 7→ x3 , verifica as duas condições do lema
2.1.9, dado que 03 = 0 e (−x)3 = −(x3 ). Contudo, não verifica nenhum dos dois itens da
definição 2.1.1. ♦
Todavia, o lema 2.1.9 pode ser muito útil em negativo, como mostram os seguin-
tes exemplos.
Exercı́cio 2.1.12. Verifique que a função f : R2 → R2 , (x, y) 7→ (x + 1, y), não é
linear.
Resolução. Como f (0, 0) = (1, 0) 6= (0, 0), a função f não é linear pelo primeiro
item do lema 2.1.9. ♦
Vimos que, para verificar que uma função é linear, devemos verificar que respeite
a soma e o produto externo. O item 2 do seguinte lema mostra um modo levemente
mais rápido para reconhecer as funções lineares.
Lema 2.1.14. Seja f : V → W uma função. As seguintes condições são equiva-
lentes:
(1) f é linear;
(2) f (λ1 v 1 + λ2 v 2 ) = λ1 f (v 1 ) + λ2 f (v 2 ) para todos v 1 , v 2 ∈ V e λ1 , λ2 ∈ K;
(3) f (λ1 v 1 +· · ·+λk v k ) = λ1 f (v 1 )+· · ·+λk f (v k ) para todos k ∈ N∗ , v 1 , . . . , v k ∈
V e λ1 , . . . , λk ∈ K.
Demonstração. (1) ⇒ (2). Pelo item 1 da definição 2.1.1, temos que f (λ1 v 1 +
λ2 v 2 ) = f (λ1 v 1 ) + (λ2 v 2 ). Pelo item 2 temos que f (λ1 v 1 ) = λ1 f (v 1 ) e f (λ2 v 2 ) =
58 2. FUNÇÕES LINEARES E AFINS
2.1.3. Exercı́cios.
2.1. Estabeleça quais, entre as seguintes funções, são lineares:
(1) f : R2 → R2 , (x, y) 7→ (y, x);
(2) f : R2 → R3 , (x, y) 7→ (x, x + y, 0);
(3) f : C2 → C2 , (x, y) 7→ (x, i);
(4) f : C2 → C2 , (x, y) 7→ (x, ȳ);
(5) f : R[x] → R[x], an xn + · · · + a0 7→ a1 x + a0 ;
(6) f : R[x] → R[x], p(x) 7→ p0 (x);
(7) f : M (2; C) → M (2; C), A 7→ A2 ;
(8) f : C 0 (R) → R, ϕ 7→ ϕ(0);
(9) f : C 0 (R) → C 0 (R), ϕ 7→ (x 7→ ϕ(x2 ));
(10) f : C 0 (R) → C 0 (R), ϕ 7→ (x 7→ ϕ(3x) + x).
2.1. FUNÇÕES LINEARES 59
fA ... = ... .. .. =
. .
..
. .
xn am1 · · · amn xn am1 x1 + · · · + amn xn
Agora vamos demonstrar que:
• a função (14) é linear;
• toda função linear de Kn a Km pode ser expressa na forma (14), em relação
a uma matriz A adequada;
• a matriz A é completamente determinada por fA , isto é, a cada função
linear f : Kn → Km fica associada uma única matriz A ∈ M (m, n; K) tal
que f = fA .
Isso determina completamente o conjunto das funções lineares de Kn a Km , o qual
coincide essencialmente com o conjunto M (m, n; K).
Lema 2.1.18. A função (14) é linear para toda matriz A ∈ M (m, n; K).
Demonstração. É consequência imediata das propriedades do produto de
matrizes, pensando no vetor v como em uma matriz de ordem (n, 1). De fato,
fA (λ1 v 1 + λ2 v 2 ) = A(λ1 v 1 + λ2 v 2 ) = λ1 Av 1 + λ2 Av 2 = λ1 fA (v 1 ) + λ2 fA (v 2 ).
Lema 2.1.19. Seja f : Kn → Km linear. Existe uma matriz A ∈ M (m, n; K) tal
que f = fA , sendo fA definida por (14).
Demonstração. Seja {e1 , . . . , en } a base canônica de Kn e seja ai := f (ei ). En-
fim, seja A := [a1 | · · · | an ]. Vamos demonstrar que f = fA . Seja v = (x1 , . . . , xn ) =
x1 e1 + · · · + xn en . Por linearidade, temos que f (v) = x1 f (e1 ) + · · · + xn f (en ) =
x1 a1 + · · · + xn an = Av = fA (v).
60 2. FUNÇÕES LINEARES E AFINS
No lema 2.3.1 não há condições a respeito da famı́lia B. O seguinte lema mostra
as propriedades de f dependendo das de B.
Lema 2.3.2. Sejam A = {v 1 , . . . , v n } uma base de V e B = {w1 , . . . , wn } ⊂ W .
Seja f : V → W a única função linear tal que f (v i ) = wi para todo i entre 1 e n,
conforme o enunciado do lema 2.3.1.
(1) f é injetora se, e somente se, B é uma famı́lia independente.
(2) f é sobrejetora se, e somente se, B gera W .
(3) f é bijetora se, e somente se, B é uma base de W .
1Mais precisamente, afirmar que f está bem definida significa afirmar que, fixado v ∈ V ,
está univocamente determinada a imagem f (v). De fato, como os coeficientes λ1 , . . . , λn , tais que
v = λi v i , são únicos, o vetor f (v) := λi wi é univocamente determinado por v.
2.3. BASES E FUNÇÕES LINEARES 65
B 0 = {w1 , . . . , wk , wk+1 , . . . , wn }. Pelo lema 2.3.1, existe uma única aplicação linear
f : V → W tal que f (v i ) = wi , para todo i entre 1 e n. Em particular, f satisfaz
a condição pedida. Para determinarmos f , tivemos que escolher livremente n − k
vetores de W , portanto f é única se, e somente se, n − k = 0, se, e somente se,
A é uma base de V . (2) (⇒) Seja λ1 v 1 + · · · + λk v k = 0. Então, sendo f linear,
f (λ1 v 1 +· · ·+λk v k ) = λ1 w1 +· · ·+λk wk = 0. (⇐) Pelo lema 1.6.4, podemos escolher
uma subfamı́lia independente de A que gera hAi. A menos da ordem, suponhamos
que A0 := {v 1 , . . . , v h }, com 1 ≤ h ≤ k, seja independente e que hA0 i = hAi. Pelo
item 1, existe uma função linear f : V → W tal que f (v i ) = wi para todo i entre 1
e h, a qual é única se, e somente se, A0 é uma base de V , se, e somente se, hAi = V .
Para i entre h+1 e k, temos que v i = λ1 v 1 +· · ·+λh v h , logo v i −λ1 v 1 −· · ·−λh v h = 0.
Por hipótese, wi − λ1 w1 − · · · − λh wh = 0, logo wi = λ1 w1 + · · · + λh wh . Sendo f
linear, temos que f (v i ) = wi .
Em seguida analisaremos a estrutura do conjunto das funções lineares tais que
f (v i ) = wi para i = 1, . . . , k (v. lema 2.6.4 e corolário 2.6.5). No caso em que
{v 1 , . . . , v k } seja independente, ficará claro que (como pode-se imaginar facilmente),
se k cresce, o conjunto dessas funções se reduz, até conter só um elemento para
k = n.
Exercı́cio 2.3.5. Estabeleça para quais valores do parâmetro k ∈ R existe uma aplicação
linear f : R4 → R2 tal que:
f (0, 1, 1, 1) = (1, 2) f (k, 1, 2, 1) = (3, 0) f (0, 1, k, 1) = (1, 2).
Para quais valores de k é única?
Resolução. Observamos imediatamente que, se f existir, não é única para nenhum
valor de k, pois três vetores de R4 não podem gerar R4 .
Seja λ1 (0, 1, 1, 1)+λ2 (k, 1, 2, 1)+λ3 (0, 1, k, 1) = (0, 0, 0, 0). Obtemos o seguinte sistema
linear:
0 k 0 0
1 1 1 0 (I, II, III) → 1 1 1 0
1 2 k
1 2 k 0 II → II − I
0 (II, III, I)
0 k 0 0
1 1 1 0
1 1 1 0 1 1 1 0
0 1 k − 1 0 III → III − kII 0 1 k−1 0 .
0 k 0 0 0 0 k(1 − k) 0
Se k 6= 0, 1, os vetores dados de R4 são independentes, portanto f existe.
Seja k = 0. Então as soluções do sistema são dadas por λ3 = t, λ2 = t e λ1 = −2t.
Portanto, a combinação linear mais geral dos vetores dados, igual a 0, é −2t(0, 1, 1, 1) +
t(0, 1, 2, 1) + t(0, 1, k, 1) = (0, 0, 0, 0). Verifiquemos se esta relação linear é respeitada pelos
vetores do contra-domı́nio. Temos que −2t(1, 2) + t(3, 0) + t(1, 2) = t(2, −2), portanto não
existe f .
Enfim, seja k = 1. Então as soluções do sistema são dadas por λ3 = t, λ2 = 0
e λ1 = −t. Portanto, a combinação linear mais geral dos vetores dados, igual a 0, é
−t(0, 1, 1, 1) + t(0, 1, 1, 1) = (0, 0, 0, 0). Nesse caso −t(1, 2) + t(1, 2) = (0, 0), portanto
existe f .
2.4. ESTRUTURA LINEAR E COMPOSIÇÃO 67
Afinal, uma função linear que satisfaz o pedido existe para todo k 6= 0, mas nunca é
única. ♦
gerado e dim Hom(V, W ) = dim V · dim W . Mostraremos também como achar uma
base de Hom(V, W ) a partir de uma base de V e uma de W .
2.5. Isomorfismos
Lembramos (v. def. 2.2.5) que um isomorfismo de V a W é uma função linear
bijetora f : V → W . Se V = W e f : V → V for um isomorfismo, então f é dito
também automorfismo de V .
Lema 2.5.1. Seja f : V → W um isomorfismo. A função inversa f −1 : W → V
é também um isomorfismo.
Demonstração. Claramente f −1 é bijetora, portanto só temos que provar que
é linear. Sejam w1 , w2 ∈ W e λ1 , λ2 ∈ K. Sendo f bijetora, existem únicos v 1 , v 2 ∈ V
tais que f (v 1 ) = w1 e f (v 2 ) = w2 . Como f é linear, temos que f (λ1 v 1 + λ2 v 2 ) =
λ1 w1 +λ2 w2 , portanto f −1 (λ1 w1 +λ2 w2 ) = λ1 v 1 +λ2 v 2 = λ1 f −1 (w1 )+λ2 f −1 (w2 ).
Lema 2.5.2. Sejam f : V → W e g : W → Z isomorfismos. A composição
g ◦ f : V → Z é um isomorfismo.
Demonstração. A composição de duas funções bijetoras é bijetora, logo g ◦ f
é bijetora. O fato que seja linear segue do lema 2.4.2.
Definição 2.5.3. Dois espaços vetoriais V e W são ditos isomorfos se existe
um isomorfismo f : V → W . Usamos a notação V ' W . ♦
A existência de um isomorfismo é uma relação de equivalência na classe dos
espaços vetoriais sobre K. De fato:
• é reflexiva, pois a identidade id : V → V é um isomorfismo;
• é simétrica por causa do lema 2.5.1;
• é transitiva por causa do lema 2.5.2.
Por isso, a classe dos espaços vetoriais sobre um corpo K fixado fica dividida em
classes de equivalência, sendo dois espaços equivalentes quando forem isomorfos.
Como para qualquer estrutura algébrica, a noção de isomorfismo é particularmente
relevante, pois o fato que dois espaços sejam isomorfismos significa que têm “a
mesma estrutura” (no grego antigo “isos” significa “igual” e “morphé” significa
“forma”). Podemos afirmar que dois espaços isomorfos coincidem a mesmo de “mu-
dar os nomes” dos elementos. De fato, um isomorfismo é uma bijeção que respeita
as operações em ambos os sentidos, portanto cada vetor do domı́nio fica identificado
com um vetor do contra-domı́nio, coerentemente com a soma e o produto externo.
Ademais, vale o seguinte resultado fundamental, especı́fico da teoria dos espaços
vetoriais.
Teorema 2.5.4. Sejam V e W finitamente gerados. Então V ' W se, e so-
mente se, dim V = dim W . Equivalentemente, se dim V = n, então V ' Kn .
70 2. FUNÇÕES LINEARES E AFINS
(18) A .. = ... .
.
λn µm
Demonstração – Método I. Como v = λi ai , temos que f (v) = λi f (ai ),
portanto a fórmula (18) coincide com a (10) no caso da matriz µ(B, f (A)).
Demonstração – Método II. Temos que f (v) = λi f (ai ) = λi xj i bj , logo
f (v) = w se, e somente se, µj = xj i λi , o que equivale à fórmula (18).
Se V = Kn , W = Km e A e B forem as bases canônicas, então o lema 2.6.8
equivale ao fato que A seja a matriz representativa de fA , como afirmamos antes
do enunciado. A partir desta observação, podemos reformular o lema da seguinte
maneira. Consideremos os isomorfismos ΦA : V → Kn e ΦB : W → Km , conforme
a notação 2.5.5, e a função linear fµAB (f ) : Kn → Km , definida pela matriz µAB (f )
conforme a definição (14). O seguinte diagrama comuta:
f
(19) V / W
ΦA ΦB
fµAB (f )
Kn / Km .
Isso significa que, como uma base A fixada identifica um espaço vetorial genérico V
com Kn , analogamente duas bases A e B fixadas identificam uma função linear de
V a W com a multiplicação por uma matriz, a qual atua entre Kn e Km .
2.6.4. Composição. Vamos analisar o comportamento da matriz representa-
tiva a respeito da composição de funções.
Lema 2.6.9. Sejam f : V → W e g : W → Z funções lineares. Sejam A uma
base de V , B uma base de W e C uma base de Z. Temos que:
µAC (g ◦ f ) = µBC (g) · µAB (f ).
74 2. FUNÇÕES LINEARES E AFINS
2.6.9. Exercı́cios.
2.5. Demonstre que uma matriz A ∈ M (m, n; K) e a matriz representativa da função
linear fA : Kn → Km , v → Av, em relação às bases canônicas de Kn e Km .
2.9.1. Exercı́cios.
2.6. Demonstre que Kn ⊕ Km ' Kn+m .
2.7. Demonstre o lema 2.9.4.
k vezes
2.8. Demonstre que Kn ' K ⊕ · · · ⊕ K.
2.9. Demonstre que:
(1) V ⊕ W ' W ⊕ V ;
(2) (V ⊕ W ) ⊕ Z ' V ⊕ (W ⊕ Z) ' V ⊕ W ⊕ Z;
(3) V ⊕ {0} ' V .
O terceiro vetor é a soma do segundo e do quarto, portanto pode ser tirado. Isso mostra
que, unindo uma base de W1 e uma base de W2 , em geral não se obtém uma base de
W1 + W2 , mas um conjunto de geradores que pode ser dependente. Mostraremos que isso
depende do fato que W1 ∩ W2 6= {0}. ♦
Pelo lema 2.10.3, S gera W1 + W2 , portanto só devemos mostrar que é indepen-
dente. Seja:
λ1 u1 + · · · + λl ul + νl+1 bl+1 + · · · + νh bh = 0.
Resolução. Uma base de W1 é A0 = {(1, 1, 0, 1), (3, −1, 2, 3)} e uma base de W2 é
B0 = {(0, 2, 1, −1), (1, 1, 2, 0)}. Ademais, mostramos que uma base da interseção é U =
{(1, −1, 1, 1)}. Podemos completar U a uma base de W1 , acrescentando um vetor de
A0 . Como nenhum dos dois vetores de A0 é múltiplo de (1, −1, 1, 1), podemos escolher
livremente um dos dois. Seja A = {(1, −1, 1, 1), (1, 1, 0, 1)}. Analogamente, consideremos
a base B = {(1, −1, 1, 1), (0, 2, 1, −1)} de W2 . Pela demonstração do teorema 2.10.10,
uma base de W1 + W2 é A ∪ B = {(1, −1, 1, 1), (1, 1, 0, 1), (0, 2, 1, −1)}. Em particular,
dim(W1 + W2 ) = 3, coerentemente com a fórmula (27). ♦
Nos capı́tulos I.3 e II.0 estudamos as noções principais da álgebra das matri-
zes. Contudo, os conceitos fundamentais de determinante e posto foram somente
esboçados no vol. I, dado que o determinante nem foi definido em geral e, em relação
ao posto, a maioria das afirmações não foi demonstrada. Neste capı́tulo vamos com-
pletar e aprofundar o estudo destes tópicos de modo matematicamente rigoroso.
Para isso, precisamos começar por alguns conceitos de combinatória.
3.1. Permutações
Fixado n ∈ N∗ , consideremos o conjunto {1, . . . , n}, que obviamente contém n
elementos.
Definição 3.1.1. Uma permutação com repetição de n elementos é uma função
σ : {1, . . . , n} → {1, . . . , n}. Indicamos por Pn o conjunto das permutações com
repetição de n elementos. ♦
Isso significa que escolhemos n números entre 1 e n, sendo σ(1) o primeiro
número, σ(2) o segundo e assim em diante. É fácil contar quantas são em total
as permutações com repetição: para cada número entre 1 e n no domı́nio, temos n
escolhas no contra-domı́nio, portanto temos nn escolhas em total, ou seja, |Pn | =
nn . É claro que podemos compor duas permutações com repetição, obtendo uma
permutação com repetição.
Definição 3.1.2. Uma permutação de n elementos é uma função bijetora σ :
{1, . . . , n} → {1, . . . , n}. Indicamos por Sn o conjunto das permutações de n ele-
mentos. ♦
É claro que Sn ⊂ Pn . Uma permutação pode ser pensada como um modo de
reordenar o conjunto {1, . . . , n}, sendo σ(i) o número que vai ocupar a posição i-
ésima. Para calcular o número total de permutações de n elementos, observamos
que temos n escolhas para σ(1), n − 1 escolhas para σ(2) e assim em diante até
uma escolha para σ(n). Logo, temos n! escolhas em total, ou seja, |Sn | = n!.
Claramente a composição de duas permutações é ainda uma permutação, dado que
a composição de duas bijeções é também uma bijeção. Além disso, a identidade
é uma permutação e, sendo as permutações bijetoras, para cada σ ∈ Sn existe a
permutação inversa σ −1 ∈ Sn . Como a composição de funções (logo, em particular,
de permutações) é associativa, Sn é um grupo.1 Podemos indicar uma permutação
1Ao contrário, Pn é um monoide, dado que nem toda permutação com repetição é invertı́vel.
89
90 3. ÁLGEBRA DAS MATRIZES
Demonstração. É fácil verificar que rσ0−1 = (rσ0 )−1 , logo rσ0 é invertı́vel. O
mesmo vale para lσ0 . Como ι2 = id, ι é a inversa de si mesma.
Corolário 3.1.7. Seja f : Sn → K uma função e seja σ0 ∈ Sn . Temos que:
X X X
(32) f (σ) = f (σ ◦ σ0 ) = f (σ0 ◦ σ).
σ∈Sn σ∈Sn σ∈Sn
Vamos mostrar que, se uma função deste tipo existir, só pode ter uma expressão
particular. Em seguida, mostraremos que a função, definida por esta expressão
particular, é um determinante. Sendo única, será o determinante.
Lema 3.2.2. Se det : M (n; K) → K for um determinante e A ∈ M (n; K) tiver
duas colunas iguais, então det(A) = 0.
Demonstração. Seja A = [a1 | · · · | an ] e seja ai = aj com i 6= j. Pela fórmula
(36), trocando ai e aj o determinante muda de sinal, mas, como ai = aj , obtemos a
mesma matriz A. Logo det(A) = − det(A), ou seja, det(A) = 0.
O lema precedente corresponde à propriedade (20 ) das seções I.3.4 e I.3.5.
Lema 3.2.3. Se det : M (n; K) → K for um determinante, então, para toda σ ∈
Sn , temos:
(37) det[aσ(1) | · · · | aσ(n) ] = (−1)σ det[a1 | · · · | an ].
Demonstração. Pelo teorema 3.1.4, temos que σ = τ1 · · · τk , sendo τi uma
transposição. Aplicando cada transposição τi às colunas de [a1 | · · · | an ], o valor de
det muda de sinal pela fórmula (36). Logo, aplicando σ, o valor fica multiplicado
por (−1)k , que coincide com (−1)σ pela definição 3.1.5.
Suponhamos que σ ∈ Pn não seja uma permutação, ou seja, que existam i e j tais
que i 6= j e σ(i) = σ(j). Pelo lema 3.2.2, temos que det[eσ(1) | · · · | eσ(n) ] = 0.
Portanto, na fórmula (39), só podemos considerar as permutações, ou seja, podemos
somar sobre σ ∈ Sn . Ademais, se σ ∈ Sn , podemos aplicar a fórmula (37). Obtemos:
X
(40) det(A) = (−1)σ ασ(1)1 · · · ασ(n)n det[e1 | · · · | en ].
σ∈Sn
Afinal:
X
(42) det(A) = (−1)σ ασ(1)1 · · · ασ(n)n .
σ∈Sn
A igualdade (?) segue da fórmula (32), sendo f (σ) = (−1)σ ασ(1)τ (1) · · · ασ(n)τ (n) e
σ0 = τ . A igualdade (??) segue da fórmula (34), aplicada em cada termo da soma
à função f (i) = ασ(i)i e à permutação τ .
(3) Aplicando a fórmula (42) à matriz idêntica, observamos que ασ(i)i 6= 0 se, e
somente se, σ(i) = i, portanto a única permutação σ ∈ Sn que não anula nenhum
fator do produto ασ(1)1 · · · ασ(n)n é a permutação idêntica. Portanto, o único termo
não nulo da soma (42) é α11 · · · αnn = 1.
Com isso provamos que a função det : M (n; K) → K, definida pela fórmula (42),
é efetivamente um determinante. Sendo a única possı́vel, é o determinante.
3.2.3. Outras propriedades relevantes. Na seção I.3.4.3 mostramos outras
propriedades do determinante de ordem 2, que são consequência das três fundamen-
tais, mas que são ainda mais importantes nas aplicações (em particular as últimas
três). Na seção I.3.5 (teorema 3.5.1) foram repetidas em geral, mas sem demons-
tração. Trata-se das seguintes propriedades:
(4) o determinante é invariante por transposição, ou seja, det(AT ) = det(A)
para toda matriz A ∈ M (n; K);
(5) o determinante é linear nas linhas da matriz, ou seja, vale a propriedade
(1) enunciada em relação às linhas;
(6) trocando duas linhas o determinante muda de sinal;
3.2. DETERMINANTE 95
Aplicando a fórmula (34) à função f (k) = ασ−1 (k)k em cada termo da soma prece-
dente, obtemos:
−1
X X
det(AT ) = (−1)σ ασ−1 (1)1 · · · ασ−1 (n)n = (−1)σ ασ−1 (1)1 · · · ασ−1 (n)n .
σ∈Sn σ∈Sn
n
X X
= βk1 1 · · · βkn n (−1)σ ασ(1)k1 · · · ασ(n)kn
k1 ,...,kn =1 σ∈Sn
n
(49) X
= βk1 1 · · · βkn n ε(k1 , . . . , kn ) det(A)
k1 ,...,kn =1
n
X
= det(A) ε(k1 , . . . , kn )βk1 1 · · · βkn n
k1 ,...,kn =1
(48)
= det(A) det(B).
Isso prova (51). A fórmula (50) é equivalente à (51), aplicada a AT . Como det(A) =
det(AT ), temos a tese.
Corolário 3.2.20. Seja A uma matriz triangular superior, ou seja, tal que
αij = 0 para todo i > j. Então o determinante de A é o produto das entradas da
diagonal principal, ou seja:
(55) det(A) = α11 · · · αnn .
100 3. ÁLGEBRA DAS MATRIZES
O mesmo vale para A triangular inferior, ou seja, tal que αij = 0 para todo i < j.
Em particular, a fórmula (55) vale para A diagonal.
Demonstração. Se A for triangular superior, é suficiente aplicar a regra de
Laplace às colunas de A em sequência, a partir da primeira. Se A for triangular
inferior, aplicamos a regra de Laplace às linhas.
Exercı́cio 3.2.21. Calcule o determinante da seguinte matriz usando o método de
Laplace:
4 0 0 2 1
1 0 1 1 0
A= 1 2 4 1 −6 .
0 0 0 1 1
1 0 0 1 −1
Resolução. Escolhemos a segunda coluna, pois contém quatro zeros. Temos:
4 0 2 1
1 1 1 0
det(A) = −2 det
0
.
0 1 1
1 0 1 −1
Escolhemos de novo a segunda coluna, obtendo:
4 2 1
det(A) = −2 det 0 1 1 .
1 1 −1
Escolhemos a segunda linha. Obtemos:
4 1 4 2
det(A) = −2 det − det = 14.
1 −1 1 1
Obviamente escolhendo outras linhas ou outras colunas obterı́amos o mesmo resultado. ♦
(−1)k
det(A) = det(A0 ).
λ1 · · · λn
Exercı́cio 3.2.22. Calcule, através do método do escalonamento, o determinante da
seguinte matriz:
1 2 2
A = 1 −1 −1 .
1 3 −2
Destacamos que os ı́ndices do lado direito de (57) são transpostos, ou seja, a entrada
(i, j) de A−1 é det(A)
1
AC
ji .
Observação 3.3.2. A fórmula (57) pode ser considerada outro modo de provar
que, se det(A) 6= 0, então A é invertı́vel. De fato, construı́mos explicitamente a
inversa. ♦
Exercı́cio 3.3.3. Inverta a matriz:
0 1 1
A = −1 1 −1
2 −1 2
Vamos entender porque está técnica é válida. Quando consideramos uma ma-
triz A, que supomos por simplicidade ser de ordem 3, e aplicamos as operações
fundamentais (1), (2) e (3) às linhas, cada operação corresponde à multiplicação à
esquerda por uma matriz fixada. Por exemplo, trocar a primeira e a segunda linha
corresponde ao seguinte produto de matrizes:
0 1 0 a11 a12 a13 a21 a22 a23
1 0 0 a21 a22 a23 = a11 a12 a13 .
0 0 1 a31 a32 a33 a31 a32 a33
Multiplicar a segunda linha por λ equivale ao seguinte produto:
1 0 0 a11 a12 a13 a11 a12 a13
0 λ 0 a21 a22 a23 = λa21 λa22 λa23 .
0 0 1 a31 a32 a33 a31 a32 a33
104 3. ÁLGEBRA DAS MATRIZES
temos:
(61) c0i = βi1 a01 + · · · + βim a0m .
Isso significa que as linhas do produto BA são combinações lineares das linhas de
A, com coeficientes dados pelas entradas das linhas correspondentes de B.
Lema 3.4.1. Seja A ∈ M (m, n).
• Seja n > m e seja A0 ∈ M (m, m) a sub-matriz formada pelas primeiras m
colunas. Existe U ∈ M (m, n − m) tal que:
A = A0 A0 U
se, e somente se, as colunas m + 1, . . . , n de A são combinação linear das
primeiras m.
• Seja n < m e seja A0 ∈ M (n, n) a sub-matriz formada pelas primeiras n
linhas. Existe V ∈ M (m − n, n) tal que:
A0
A=
V A0
se, e somente se, as linhas n + 1, . . . , m de A são combinação linear das
primeiras n.
• Seja 1 ≤ k ≤ min{n, m} e seja A0 ∈ M (k, k) a sub-matriz quadrada que
interseta as primeiras k linhas e k colunas de A. Se existirem U ∈ M (m, n−
k) e V ∈ M (m − k, n) tais que:
A0 A0 U
A=
V A0 V A0 U
então as colunas k + 1, . . . , n de A são combinação linear das primeiras k
e as linhas k + 1, . . . , m de A são combinação linear das primeiras k.
Demonstração. O primeiro enunciado segue da fórmula (59), o segundo da
fórmula (61) e o terceiro é consequência imediata dos primeiros dois.
3.4.3. Definição de posto. Lembramos que uma sub-matriz de uma matriz
A é uma matriz A0 que se obtém, a partir de A, tirando algumas linhas e algumas
colunas. Se A ∈ M (m, n), existem sub-matrizes quadradas de A de todas os ordens
entre 1 e min{n, m}.
Definição 3.4.2. Seja A ∈ M (m, n) uma matriz. Se A 6= 0, o posto de A é
o máximo entre as ordens das sub-matrizes quadradas de A com determinante não
nulo. O indicamos por rk(A). Se A = 0, pomos rk(0) = 0. ♦
Observação 3.4.3. E claro que rk(A) = rk(AT ), pois as sub-matrizes quadradas
de AT são as transpostas das sub-matrizes quadradas de A e o determinante é
invariante por transposição. ♦
Exemplo 3.4.4. Calcular o posto da matriz:
1 0 1
A= .
1 0 2
108 3. ÁLGEBRA DAS MATRIZES
Temos que:
1 1 k 2
[A | b] = 1 0 1 1 .
2 k 2 3
Aplicando a regra de Laplace à seguinda linha, temos:
1 k 1 1
det(A) = − det − det = −(2 − k 2 ) − (k − 2) = k(k − 1).
k 2 2 k
Logo, para k 6= 0, 1, temos rk(A) = rk[A | b] = 3, portanto o sistema tem uma
solução.
Seja k = 0. Temos:
1 1 0 2
[A | b] = 1 0 1 1 .
2 0 2 3
Como a terceira coluna coincide com a primeira menos a segunda, podemos tirá-la.
É fácil verificar que rk(A) = 2, calculando o determinante da sub-matriz quadrada
de ordem 2 acima à esquerda. Portanto, se rk[A | b] = 2, então o sistema tem
∞1 soluções, se rk[A | b] = 3, então o sistema é impossı́vel. Isso só depende do
determinante da matriz formada pelas colunas I, II e IV. Aplicando a regra de
Laplace à coluna II, vemos que o determinante é −1, logo o sistema é impossı́vel.
Enfim, seja k = 1. Temos:
1 1 1 2
[A | b] = 1 0 1 1 .
2 1 2 3
Como a terceira coluna é igual à primeira, podemos tirá-la, portanto a situação
é análoga à precedente. De novo, é fácil verificar que rk(A) = 2. Calculemos o
determinante da sub-matriz formada pelas colunas I, II e IV. Aplicando a regra de
Laplace à coluna II, vemos que o determinante é 0, portanto rk[A | b] = 2. Portanto
o sistema tem ∞1 soluções.
Afinal, para k 6= 0, 1 o sistema tem uma solução. Para k = 1 tem ∞1 soluções.
Para k = 0 é impossı́vel. ♦
Sejam A ∈ M (n, n) e b ∈ Rn . Pelo corolário 3.5.2, o sistema Ax = b admite
uma solução única se, e somente se, det(A) 6= 0. Podemos provar diretamente a
unicidade, pois Ax = b se, e somente se, x = A−1 b. Pela fórmula (57), temos que:
n
1 X C
(64) xi = α bj .
det A j=1 ji
Seja Ai a matrix obtida substituindo b à coluna i-ésima de A. Então a entrada (j, i)
C
de Ai é bj e o complemento algébrico de bj é αji , portanto a fórmula (64) coincide
com o determinante de Ai , calculado aplicando a regra de Laplace à coluna i-ésima.
Logo:
det(Ai )
(65) xi = .
det(A)
116 3. ÁLGEBRA DAS MATRIZES
o terceiro grau, ou seja, (k, 0, 0, 1), (0, 1, k, 3) e (1, 1, −1, 3). Portanto obtemos o
seguinte sistema linear:
k 0 1 1
0 1 1 0
[A | b] = 0 k −1
.
k + 1
1 3 3 2
Temos que verificar se o único modo de escrever (0, 0, 0, 0) como combinação linear
de (1, 0, k, 2), (−1, 1, 2, 1) e (−1, k + 1, 5, 4) consiste em escolher coeficientes todos
nulos. Portanto, o seguinte sistema homogêneo deve ter uma solução (a nula):
1 −1 −1 0
0 1 k + 1 0
[A | b] =
k 2
.
5 0
2 1 4 0
Como b = 0, é claro que rk[A | b] = rkA. Como o número de soluções é ∞3−rkA , para
que a solução seja única, rkA tem que ser igual a 3. Isso é também consequência
direta do fato que o posto de A é o número máximo de colunas independentes,
portanto, nesse caso, aplicar o teorema de Rouché-Capelli equivale a usar as propri-
edades fundamentais do posto. Tirando a quarta linha, obtemos uma sub-matriz de
ordem 3 com determinante (k + 3)(k + 1), portanto, para k 6= 1, −3, as colunas são
independentes. Para k = −3, tirando a primeira linha obtemos uma sub-matriz de
ordem 3 com determinante 36, portanto as colunas são independentes. Para k = 1,
a terceira coluna é igual à soma entre a primeira e o duplo da segunda. Logo, as
matrizes dadas são independentes se, e somente se, k 6= 1. ♦
118 3. ÁLGEBRA DAS MATRIZES
um autovetor associado a −1; nos demais casos temos que resolver os dois seguintes
sistemas lineares:
(Aθ − eiθ I2 )v = 0 (Aθ − e−iθ I2 )v = 0.
Obtemos respetivamente:
−i sin θ − sin θ x 0 i sin θ − sin θ x 0
= = .
sin θ −i sin θ y 0 sin θ i sin θ y 0
No primeiro obtemos a equação y = −ix e no segundo a equação y = ix, logo
Veiθ = h(1, −i)i e Ve−iθ = h(1, i)i. ♦
Exemplo 3.6.15. Consideremos o exemplo 3.6.3. Seja f (v) = µv. A matriz
representativa é A = µIn , logo a equação (66) se torna (µ − λ)n = 0, cuja única
solução é λ = µ. De novo A − µIn = 0, logo todo vetor não nulo de Kn é um
autovetor associado a λ. ♦
Exemplo 3.6.16. Consideremos o exemplo 3.6.4. A matriz representativa a
respeito da base canônica é:
1 0 0
A = 0 1 0 .
0 0 0
Logo, temos:
1−λ 0 0
A − λIn = 0 1 − λ 0 .
0 0 −λ
Portanto a equação (66) se torna:
(1 − λ)2 λ = 0.
As soluções são λ = 1 e λ = 0. Para calcular V1 , temos que resolver (A − I3 )v = 0,
ou seja:
0 0 0 x
0 0 0 y = 0.
0 0 −1 z
A única equação não trivial é z = 0, logo V1 = h(1, 0, 0), (0, 1, 0)i. Enfim, para
calcular V0 = Ker f , temos que resolver Av = 0, obtendo x = y = 0. Logo V0 =
h(0, 0, 1)i. ♦
Dada uma matriz A ∈ M (n; K), consideremos a função χA : K → K definida
por:
χA (λ) := det(A − λIn ).
Vamos mostrar que se trata de um polinômio de grau n. Se A = [aij ], temos que:
X
χA (λ) = (−1)σ (aσ(1)1 − λδσ(1)1 ) · · · (aσ(n)n − λδσ(n)n ).
σ∈Sn
Cada termo (aσ(1)1 − λδσ(1)1 ) · · · (aσ(n)n − λδσ(n)n ) da soma, se não for nulo, é um
produto de n polinômios de grau 1 ou 0 em λ, logo é um polinômio de grau menor
122 3. ÁLGEBRA DAS MATRIZES
Já observamos que χA (λ) é um polinômio de grau n, cujo coeficiente de grau máximo
é (−1)n . Logo:
χA (λ) = (−1)n λn + (−1)n−1 αn−1 λn−1 + · · · − α1 λ + α0 .
Para calcular α0 , para cada permutação σ na soma (70) temos que considerar o
produto aσ(1)1 · · · aσ(n)n , ignorando os termos que contêm λ. Afinal obtemos:
X
α0 = (−1)σ aσ(1)1 · · · aσ(n)n = det(A).
σ∈Sn
• Tr é linear;
• Tr(AB) = Tr(BA).
Demonstração. Sejam A = [aij ], B = [bij ] e λ, µ ∈ K. Então
X n
Tr(λA + µB) = Tr[λaij + µbij ] = (λaii + µbii )
i=1
n
X n
X
=λ aii + µ bii = λTr(A) + µTr(B).
i=1 i=1
Em
Pn relação ao segundo
Pn item, sejam AB = [cij ] e BA = [dij ]. Por definição cij =
k=1 aik bkj e dij = k=1 bik akj . Temos:
n
X n X
X n n X
X n n
X
Tr(AB) = cii = aik bki = bki aik = dkk = Tr(BA).
i=1 i=1 k=1 k=1 i=1 k=1
Para calcular todos os coeficientes αi , vamos precisar da seguinte notação.
Notação 3.6.29. Seja A ∈ M (n; K) e seja 1 ≤ i1 < · · · < ik ≤ n. Denotamos
por A(i1 ···ik ) a submatriz de A de ordem n − k obtida tirando as linhas e as colunas
de ı́ndice i1 , . . . , ik . ♦
Por exemplo:
1 1 0 −1 1 1 0 −1
2 −1 0 0 2 −1 0 0
A=
1 −1 3
A(13) =
1 −1 3
.
3 3
1 −3 −3 4 1 −3 −3 4
As sub-matrizes desta forma são as cujas entradas ocupam posições simétricas em
relação à diagonal.
Lema 3.6.30. Seja A ∈ M (n; K) e seja χA (λ) = (−1)n λn + (−1)n−1 αn−1 λn−1 +
· · · − α1 λ + α0 . Para k ≥ 1 temos que:
X
(71) αk = det A(i1 ···ik ) .
1≤i1 <···<ik ≤n
O termo σ∈Sn−k (−1)σ i6=i1 ,...,ik aσ(i)i é precisamente o determinante da matriz que
P Q
Denotamos por R≥0 o conjunto que contém os números reais positivos e 0. Fica
definida a função norma euclidiana k · k : Rn → R≥0 , que agora vamos estudar.
Lema 4.1.2. A norma euclidiana k · k : Rn → R≥0 satisfaz as seguintes proprie-
dades fundamentais, para todos v, w ∈ Rn e λ ∈ R:
(N1) kvk = 0 se, e somente se, v = 0;
(N2) kλvk = |λ| · kvk;
(N3) kv + wk ≤ kvk + kwk (desigualdade triangular).
Demonstração. (N1) É claro que kvk = 0 se, e somente se, v12 + · · · + vn2 = 0.
se, v1 = · · · = vn = 0, ou p
Isso ocorre se, e somentep seja, v = 0. (N2) Pela fórmula
(72) temos que kλvk = (λv1 )2 + · · · + (λvn )2 = λ2 (v12 + · · · + vn2 ) = |λ| · kvk.
(N3) Mostraremos a prova em seguida (fórmula (82)).
As propriedades (N1)–(N3) não caracterizam a norma euclidiana, ou seja, há
infinitas outras funções de Rn a R≥0 , diferentes da (72), que as satisfazem. Veremos
alguns exemplos neste capı́tulo e, mais aprofundadamente, no capı́tulo 8. Ademais,
127
128 4. PRODUTO INTERNO E ORIENTAÇÃO
De fato, d(v, w) = k(v − u) + (u − w)k ≥ kv − uk − ku − wk = |d(v, u) − d(u, w)|.
Isso pode também ser provado a partir da desigualdade triangular da distância, pois
d(v, u) ≤ d(v, w) + d(w, u), portanto d(v, w) ≥ d(v, u) − d(u, w). Analogamente
d(w, v) ≥ d(w, u) − d(u, v), portanto obtemos a tese.
Como fizemos para a norma, podemos generalizar a noção de distância pedindo
que valham as propriedades (D1)–(D3) do lema 4.1.12. Observamos que as três
propriedades são formuladas sem usar a soma e o produto externo, portanto não é
necessário que o conjunto subjacente seja um espaço vetorial.
Definição 4.1.13. Seja X um conjunto. Uma função d : X × X → R≥0 é dita
distância se satisfaz as propriedades (D1)–(D3) do lema 4.1.12. Um par (X, d),
sendo X um conjunto e d uma distância em X, é dito espaço métrico. ♦
Qualquer espaço vetorial real normado (V, k · k) se torna um espaço métrico
(V, d), graças à distância induzida pela norma. Agora podemos formular duas per-
guntas naturais:
(1) Toda distância em um espaço vetorial real é induzida por uma norma?
(2) Se uma distância for induzida por uma norma, esta é única? Equivalen-
temente, duas normas distintas no mesmo espaço vetorial real V induzem
duas distâncias distintas?
Vamos mostrar que a primeira resposta é negativa e a segunda positiva. Comecemos
pela segunda. A distância induzida d, por definição, foi construı́da a partir da norma,
mas pode-se também reconstruir a norma a partir dessa distância. De fato, conforme
a definição 4.1.11, temos que kvk = d(v, 0), portanto a função k · k é completamente
determinada pela função d. Isso implica que duas normas distintas induzem duas
distâncias distintas, como querı́amos demonstrar. Em particular, fica claro que a
distância euclidiana é somente um caso particular de distância em Rn . Em relação à
primeira pergunta, para V 6= {0} a resposta é negativa. De fato, se uma distância d
for induzida por uma norma, acabamos de ver que, necessariamente, kvk = d(v, 0).
Por isso, dada d, definimos kvk := d(v, 0) e verificamos se se trata de uma norma. O
leitor poderá verificar, resolvendo os exercı́cios da seção 4.1.1 (v. ex. 4.3 e 4.4), que
em geral isso não vale. Aliás, há infinitas distâncias em V que não são induzidas
por uma norma. Se trata de um assunto muito interessante do ponto de vista da
topologia geral, mas, como não envolve a estrutura de espaço vetorial, não faz sentido
aprofundá-lo em um curso de álgebra linear.
4.1.1. Exercı́cios.
4.1. Seja R[x] o espaço dos polinômios em uma variável real com a norma do exemplo
4.1.6. Calcule a distância entre p(x) = x4 + x3 − 4x + 3 e q(x) = x4 + x3 − x − 1.
4.2. Seja R4 dotado da norma (145) para k = 3. Calcule a distância entre v = (1, 0, 1, 1)
e w = (2, −1, 0, 2).
4.3. Seja (V, k · k) um espaço vetorial real normado. Seja d0 : V × V → R≥0 definida
da seguinte maneira:
• se {v, w} for independente, então d0 (v, w) := kvk + kwk;
• d0 (λv, µv) := |λ − µ| · kvk.
4.2. PRODUTO INTERNO 131
No vol. I afirmamos também que, para confirmar de ter encontrado uma boa
definição de ângulo, devemos verificar que, se um vetor u estiver incluso entre v e w,
então o ângulo de v a w tem que coincidir com a soma entre o ângulo de v a u e o
de u a w. Demonstraremos isso quando teremos introduzido a noção de orientação
(corolário 4.6.27).
(85) hv 1 , v 2 i = v T1 A v 2 .
Isso demonstra que todo produto interno em Rn é da forma (85), sendo A ∈ GL(n; R)
uma matriz simétrica definida positiva. ♦
Observação 4.2.21. A matriz ν(A) pode ser definida através da fórmula (83)
para qualquer famı́lia A = {a1 , . . . , an } ⊂ V , mesmo se não for uma base de V . Neste
caso não será uma matriz definida positiva (nem invertı́vel em geral), mas continua
sendo simétrica. Ademais, se não pedirmos que A seja uma base, o número de
elementos de A pode também ser diferente de n = dim V . ♦
4.2. PRODUTO INTERNO 137
4.3. Ortogonalidade
Na seção precedente definimos a noção de ângulo entre dois vetores, o qual
fica determinado a menos de sinal. Isso nos permite definir a noção de ortogonali-
dade. Queremos que dois vetores sejam ortogonais quando o ângulo entre eles é ± π2 .
Contudo, o ângulo está definido somente quando ambos os vetores são não nulos,
enquanto preferimos dar a seguinte definição de ortogonalidade, que vale para todo
par de vetores.
Definição 4.3.1. Dois vetores v 1 , v 2 ∈ V são ortogonais ou perpendiculares se
hv 1 , v 2 i = 0. Usamos a notação v 1 ⊥ v 2 . ♦
Observações 4.3.2. Observamos o seguinte.
4.3. ORTOGONALIDADE 139
Por isso também hai , ah i = 0. Enfim, como, pela fórmula (170), ai ∈ ha1 , . . . , ai−1 , v i i,
pela terceira hipótese de indução temos que ai ∈ hv 1 , . . . , v i−1 , v i i, logo, aplicando
novamente a terceira hipótese, temos que ha1 , . . . , ai i ⊂ hv 1 , . . . , v i i. Explicitando v i
em (170) vemos que v i ∈ ha1 , . . . , ai i, logo, aplicando a hipótese de indução, temos
que hv 1 , . . . , v i i ⊂ ha1 , . . . , ai i.
Podemos também aplicar o método de Grahm-Schmidt da seguinte maneira equi-
valente, normalizando todos os vetores no final.
2O terceiro item, ou seja, ha1 , . . . , ai i = hv 1 , . . . , v i i, só é necessário para demonstrar indutiva-
mente o primeiro, ou seja, a0i 6= 0.
142 4. PRODUTO INTERNO E ORIENTAÇÃO
Observamos que, como conjunto, O(n) ⊂ GL(n; R), sendo o produto em O(n) a
restrição do em GL(n; R). Por isso, O(n) é dito subgrupo de GL(n; R). Temos
também a inclusão de conjuntos O(n) ⊂ M (n), porém O(n) não é um subespaço
vetorial de M (n), pois a soma de matrizes ortogonais em geral não é ortogonal (pode
nem ser invertı́vel).
4.3.3. Produtos internos e bases ortonormais. Já vimos que todo espaço
vetorial euclidiano (finitamente gerado e diferente de {0}) admite uma base ortonor-
mal: é suficiente escolher uma base qualquer e aplicar o método de Grahm-Schmidt.
Também é claro que, se dim V ≥ 2, existem infinitas bases ortonormais, pois, fi-
xando uma e mudando de base através de uma matriz ortogonal, se obtém outra
base ortonormal. Reciprocamente, dados um espaço vetorial real V e uma base A
de V , existe um único produto interno em V que torna A ortonormal, como mostra
o seguinte lema.
Lema 4.3.23. Sejam V um espaço vetorial real e A = {a1 , . . . , an } uma base
de V . Existe um único produto interno em V que torna A ortonormal, definido da
seguinte maneira. Sejam v = λi ai e w = µj aj . Temos:4
(99) hv, wi = λ1 µ1 + · · · + λn µn .
Demonstração. Sejam h · , · i : V × V → R uma função bilinear e aij :=
hai , aj i. Se v = λi ai e w = µj aj , por bilinearidade temos que hv, wi = λi µj aij .
Como A tem que ser uma base ortonormal, necessariamente aij = δij , portanto
hv, wi = λi µi . Isso demonstra que, se existir um produto interno tal que A é orto-
normal, então é definido por (99). Só falta provar que a função h · , · i : V × V → R,
definida por (99), é efetivamente um produto interno. Sejam v 0 = ξ i ai e α, β ∈ R.
Temos:
(99)
hαv + βv 0 , wi = h(αλi + βξ i )ai , µj aj i = (αλi + βξ i )µi
(99)
= α(λi µi ) + β(ξ i µi ) = αhv, wi + βhv 0 , wi.
A mesma demostração vale do outo lado, portanto (99) é bilinear. É imediato
verificar que é simétrica e definida positiva.
Observamos no começo desta seção que, em geral, para um produto interno
fixado em V existem infintas bases ortonormais, enquanto, fixada uma base A de V ,
existe um único produto interno que torna A ortonormal. Isso implica que várias
bases de A podem determinar o mesmo produto escalar. Podemos exprimir o mesmo
conceito da seguinte maneira equivalente. Fixado um espaço vetorial V , sejam B
conjunto das bases de V e M o conjunto dos produtos escalares de V . Fica definida
a função
(100) Φ: B → M
que associa à base A o único produto que torna A ortonormal. Essa função é sobre-
jetora, pois todo produto admite pelo menos uma base ortonormal, mas não injetora,
4A seguinte fórmula é equivalente à (96).
4.3. ORTOGONALIDADE 145
pois duas bases distintas podem ser ortonormais a respeito do mesmo produto. Po-
demos tornar Φ uma bijeção quocientando o domı́nio B por uma adequada relação
de equivalência, graças ao seguinte lema.
Lema 4.3.24. Seja V um espaço vetorial real e sejam A e B duas bases ordenadas
de V . Seja h · , · i o produto escalar que torna A ortonormal e seja hh · , · ii o que
torna B ortonormal. Os dois produtos coincidem se, e somente se, µ(A, B) ∈ O(n).
Demonstração. Como A é ortonormal a respeito de h · , · i, pelo lema 4.3.19
temos que B é ortonormal a respeito do mesmo h · , · i se, e somente se, µ(A, B) ∈
O(n). O fato que B seja ortonormal a respeito de h · , · i equivale ao fato que hh · , · ii =
h · , · i.
Para poder calcular a matriz de mudança de base, as duas bases correspondentes
têm que ser ordenadas. Contudo, o fato que uma base seja ortonormal não depende
da ordem, logo, o fato que µ(A, B) seja uma matriz ortogonal não depende da ma-
neira em que ordenamos A e B. Por isso, podemos considerar A, B ∈ B equivalentes
se, e somente se, ordenando A e B de qualquer maneira temos que µ(A, B) ∈ O(n).
Usamos a notação
(101) A ∼O B.
Por causa do lema 4.3.24, temos que Φ(A) = Φ(B), sendo Φ a função (100), se, e
somente se, A e B são equivalentes. Por isso, obtemos a seguinte bijeção:
'
Φ : B/ ∼O −→ M
(102)
[A] 7→ Φ(A).
Equivalentemente, temos as seguintes bijeções, inversas entre si:
Φ
Bases & Produtos
(103) ∼O f .
de V internos de V
−1
Φ
−1
A bijeção Φ é a função (102) e a inversa Φ associa a cada produto escalar de V o
conjunto das bases ortonormais correspondentes, o qual é uma classe de equivalência
a respeito de ∼O .
4.21. Seja W = h(0, 1, 0, −2, 0), (1, 0, 0, 0, 1)i ⊂ R5 . Calcule o complemento ortogonal
de W a respeito do produto interno canônico de R5 .
4.22. Para cada um dos produtos internos em R3 considerados no exercı́cio 4.20, calcule
uma base do complemento ortogonal da reta h(2, −1, 3)i.
4.23. Para cada um dos produtos internos em R3 considerados no exercı́cio 4.20, calcule
a projeção ortogonal do vetor v = (1, 1, 1) no plano W = h(1, 0, 1), (0, −1, 2)i, usando os
dois métodos descritos na observação 4.3.35.
4.24. Seja V = (1, 1, 0, 1)⊥ em R4 com o produto interno representado em relação à
base canônica por:
1 1 0 0
−1 1 0 0
A= 0
.
0 2 1
0 0 1 3
Seja W = h(1, 1, −2, 0)i ⊂ V . Calcule uma base de W ⊥V .
4.25. Seja R3 dotado do produto interno que torna a base A = {(1, 0, 1), (1, −1, 1), (0, −2, 2)}
ortonormal. Usando a matriz de mudança de base, estabeleça quais entre as seguintes ba-
ses são ortonormais:
• B1 = {(1,
√−2, 3), √ −3,
(2, 4), (1,1 −3,3)};
1
• B2 = 2, − 2 , 2 , 0, − √2 , 0 , (0, 2, −2) ;
√
√
• B3 = √23 , − 3, √43 , 0, − √12 , 0 , (0, −2, 2) .
(4) existe uma base ortonormal A de V tal que f (A) é uma famı́lia ortonormal
de W ;
(5) f é representada a respeito de uma base ortonormal de V e de uma base
ortonormal de W por uma matriz A tal que AT A = Idim V .
Demonstração. (1) ⇔ (2). Segue imediatamente das fórmulas (78) e (79).
(1) ⇒ (3) Temos que hf (ai ), f (aj )i = hai , aj i = δij , portanto f (A) é uma famı́lia or-
tonormal. (3) ⇒ (4) Óbvio. (4) ⇒ (1). Seja A = {a1 , . . . , an } uma base ortonormal
de V que verifica a hipótese e sejam v 1 , v 2 ∈ V , v 1 = λi ai e v 2 = µj aj . Obviamente
isso implica que f (v 1 ) = λi f (ai ) e f (v 2 ) = µj f (aj ). Pela fórmula (96) temos que
hv 1 , v 2 i = hλ, µi. Por hipótese f (A) = {f (a1 ), . . . , f (an )} é também ortonormal,
logo, aplicando novamente a fórmula (96), temos que hf (v 1 ), f (v 2 )i = hλ, µi. Isso
demonstra que hf (v 1 ), f (v 2 )i = hv 1 , v 2 i. (1) ⇔ (5). Sejam A uma base ortonormal
de V , B uma base ortonormal de W e A = µAB (f ). Dados v 1 = λi ai e v 2 = µj aj
em V , pela fórmula (96) temos que hv 1 , v 2 i = λT µ. Analogamente, pelas fórmulas
(18) e (96), temos que hf (v 1 ), f (v 2 )i = (Aλ)T (Aµ) = λT AT Aµ. Portanto f é orto-
gonal se, e somente se, λT AT Aµ = λT µ para todos λ, µ ∈ Rdim V , o que equivale a
AT A = Idim V .
Corolário 4.4.4. Seja f : V → W uma função linear, sendo dim V = dim W .
A função f é ortogonal se, e somente se, é representada a respeito de uma base
ortonormal de V e de uma base ortonormal de W por uma matriz ortogonal.
Demonstração. (⇐) Se a matriz representativa A for ortogonal, em particular
T
A A = In , sendo n = dim V , portanto podemos aplicar o item (4) ⇒ (1) do lema
4.4.3. (⇒) Pelo item (1) ⇒ (4) do lema 4.4.3, sabemos que AT A = In . Por isso
(det A)2 = 1, logo det A 6= 0, portanto A é invertı́vel. Multiplicando à direita ambos
os lados de AT A = In por A−1 , obtemos que AT = A−1 (isso implica obviamente
que também AAT = In ).
Observação 4.4.5. A equivalência (1) ⇔ (5) no lema 4.4.3 é bem clara para
f : Rn → Rm , f (v) = Av. De fato, temos que f é ortogonal se, e somente se:
hAv 1 , Av 2 i = hv 1 , v 2 i ∀v 1 , v 2 ∈ Rn
v T1 AT Av 2 = v T1 v 2 ∀v 1 , v 2 ∈ Rn
AT A = In .
Dessa maneira, para n = m, fica mais fácil lembrar a relação entre matrizes ortogo-
nais e morfismos ortogonais. ♦
Observação 4.4.6. Pela observação 4.3.18, o determinante de uma matriz or-
togonal é ±1. Isso é coerente com o fato que mande uma base ortonormal em uma
base ortonormal. De fato, o módulo do determinante de uma matriz A representa o
hiper-volume do paralelepı́pedo formado pela imagem da base canônica através do
homomorfismo v 7→ Av. Como o volume do paralelepı́pedo formado por uma base
ortonormal é 1, o módulo do determinante de uma transformação ortogonal tem que
ser igual a 1. ♦
4.4. FUNÇÕES LINEARES ORTOGONAIS 151
Sabemos que dois espaços vetoriais reais da mesma dimensão são isomorfos.
Equivalentemente, todo espaço vetorial real de dimensão n é isomorfo a Rn . Vale
um resultado análogo para os espaços vetoriais euclidianos.
Lema 4.4.7. Dados dois espaços vetoriais euclidianos da mesma dimensão V
e W , existe um isomorfismo ortogonal f : V → W . Equivalentemente, todo espaço
vetorial euclidiano de dimensão n é ortogonalmente isomorfo a Rn dotado do produto
interno canônico.
Demonstração. É suficiente fixar uma base ortonormal A de V e uma base
ortonormal B de W e considerar o único isomorfismo tal que f (A) = B. Pelo item
(4) do lema 4.4.3, f é ortogonal.
4.4.1. Grupo ortogonal. Sejam f : V → W e g : W → Z transformações
ortogonais. É fácil verificar que g ◦ f : V → Z é também ortogonal. De fato, dados
v1, v2 ∈ V :
hg ◦ f (v 1 ), g ◦ f (v 2 )i = hg(f (v 1 )), g(f (v 2 ))i = hf (v 1 ), f (v 2 )i = hv 1 , v 2 i.
Em particular, se V = W = Z, a composição fica bem definida dentro do conjunto
das transformações ortogonais de V a V . Analogamente, se f : V → W for ortogonal,
é fácil verificar que f −1 : W → V o é também. De fato, dados w1 , w2 ∈ W :
hf −1 (w1 ), f −1 (w2 )i = hf (f −1 (w1 )), f (f −1 (w2 ))i = hw1 , w2 i.
Em particular, se V = W , a inversão fica bem definida dentro do conjunto das
transformações ortogonais de V a V . Enfim, é claro que a identidade de V a V é
ortogonal.
Notação 4.4.8. Seja V um espaço vetorial euclidiano. Denotamos por O(V ) o
conjunto das transformações ortogonais de V a V . ♦
Pelas observações precedentes, o conjunto O(V ), dotado da operação de com-
posição, é um grupo. Se denotarmos por GL(V ) o conjunto das transformações
invertı́veis de V em V , temos que O(V ) é um subgrupo de GL(V ). Fixando uma
base ortonormal de V , a matriz representativa µA determina uma bijeção entre O(V )
e O(n), tal que µA (g ◦ f ) = µA (g) · µA (f ). Por isso µA é dito isomorfismo de gru-
pos. O mesmo vale entre GL(V ) e GL(n; R). Afinal, obtemos o seguinte diagrama
comutativo de grupos:
µA
(105) O(V ) / O(n)
_ ' _
µA
GL(V ) / GL(n; R).
'
f (v)
u0
1
v − f (v) e u0 = 1
Consideremos os vetores u = 2 2
v + f (v) . Temos que:
hu, u0 i = 14 hv, vi − 41 hf (v), f (v)i = 0,
portanto u⊥u0 e, por construção, u 6= 0. Isso implica que Ru (u0 ) = u0 , portanto,
como v = u0 + u e f (v) = u0 − u, temos que:
(ru ◦ f )(v) = ru (f (v)) = ru (u0 − u) = u0 + u = v.
Por isso, ru ◦ f fixa v. A partir disso é fácil mostrar que ru ◦ f manda o hiperplano
v ⊥ em si mesmo. De fato, se hw, vi = 0, então:
h(ru ◦ f )(w), vi = h(ru ◦ f )(w), (ru ◦ f )(v)i = hw, vi = 0.
Logo fica bem definida a função ortogonal ru ◦ f |v⊥ : v ⊥ → v ⊥ . Como dim(v ⊥ ) =
n − 1, pela hipótese de indução temos que
(106) ru ◦ f |v⊥ = rvk−1 ◦ · · · ◦ rv1 ,
sendo k ≤ n. As reflexões rvi , extensas a V todo, fixam v (dado que v i ∈ v ⊥ ).
Também ru ◦ f fixa v, portanto a identidade (106) vale também tirando a restrição
a v ⊥ , ou seja, ru ◦ f = rvk−1 ◦ · · · ◦ rv1 , logo f = ru ◦ rvk−1 ◦ · · · ◦ rv1 .
No capı́tulo 7 mostraremos uma versão bem mais refinada do teorema 4.4.17,
que mostrará em detalhe a estrutura geométrica de uma transformação ortogonal.
4.4.4. Exercı́cios.
4.26. Determine todas as transformações ortogonais de R2 a R2 com o produto interno
canônico.
4.27. Construa um automorfismo ortogonal f : R3 → R3 , com o produto interno
canônico, tal que f (1, 0, 1) = (0, 1, 1).
4.4. FUNÇÕES LINEARES ORTOGONAIS 155
4.28. Seja A ∈ GL(n; R) uma matriz simétrica definida positiva. Seja OA (n) ⊂
GL(n; R) o subgrupo formado pelas matrizes C tais que a função linear v 7→ Cv é or-
togonal a respeito do produto interno hv, wi := v T Aw em Rn .
(1) Verifique que OA (n) é efetivamente um subgrupo de GL(n; R).
(2) Se A = In , temos que OIn (n) = O(n), logo C ∈ OIn (n) se, e somente se,
C T C = In . Ache uma fórmula que caracteriza as matrizes pertencentes a OA (n)
para A genérica (simétrica e definida positiva).
(3) Demonstre que OA (n) ' O(n) para toda A, achando um isomorfismo explı́cito.
(4) Em geral, sejam V um espaço vetorial euclidiano e A uma base de V , não ne-
cessariamente ortonormal. Sejam A = ν(A), f : V → V e C = µA (f ). Verifique
que f é ortogonal se, e somente se, C ∈ OA (n).
4.29. Seja V um espaço vetorial euclidiano e seja B0 o conjunto das bases ordenadas de
V . Seja ‘∼ν ’ a relação de equivalência em B0 tal que A ∼ν B se, e somente se, ν(A) = ν(B).
Verifique que as seguintes condições são equivalentes:
(1) A ∼ν B, sendo ν(A) = ν(B) = A;
(2) µ(A, B) ∈ OA (n);
(3) existem duas bases ortonormais O e O0 tais que µ(O, A) = µ(O0 , B).
Observamos que a relação ‘∼ν ’ pode ser aplicada a famı́lias ordenadas quaisquer, mesmo
que não sejam bases; neste caso os itens precedentes não são equivalentes.
Observação: Seja V um espaço vetorial real e seja B0 o conjunto das bases ordenadas
de V . Podemos definir a relação (101). Escolhendo uma classe de equivalência, obtemos
um produto interno em V , portanto podemos definir também a relação ∼ν considerada
no exercı́cio 4.29.
B0 / ∼O B0 / ∼ν
As bases na classe selecionada (azul) são representadas pela matriz idêntica. Em geral,
em cada classe de ∼ν (amarela) temos que ν(A) = A, sendo A fixada. Do ponto de vista
passivo, A ∼ν B se, e somente se, µ(A, B) ∈ OA (n); isso equivale à relação A = C T AC,
sendo C := µ(A, B). Do ponto de vista ativo, o isomorfismo que manda A em B é ortogonal
se, e somente se, µA (f ) ∈ OA (n). Em particular, para A = In , obtemos o lema 4.3.19 e
o corolário 4.4.4; neste caso podemos ignorar a ordem dos elementos de uma base, dado
que mudar a ordem equivale a mudar de base através de uma matriz ortogonal, portamos
ficamos na mesma classe de equivalência. Em geral a ordem é significativa. ♦
4.30. Generalize o lema 4.4.3 da seguinte maneira. Sejam V e W espaços vetoriais
euclidianos e seja f : V → W uma função linear. Os seguintes fatos são equivalentes:
(1) f é ortogonal;
(2) f respeita as normas;
(3) se A ⊂ V for uma famı́lia ordenada não vazia, então ν(A) = ν(f (A));
(4) existe uma base ordenada A de V tal que ν(A) = ν(f (A));
(5) f é representada a respeito de uma base ordenada A de V e de uma base ordenada
B de W por uma matriz C tal que C T · ν(B) · C = ν(A).
156 4. PRODUTO INTERNO E ORIENTAÇÃO
4.31. Seja R2 dotado do produto interno h(x1 , y1 ), (x2 , y2 )i = 2x1 x2 +y1 y2 +x1 y2 +x2 y1 .
(1) Construa uma função ortogonal f : R2 → R2 tal que f (1, 0) = √210 , √210 .
µA
µA
End(V ) / M (n; R) End(V ) / M (n; R).
' '
1
2
(A− AT ) ∈ A(n; R). A cisão correspondente de End(V ) segue da comutatividade
do diagrama (108) ou de uma demonstração análoga. ♦
4.5.2. Reflexões. Uma reflexão é também uma transformação simétrica. De
fato, dados um espaço vetorial euclidiano V , um sub-espaço vetorial W ⊂ V e dois
vetores v 1 = w1 + w01 e v 2 = w2 + w02 , sendo w1 , w2 ∈ W e w01 , w02 ∈ W ⊥ , temos que:
hrW (v 1 ), v 2 i = hw1 − w01 , w2 + w02 i = hw1 , w2 i + hw01 , w02 i
= hw1 + w01 , w2 − w02 i = hv 1 , rW (v 2 )i.
O teorema 4.4.17 afirma que O(V ), como grupo, é gerado pelas reflexões em relação
a hiperplanos. O seguinte teorema mostra que S(V ), como espaço vetorial real, é
também gerado pelas reflexões em relação a hiperplanos.
Teorema 4.5.11. Seja V um espaço vetorial euclidiano de dimensão n. O
espaço vetorial S(V ) admite uma base formada por n reflexões em relação a hi-
perplanos.
Demonstração. Chamamos de Eij a matriz cuja entrada (i, j) é 1 e cujas
outras entradas são todas nulas. Obviamente {Eij }1≤i,j≤n é uma base de M (n; R).
Consideremos o sub-espaço vetorial S(n; R). Uma base desse subespaço é a famı́lia
A = {D1 , . . . , Dn } ∪ {Sij }1≤i<j≤n formada pelas seguintes matrizes:
• D1 = E11 , . . ., Dn = Enn , que são diagonais;
• Sij = Eij + Eji para i < j.
Em total temos 21 n(n + 1) elementos da base. Por exemplo:
1 0 ··· 0 0 1 ··· 0
0 0 · · · 0 1 0 · · · 0
D1 = . .
.. .. .
.. S12 = . .
.. .. ..
.
0 0 ··· 0 0 0 ··· 0
Vamos mostrar que também a famı́lia B = {In , D10 , . . . , Dn−1
0
∪ {Sij0 }1≤i<j≤n , for-
}
mada pelas seguintes matrizes, é uma base de S(n; R):
0
• In = D1 + · · · + Dn , D10 := −D1 + D2 + · · · + Dn , . . ., Dn−1 := D1 + · · · −
Dn−1 + Dn ;P
• Sij0 = Sij + k6=i,j Dk para i < j.
Por exemplo:
−1 0 0 · · · 0 0 1 0 ··· 0
0 1 0 · · · 0 1 0 0 · · · 0
0 0 0 1 · · · 0 0 0 0 1 · · · 0 .
D1 = . . . S12 =
.. .. .. .. . . .
.. .. .. ..
. .
0 0 0 ··· 1 0 0 0 ··· 1
Estas matrizes representam reflexões em relação a hiperplanos de Rn . De fato, Di0
representa a reflexão em relação ao hiperplano e⊥ 0
i e Sij representa a reflexão em
relação ao hiperplano (ei − ej )⊥ . O número de elementos de B é 21 n(n + 1), portanto
é suficiente mostrar que B gera S(n; R) para concluir que é uma base. Para verificar
160 4. PRODUTO INTERNO E ORIENTAÇÃO
isso, vamos mostrar que todo elemento da base A é combinação linear de B. Temos
que:
• Di = 21 (In − Di0 ) para 1 ≤ i ≤ n − 1:
• Dn = In − D1 − · · · − Dn−1 = In − 21 n−1 0
P
k=1 (In − Dk );
• Sij = Sij0 − k6=i,j Dk = Sij0 − 2 k6=i,j (In − Dk0 ).
1
P P
Destacamos que há uma diferença importante entre os teoremas 4.4.17 e 4.5.11.
De fato, no caso de S(V ), sendo dim V = n, conseguimos achar 21 n(n + 1) reflexões
fixadas que formam uma base de S(V ), enquanto, no caso de O(V ), para cada
função f fixada conseguimos achar k reflexões que a geram, sendo k ≤ n, mas essas
reflexões dependem de f .
4.5.3. Exercı́cios.
4.39. Seja f : R2 → R2 , (x, y) 7→ (2x, x), sendo o domı́nio dotado do produto interno
h(x1 , y1 ), (x2 , y2 )i = 2x1 x2 +y1 y2 +x1 y2 +x2 y1 e sendo o contra-domı́nio dotado do produto
interno h(x1 , y1 ), (x2 , y2 )i = 2x1 x2 + y1 y2 − x1 y2 − x2 y1 . Calcule a adjunta f ∗ .
4.40. Seja A ∈ GL(n; R) uma matriz simétrica definida positiva. Seja SA (n) ⊂
M (n; R) o subespaço vetorial formado pelas matrizes C tais que a função linear v 7→ Cv
é simétrica a respeito do produto interno hv, wi := v T Aw em Rn .
(1) Verifique que SA (n) é efetivamente um subespaço vetorial de M (n; R).
(2) Se A = In , temos que SIn (n) = S(n), logo C ∈ SIn (n) se, e somente se, C = C T .
Ache uma fórmula que caracteriza as matrizes pertentes a SA (n) para A genérica
(simétrica e definida positiva).
(3) Demonstre que SA (n) ' S(n) para toda A, achando um isomorfismo explı́cito.
(4) Generalize o lema 4.5.6 da seguinte maneira. Sejam V um espaço vetorial eucli-
diano e A uma base de V , não necessariamente ortonormal. Sejam A = ν(A),
f : V → V e C = µA (f ). Verifique que f é simétrica se, e somente se, C ∈ SA (n).
Demonstre os enunciados análogos em relação às funções antissimétricas.
4.6. ORIENTAÇÃO E ROTAÇÕES 161
orientação, podemos mostrar uma base ordenada A que declaramos ser positiva-
mente orientada; fica subentendido que a classe escolhida é a que contém A.
4.6.2. Orientação e ângulos. Uma orientação em um plano euclidiano per-
mite fixar o ângulo entre um par ordenado de vetores não nulos, conforme a seguinte
definição.
Definição 4.6.3. Sejam V um espaço vetorial euclidiano orientado de dimensão
2 e A = {v, w} uma base ordenada de V . Se A for positivamente orientada, estabe-
lecemos que o ângulo de v a w está incluso entre 0 e π, em caso contrário entre π e
2π (equivalentemente, entre −π e 0). ♦
Observação 4.6.4. Segue imediatamente da definição 4.6.3 que, se o ângulo de
v a w for θ, então o ângulo de w a v é −θ. ♦
Intuitivamente, fixar uma orientação em um plano equivale a fixar um sentido
para as rotações. Para formalizar esta noção deverı́amos mostrar como orientar o
grupo das rotações de V (o qual ainda tem que ser definido), mas isso vai além
dos objetivos deste curso. Em todo caso, a ideia intuitiva é suficiente. Na seguinte
figura, orientar positivamente a base {v, w} equivale a escolher o sentido azul de
rotação e vice-versa. O ângulo θ é fixado de modo que 0 < θ < π.
w w
θ θ
v v
2π − θ 2π − θ
µA
GL(V ) / GL(n; R).
'
(111) SO(V ) r
µA
/ SO(n) t
Ll Ll
'
z % µA
y &
,
O(V ) r GL+ (V ) '
O(n) r µA
+
2 k (n; R)
GL
Ll ' K
$ y % x
GL(V )
µA
/ GL(n; R).
'
O corolário 4.6.27 foi enunciado orientando V , mas a tese vale para cada uma das
duas orientações, portanto é uma propriedade intrı́nseca. O leitor poderá achar uma
formulação deste resultado, que não se refere explicitamente à noção de orientação,
no exercı́cio 4.48 da próxima seção.
4.6.9. Exercı́cios.
4.41. Seja V = W ⊕ W 0 . Suponhamos que os espaços V , W e W 0 sejam orientados de
modo que a orientação de cada um dos três seja induzida pelas dos dois demais (v. ob-
servação 4.6.7). Sejam A = {w1 , . . . , wk } uma base ordenada de W e A0 = {wk+1 , . . . , wn }
uma base ordenada de W 0 . Consideremos as três bases ordenadas A, A0 e A t A0 , respeti-
vamente de W , W 0 e V . Demonstre que uma destas bases é positivamente orientada se, e
somente se, as duas demais são ambas positivamente orientadas ou ambas negativamente
orientadas.
4.42. Seja V ⊂ R3 o plano passante pela origem ortogonal ao vetor (1, 1, −1). Ori-
entamos o plano de modo que {(1, 1, −1)} seja uma base positivamente orientada de V ⊥ .
Encontre o ângulo de (1, 0, 1) a (0, 1, 1) em V .
4.43. Seja V ⊂ Rn o plano x − y + 3z = 0 e escolhamos a orientação tal que o vetor
normal (1, −1, 3) é positivamente orientado. Ache uma base positivamente orientada de
V.
4.44. Sejam W = h(1, 0, 1)i e V = h(1, 0, 1), (1, 2, 2)i. Orientemos W de modo que
A = {(1, 0, 1)} seja positivamente orientada e V de modo que A0 = {(1, 0, 1), (1, 2, 2)} seja
positivamente orientada. Ache a orientação induza em W ⊥V .
4.45. Sejam W = h(0, 1, 1, 0)i e V ⊂ R4 o hiperplano y − z − 2w = 0. Orientando
W de modo que a base {(0, 1, 1, 0)} seja positivamente orientada e V de modo que o
vetor normal (0, 1, −1, −2) seja positivamente orientado, seja W ⊥V dotado da orientação
induzida. Calcule o ângulo entre de v = (1, −1, 1, −1) a w = (2, 0, 0, 0), sendo v, w ∈ W ⊥V .
4.46. Seja V ⊂ R4 o subespaço vetorial formado pelos vetores (x, y, z, w) tais que
x + y + 2w = 0
y − 2z + w = 0.
Orientamos V de modo que, considerando a orientação induzida no complemento ortogonal
V ⊥ , o ângulo de (1, 1, 0, 2) a (0, 1, −2, 1) e − π3 . Encontre uma base positivamente orientada
de V .
4.47. Consideremos o espaço R2 com a orientação canônica e o subespaço W =
h(1, 1, 1), (1, 0, 2)i ⊂ R3 com a orientação representada pela base A = {(1, 1, 1), (1, 0, 2)}.
Estabeleça se o isomorfismo f (x, y) = (x, x − y, x + y) respeita as orientações.
4.48. Sejam V um espaço vetorial real de dimensão 2 e {v, w} uma base de V . Seja
u ∈ V um vetor não nulo, que não seja múltiplo de v nem de w. Demonstre que as duas
seguintes condições são equivalentes:
(1) as bases ordenadas {v, u}, {u, w} e {v, w} representam a mesma orientação;
(2) u = λv + µw com λ, µ > 0.
Dizemos que u está incluso entre v e w se valerem as duas condições precedentes. Na
seguinte figura o vetor u1 está incluso entre v e w, o vetor u2 está incluso entre −v e w e
assim em diante.
170 4. PRODUTO INTERNO E ORIENTAÇÃO
w
u2 u1
u3 u4
Observação: Podemos utilizar o exercı́cio 4.48 para definir a noção de ângulo. De fato,
por enquanto usamos a expressão “o ângulo θ”, mas θ é a medida do ângulo (exatamente
como o comprimento de um segmento não é o segmento mesmo). Geometricamente, se
{v, w} for independente, seja U a região do plano formada pelos vetores incusos entre
v e w. Um ângulo entre os dois vetores é definido como a união entre U e as duas
semirretas geradas por v e w (topologicamente se trata do fecho de U ). O outro ângulo é
o complementar de U .
v v
θ w w
2π − θ
w w
v v
2π
4.7. HOMOTETIAS E TRANSFORMAÇÕES (ANTI)CONFORMES 171
v v
π
π
w w
Observamos que, nesta situação, não é possı́vel distinguir intrinsecamente as duas regiões,
e sim é necessário fixar uma orientação. ♦
4.49. Seja V um espaço vetorial euclidiano orientado de dimensão 2.
(1) Sejam v e w dois vetores unitários. Além disso, seja v ⊥ o único vetor unitário
tal que {v, v ⊥ } é uma base positivamente orientada de V e seja θ o ângulo de v
a w. Demonstre que w = cos θv + sin θv ⊥ .
(2) Demonstre o corolário 4.6.27 a partir do item precedente, sem fixar um isomor-
fismo de V a R2 .
4.50. Seja f : V → W um isomorfismo de espaços vetoriais reais.
(1) Demonstre que fica definido o seguinte isomorfismo de grupos:
f# : GL(V ) → GL(W )
ϕ 7→ f ◦ ϕ ◦ f −1 .
(2) Verifique que (f −1 )# = (f# )−1 e, se g : W → Z for outro isomorfismo, então
(g ◦ f )# = g# ◦ f# .
(3) Verifique se, se A for uma base ordenada de V , µA (ϕ) = µf (A) (f# (ϕ)).
(4) Demonstre que f# se restringe ao isomorfismo f# : GL+ (V ) → GL+ (W ).
(5) Demonstre que, se V e W forem euclidianos e f for ortogonal, então f# se
restringe aos isomorfismos f# : O(V ) → O(W ) e f# : SO(V ) → SO(W ).
É claro que, se f não for injetora, a definição precedente nem faz sentido, pois o
denominador kf (v 1 )k · kf (v 2 )k pode anular-se. Geometricamente, se um vetor não
nulo pertencer ao kernel de f , então f não pode manter os ângulos, pois o ângulo
de um vetor nulo a outro vetor nem está definido.
Definição 4.7.2. Seja V um espaço vetorial real. Uma função linear f : V → V
é dita homotetia se for um múltiplo positivo da identidade, ou seja, existe ρ > 0 tal
que f (v) = ρv para todo v ∈ V . Se ρ > 1 a homotetia f é dita também dilatação,
se ρ < 1 é dita também contração. ♦
Fixando qualquer produto interno em V , uma homotetia diferente da identidade
não é uma transformação ortogonal, pois a norma de um vetor fica multiplicada por
ρ. Contudo, o ângulo entre dos vetores fica preservado. Agora podemos caracterizar
todas as transformações que preservam os ângulos, graças ao seguinte lema.
Lema 4.7.3. Sejam V e W espaços vetoriais euclidianos. Uma função linear
injetora f : V → W preserva os ângulos se, e somente se, for a composição entre
uma homotetia (em V ou em W indiferentemente) e uma transformação ortogonal.
Equivalentemente, existem uma função ortogonal g : V → W e um número ρ > 0
tais que f (v) = ρg(v) para todo v ∈ V .
Demonstração. (⇐) Temos que:
hf (v 1 ), f (v 2 )i hρg(v 1 ), ρg(v 2 )i hg(v 1 ), g(v 2 )i hv 1 , v 2 i
= = = .
kf (v 1 )k · kf (v 2 )k kρg(v 1 )k · kρg(v 2 )k kg(v 1 )k · kg(v 2 )k kv 1 k · kv 2 k
(⇒) Seja A = {a1 , . . . , an } uma base ortonormal de V . Como f preserva os ângulos,
hf (a1 ), f (aj )i = 0 para i 6= j, portanto f (A) é uma base ortogonal de f (V ). Sejam
f (a )
bi := kf (ai )k e ρi := kai k. A base B = {b1 , . . . , bn } de f (V ) é ortonormal e f (ai ) =
i
ρi bi . A menos de multiplicar bi por −1 (o que mantém B ortonormal), podemos
supor que ρi > 0. Para todos i e j distintos, temos que hai + aj , ai − aj i = 0, logo,
dado que f preserva os ângulos, hρi bi + ρj bj , ρi bi − ρj bj i = 0, ou seja, ρ2i − ρ2j = 0,
logo ρi = ρj . Seja ρ = ρi (para qualquer i) e seja g : V → W a função ortogonal tal
que g(A) = B. Temos que f (v) = ρg(v) para todo v ∈ V .
Observação 4.7.4. No lema 4.7.3, a linearidade de f é uma hipótese necessária,
isto é, não pode ser deduzida a partir do fato que f mantenha os ângulos. Por
exemplo, consideremos a função f : V → V , v 7→ kvk · v. É fácil verificar que f
mantém os ângulos, porém não é linear. ♦
Enfim, a seguinte definição considera ao mesmo tempo o comportamento de uma
função linear em relação aos ângulos e em relação à orientação.
4.7. HOMOTETIAS E TRANSFORMAÇÕES (ANTI)CONFORMES 173
É claro que toda função linear e toda função anti-linear são R-lineares, mas uma
função pode ser R-linear sem ser linear nem anti-linear.
175
176 5. ESPAÇOS VETORIAIS COMPLEXOS
Agora é claro que Hom0 (V, W ) é um espaço vetorial complexo, pois coincide com
o espaço das funções lineares entre dois espaços vetoriais complexos. Contudo, temos
que prestar atenção ao seguinte fato. Os conjuntos Hom(V, W ) e Hom(V , W ) coinci-
dem. Também a soma é a mesma nos dois casos. Todavia, o produto externo muda,
pois, por definição, devemos aplicar pontualmente o produto externo do contra-
domı́nio, o qual é W no primeiro caso e W no segundo. Por isso, se f ∈ Hom(V, W ),
temos que (λf )(v) = λ ◦ f (v) = λ̄ · f (v), enquanto, se f ∈ Hom(V , W ), temos que
(λf )(v) = λ · f (v).
Notação 5.1.5. Definimos Hom0 (V, W ) := Hom(V, W ) e Hom00 (V, W ) := Hom
(V , W ). ♦
Como conjuntos e como grupos abelianos Hom0 (V, W ) = Hom00 (V, W ), mas,
como espaços vetoriais complexos, Hom00 (V, W ) = Hom0 (V, W ) e vice-versa.1
Vamos completar esta seção acrescentando algumas propriedades relevantes da
operação de conjugação entre espaços vetoriais complexos.
Lema 5.1.6. Uma base A = {a1 , . . . , an } de V é também uma base de V e
vice-versa.
Demonstração. Seja v ∈ V . Temos também que v ∈ V , portanto, usando
a notação da definição 5.1.3 para o produto externo, existem λ1 , . . . , λn ∈ C tais
que v = λi · ai = λ̄i ◦ ai , logo A gera V . Ademais, seja λi ◦ ai = 0. Isso equivale
a λ̄i · ai = 0, portanto λ̄i = 0 para todo i, logo λi = 0. Isso demonstra que A é
independente em V , logo é uma base. Pode-se provar da mesma maneira que, se A
for uma base de V , então é uma base de V .
Corolário 5.1.7. Uma base A de V determina o isomorfismo (não canônico)
'
ΦA : V −→ V , ai 7→ ai .
Observamos que o isomorfismo mostrado no corolário 5.1.7, apesar de fixar os
elementos da base A, não é a identidade como função entre conjuntos, pois λi · ai 7→
λi ◦ ai = λ̄i · ai . Por exemplo, se V = Cn e A for a base canônica, obtemos a
'
conjugação conj : Cn −→ Cn , z 7→ z̄. Enfim, o seguinte lema mostra que conjugando
duas vezes obtemos o espaço vetorial de partida.
O leitor pode verificar que C e C̃ são efetivamente bijetoras e C-lineares (v. exercı́cio
5.5 da seção 5.1.4). Dado que toda função linear de Cn a Cm é da forma z 7→ Az,
por causa dos isomorfismos (113) temos que toda função anti-linear é da forma
z 7→ Az̄, portanto Hom(Cn , Cm ) e Hom0 (Cn , Cm ) são ambos isomorfos a M (m, n; C),
como já tı́nhamos antecipado na seção 5.1. Isso esclarece a estrutura do espaço
Hom0 (Cn , Cm ). Uma consideração análoga vale para Hom00 (Cn , Cm ).
Os isomorfismos Hom(Cn , Cm ) ' Hom0 (Cn , Cm ) ' M (m, n; C) podem ser gene-
ralizados a espaços vetoriais quaisquer, mas de modo não canônico, graças ao lema
5.1.6 (equivalentemente, graças ao corolário 5.1.7).
Notação 5.1.9. Sejam A uma base de V e B uma base de W . Seja f : V → W
anti-linear. Sendo B uma base de W pelo lema 5.1.6 e sendo f : V → W linear
pelo lema 5.1.4, fica definida a matriz representativa de f a respeito de A e B, que
denotamos por µ0AB (f ). ♦
Explicitamente, fixemos uma base A = {a1 , . . . , an } de V e uma base B =
{b1 , . . . , bm } de W . Dada uma função linear f : V → W , seja µAB = [γij ], isto é,
f (ai ) = γ ji bj . Isso implica que f (λi ai ) = µj bj = λi γ ji bj , logo µj = γ ji λi , ou seja:
µ1 λ1
... = µAB (f ) ... .
µm λn
Analogamente, dada uma função anti-linear g : V → W , seja µ0AB = [ij ], isto é,
g(ai ) = j i ◦ bj = ¯ji bj . Isso implica que g(λi ai ) = µi ◦ bi = µ̄i bi , sendo:
µ1 λ1
.. = µAB (g) ... .
. 0
µm λn
' '
Obtemos os isomorfismos µAB : Hom(V, W ) −→ M (n, m; C) e µ0AB : Hom0 (V, W ) −→
M (n, m; C), portanto obtemos também o isomorfismo µ0AB −1 ◦ µAB : Hom(V, W ) →
Hom0 (V, W ), o qual, obviamente, depende das bases A e B. Podemos descrever este
'
isomorfismo de modo mais explı́cito. Seja ΦB : W −→ W o isomorfismo descrito no
'
corolário 5.1.4. A composição com ΦB induz o isomorfismo ΦB ◦ : Hom(V, W ) −→
Hom0 (V, W ), f 7→ ΦB ◦ f . Esse isomorfismo é precisamente µ0AB −1 ◦ µAB , ou seja, o
5.1. FUNÇÕES LINEARES E ANTI-LINEARES 179
µAB µ0AB
' v
M (n, m; C).
Com isso podemos entender a estrutura do espaço Hom0 (V, W ): fixando uma base A
de V e uma base B de W , toda função anti-linear se obtém a partir de uma linear,
conjugando os escalares no contra-domı́nio. Mais precisamente, à função linear
f : V → W , tal que f (λi ai ) = µj bj , fica associada a função anti-linear f 0 : V → W ,
tal que f (λi ai ) = µj ◦ bj = µ̄j bj . Quando V = Cn , W = Cm e A e B forem as bases
canônicas, o isomorfismo ΦB ◦ coincide com o isomorfismo C de (113). Resolvendo
o exercı́cio 5.8 da seção 5.1.4, o leitor verá como generalizar o isomorfismo C̃.
5.8. Dadas uma base A de V e uma base B de W , demonstre que a função ◦Φ−1
A : Hom(V,
W ) → Hom00 (V, W ), f 7→ f ◦ Φ−1
A , é um isomorfismo de espaços vetoriais complexos, o
qual torna comutativo o seguinte diagrama:
◦Φ−1
(115) Hom(V, W )
A
/ Hom00 (V, W )
µAB µ00
' v AB
M (n, m; C),
sendo µ00AB (f ) a matriz representativa da função anti-linear f : V → W , pensada como
função linear f : V → W .
5.9. Verifique que, se V = Cn , W = Cm e A e B forem as bases canônicas, então o
isomorfismo ◦Φ−1A do diagrama (115) coincide com o isomorfismo C̃ de (113).
5.10. Sejam A = {(1, i), (1, −i)} e B = {(1, 0), (i, 1)}. Seja f : C2 → C2 , (z, w) 7→
(3z − 2iw, −iz). Claramente f ∈ Hom(C2 , C2 ). Calcule a imagem de f em Hom0 (C2 , C2 )
através do isomorfismo ΦB ◦ do diagrama (114) e a imagem de f em Hom00 (C2 , C2 ) através
do isomorfismo ◦Φ−1 A do diagrama (115).
A= .. ..
. .
xn1 + iyn1 · · · xnm + iynm
uma matriz complexa. A realificação de A, que denotamos por AR , é a matriz
definida da seguinte maneira:
x11 −y11 ··· x1m −y1m
y11 x11 ··· y1m x1m
. .. .. ..
(121) ..
AR := . . .
.
x −y
n1 n1 ··· xnm −ynm
yn1 xn1 ··· ynm xnm ♦
A= .. ..
. .
xn1 + iyn1 · · · xnm + iynm
5.2. REALIFICAÇÃO E ESTRUTURA COMPLEXA 187
(127) ιV1 V2 : Hom(V1 , V2 )R ,→ Hom((V1 )R , (V2 )R ) ι0V1 V2 : Hom0 (V1 , V2 )R ,→ Hom((V1 )R , (V2 )R ).
(µ0AB )R
Hom(V1 , V2 )R
(µAB )R
/ M (m, n; C)R Hom0 (V1 , V2 )R / M (m, n; C)R
(128)
_ _ _ _
ιV1 V2 ι ι0V V ι0
1 2
µA B µA B
Hom((V1 )R , (V2 )R )
R R
/ M (2m, 2n; R). Hom((V1 )R , (V2 )R )
R R
/ M (2m, 2n; R).
5.13. Determine todas as estruturas complexas de R2 . Para cada uma delas, encontre
um isomorfismo ϕ : (R2 )J → C.
5.14. Sejam
1 −2 0 0 −3 −5 −6 4
1 −1 0 0 2 3 4 −2
J1 = J2 = .
0 −1 0 1 0 0 1 −1
1 −1 −1 0 0 0 2 −1
(1) Verifique que o endomorfismo v 7→ Ji v é uma estrutura complexa de R4 para
todo i ∈ {1, 2}.
(2) Para todo i ∈ {1, 2}, o espaço vetorial (R4 )Ji é complexo de dimensão 2, portanto
é isomorfo a C2 . Encontre um isomorfismo explı́cito ϕ : (R4 )Ji → C2 .
(3) Verifique que as funções f1 : C2 → (R4 )J1 , (x + iy, z + iw) 7→ (x + z − y − w, x +
z, x + z, x + z − y − w), e f2 : C2 → (R4 )J2 , (x + iy, z + iw) 7→ (x − 3y + z −
8w, 2y + z + 5w, 0, 0), são C-lineares.
5.15. Seja W um espaço vetorial real de dimensão par diferente de {0}. Demonstre
que existem infinitas estruturas complexas em W .
5.16. Seja S o espaço vetorial real formado pelas sequências (ai )i∈N , sendo ai ∈ R, e seja
S0 o espaço vetorial complexo formado pelas sequências (ai )i∈N , sendo ai ∈ C. Considere o
endomorfismo J : S → S definido por (a1 , a2 , a3 , a4 , . . .) 7→ (−a2 , a1 , −a4 , a3 , . . .). Demons-
tre que J é uma estrutura complexa em S e ache um isomorfismo explı́cito ϕ : SJ → S 0 .
5.17. Seja W um espaço vetorial real de dimensão par e diferente de {0}. Demonstre
que é possı́vel achar duas estruturas complexas J e J 0 em W que induzem orientações
opostas.
5.18. Dada uma famı́lia A = {a1 , . . . , ak } em um espaço vetorial complexo V , a anti-
realificação de A é a realificação de A como famı́lia em V , isto é, A0R := {a1 , −ia1 , . . . , ak ,
−iak }. Dadas uma base A e uma famı́lia B em V , demonstre que µ(A0R , BR ) = (µ(A, B))0R .
5.19. Demonstre o lema 5.2.28 e o relativo corolário.
5.20. Seja conj : Cn → Cn a conjugação.
• Aplicando o isomorfismo (118), verifique que a função ξ ◦ conj ◦ ξ −1 : R2n → R2n é
representada, em relação às bases canônicas, pela matriz C = (In )0R , isto é, pela
anti-realificação da matriz idêntica.
• Verifique que A0R = CAR para toda matriz A ∈ M (m, n; C);
• Sejam V um espaço vetorial complexo e A uma base de V . Seja ΦA : V → V
o isomorfismo descrito no corolário 5.1.7. Descreva explicitamente a realificação
(ΦA )R ;
• Demonstre que µ(AR , A0R ) = C. Isso generaliza o primeiro item do exercı́cio 5.20.
5.21. Utilizando os enunciados do exercı́cio 5.20, podemos completar o diagrama (128)
da seguinte maneira.
• Verifique que o seguinte diagrama comuta:
(ΦB ◦)R
Hom(V1 , V2 )R / Hom0 (V1 , V2 )R
_ _
ιV1 V2 ι0V
1 V2
(ΦB )R ◦
Hom((V1 )R , (V2 )R ) / Hom((V1 )R , (V2 )R ).
190 5. ESPAÇOS VETORIAIS COMPLEXOS
M (m, n;
id / M (m, n; C)R
C)R
_ _
ι ι0
M (2m, 2n; R)
C· / M (2m, 2n; R).
Sejam V1 e V2 espaços vetoriais complexos e sejam J0,V1 e J0,V2 as estruturas complexas in-
duzidas em (V1 )R e (V2 )R . Mesmo que possa parecer inatural, o espaço Hom((V1 )R , (V2 )R )
(equivalentemente, HomR (V1 , V2 )) possui uma estrutura complexa natural induzida por
J0,V2 , conforme o item precedente. Denotamos por HomC ((V1 )R , (V2 )R ) este espaço.
• Demonstre que Hom(V1 , V2 )R e Hom00 (V1 , V2 )R são subespaços vetoriais comple-
xos de HomC ((V1 )R , (V2 )R ), enquanto Hom0 (V1 , V2 )R é um subespaço vetorial
complexo de HomC ((V1 )R , (V2 )R ).
• Considerando os espaços do item precedente, construa os diagramas análogos aos
(128), mas formados por espaços vetoriais complexos.
Só falta provar que A0 é independente. Seja z k (ak , 0) = (0, 0), sendo z k ∈ C. Seja
z k = xk + iy k , sendo xk , y k ∈ R. Então 0 = (xk + iy k )(ak , 0) = (xk ak , y h ah ), por-
tanto xk ak = 0 e y h ah = 0. Sendo A uma base temos que x1 = · · · = xn = 0 e
y1 = · · · = yn = 0, logo z1 = · · · = zn = 0.
Seja fix(σ0 ) o conjunto dos pontos fixos de σ0 . É fácil verificar que fix(σ0 ) contém
os vetores da forma (w, 0), ou seja, os elementos da imagem do mergulho (135). Por
isso se trata de um subespaço real de WC , naturalmente isomorfo a W , através do
isomorfismo (135). Vamos generalizar tudo isso a qualquer espaço vetorial complexo.
Definição 5.3.4. Seja V um espaço vetorial complexo. Uma estrutura real em
V é uma involução anti-linear, ou seja, uma função anti-linear σ : V → V tal que
σ 2 = id. Usamos a seguinte notação:
fix(σ) := {v ∈ V : σ(v) = v}. ♦
O fato que se trate de um isomorfismo segue do fato que todo vetor de V pode ser
escrito da seguinte forma:
(137) v = 21 (v + σ(v)) + i 2i1 (v − σ(v))
sendo 12 (v + σ(v)), 2i1 (v − σ(v)) ∈ fix(σ). Por isso, está bem definido o morfismo
inverso:
ϕ−1 (v) = 12 (v + σ(v)), 2i1 (v − σ(v)) .
As duas funções Φ : W 7→ (WC , σ0 ) e Ψ : (V, σ) 7→ fix(σ) são duas bijeções que, neste
caso, não são precisamente inversas entre si, mas o são a menos de isomorfismo
canônico. Em particular, isso significa o seguinte.
• Ψ ◦ Φ(W ) é canonicamente isomorfo a W , dado que temos o isomorfismo
canônico ι : W → fix(σ0 ), w 7→ (w, 0).
• Φ ◦ Ψ(V, σ) é canonicamente isomorfo a (V, σ) no seguinte sentido. Temos
que Φ◦Ψ(V, σ) = (fix(σ)C , σ0 ) e temos o isomorfismo canônico ϕ : fix(σ)C →
V , definido por (136), que comuta com as estruturas reais, ou seja, ϕ ◦ σ0 =
σ ◦ ϕ. Equivalentemente, o seguinte diagrama comuta:
σ0
fix(σ)C / fix(σ)C
ϕ ϕ
V
σ / V.
De fato, ϕ(σ0 (v, w)) = ϕ(v, −w) = v − iw = σ(v) − iσ(w) = σ(v + iw) =
σ(ϕ(v, w)). Por isso podemos afirmar que os pares (fix(σ)C , σ0 ) e (V, σ) são
canonicamente isomorfos.
A correspondência (138) se estende também às funções lineares. Partindo de dois
espaços reais W1 e W2 , uma função linear f : W1 → W2 se estende naturalmente à
função fC : (W1 )C → (W2 )C definida por (w, z) 7→ (f (w), f (z)). Usando a notação
da observação 5.3.3, isso significa que f (w + iz) = f (w) + if (z), portanto fica claro
5.3. COMPLEXIFICAÇÃO E ESTRUTURA REAL 195
(R2n )C ' C2n . Contudo, isso é devido ao fato que Cn ' RnC ; neste caso, pelo lema
5.3.10, ((WC )R )C ' (W ⊕ W )C ' WC ⊕ WC , mas isso não vale para um espaço V
genérico. Contudo, é possı́vel recuperar a informação sobre a estrutura complexa
de V em (VR )C . Para isso, temos que considerar a estrutura complexa J0 em VR
e estendê-la a (VR )C por C-linearidade. Quando introduziremos a noção de auto-
espaço, veremos que o auto-espaço de (J0 )C relativo a i é isomorfo a V , através do
isomorfismo v 7→ v − iJ0 (v).
5.3.6. Exercı́cios.
5.26. (1) Verifique que a seguinte função σ : C → C é uma estrutura real:
σ(z) := iz̄.
(2) Como a dimensão de C é 1, o espaço vetorial fix(σ) é real de dimensão 1, portanto é
isomorfo a R. Ache um isomorfismo explı́cito ϕ : fix(σ) → R.
5.27. Determine explicitamente todas as estruturas reais de C. Para cada uma delas,
ache um isomorfismo explı́cito ϕ : fix(σ) → R.
5.28. Sejam
σ1 : C2 → C2 σ2 : C2 → C2
(z, w) 7→ (z̄ − 2iw̄, w̄) (z, w) 7→ (w̄, z̄).
(1) Verifique que σi é uma estrutura real de C2 para todo i ∈ {1, 2}.
(2) Para todo i ∈ {1, 2}, o espaço vetorial fix(σ) é real de dimensão 2, portanto é
isomorfo a R2 . Encontre um isomorfismo explı́cito ϕi : fix(σi ) → R2 .
(3) Verifique que as funções f1 : C2 → C2 , (z, w) 7→ (z − 2w + iz, w − z − iw) e
f2 : C2 → C2 , (z, w) 7→ (z + iw, w − iz) são a extensão C-linear de uma função
R-linear gi : fix(σi ) → fix(σi ).
5.29. Seja V um espaço vetorial complexo diferente de {0}. Demonstre que existem
infinitas estruturas reais em V .
5.30. Seja V um espaço vetorial complexo.
• Demonstre que, se σ : V → V for uma estrutura real, então σ : V → V é também
uma estrutura real.
• Como fix(σ) é o mesmo nos dois casos, existe um isomorfismo canônico ϕσ : V →
V que comuta com as estruturas reais. Ache ϕσ .
5.31. Seja V um espaço vetorial complexo. Sejam σ1 e σ2 duas estruturas reais em V .
Demonstre que, se fix(σ1 ) = fix(σ2 ), então σ1 = σ2 .
5.32. (1) Seja V um espaço vetorial complexo. Demonstre as seguintes afirmações.
• O isomorfismo ΦA , descrito no corolário 5.1.7, é uma estrutura real de V .
5.3. COMPLEXIFICAÇÃO E ESTRUTURA REAL 199
• Se σ : V → V for uma estrutura real e A for uma base de fix(σ) (logo também de
V ), então, como função entre conjuntos, σ = ΦA . Em particular, uma estrutura
real σ em V é equivalente ao isomorfismo complexo ΦA : V → V tal que Φ2A =
idV .
• Sejam A e B duas bases de V . Os seguintes fatos são equivalentes:
(i) hhAii = hhBii, usando a notação do exercı́cio 5.24;
(ii) µ(A, B) é uma matriz real;
(iii) ΦA = ΦB .
5.33. Seja V = C 0 (R; C) o espaço vetorial complexo formado pelas funções contı́nuas
de R a C. Considere o endomorfismo σ : VR → VR , (σ(f ))(x) := f (x). Demonstre que σ
é uma estrutura real em V tal que fix(σ) ' C 0 (R) canonicamente, sendo C 0 (R) o espaço
vetorial real das funções contı́nuas de R a R.
5.34. Seja f : W1 → W2 uma função R-linear e seja fC : (W1 )C → (W2 )C a sua extensão
C-linear natural. Demonstre que Ker(fC ) ' (Kerf )C e Im(fC ) ' (Imf )C canonicamente.
5.35. Sejam V1 e V2 espaços vetoriais complexos com estrutura real respetivamente
σ1 e σ2 . Demonstre que σ1 e σ2 induzem uma estrutura real σ em Hom(V1 , V2 ) tal que
fix(σ) = Hom(fix(σ1 ), fix(σ2 ).
CAPı́TULO 6
Produto hermitiano
Demonstração - Método I. (1) É claro que kvk = 0 se, e somente se, |v1 |2 +
· · · + |vn |2 = 0. Isso ocorre se,pe somente se, v1 = · · · =p
vn = 0, ou seja, v = 0. (2)
Pela fórmula (143), kλvk = |λv1 | + · · · + |λvn | = |λ2 |(|v1 |2 + · · · + |vn |2 ) =
2 2
Exemplo 6.1.7. No espaço C[x], formado pelos polinômios complexos em uma variável,
a seguinte função é uma norma:
p
kan xn + · · · + a0 k := |an |2 + · · · + |a0 |2 .
A demonstração das propriedades (N1)–(N3) é análoga à relativa à norma euclidiana de
Cn , mesmo se C[x] não é finitamente gerado. ♦
Exemplo 6.1.8. No espaço M (n, m; C), formado pelas matrizes complexas de n linhas
e m colunas, a seguinte função é uma norma:
v
u n X
m
uX
[aij ]
:= t |aij |2 .
i=1 j=1
A fórmula (74) continua a valer no caso complexo e pode ser demonstrada como
no caso real ou aplicando (144).
O fato que (146) seja injetora segue imediatamente do fato que a norma, como
função entre conjuntos, é a mesma nos dois casos. Agora é natural pensar que se
trate também de uma função sobrejetora, mas infelizmente isso não vale. O problema
está na propriedade (N2), como o leitor verificará resolvendo o exercı́cio 6.5 da seção
6.1.4. Isso significa que, ao nı́vel das normas, não há uma simetria completa entre
o caso real e o caso complexo. Podemos tentar achar uma motivação de fundo
para esta falta de simetria da seguinte maneira. Uma norma, apesar de precisar
da estrutura linear para ser definida, não é uma função linear (contrariamente ao
produto interno, que é linear nas duas entradas). Por isso, a compatibilidade com
a norma não consegue apreender uma informação suficiente do ponto de vista da
linearidade, como o leitor já verificou resolvendo os exercı́cios 4.33 e 4.35 da seção
4.4.4. Neste caso, o fato que kJ(w)k = kwk, unido à propriedade (N2) para todo
λ ∈ R, não garante que valha (N2) para todo λ ∈ C.
6.1.3. Confronto entre o caso real e o caso complexo – Parte II. Seja
(W, k · k) um espaço vetorial real normado. Podemos estender naturalmente a norma
à complexificação de W da seguinte maneira (v. exercı́cio 6.6 da seção 6.1.4):
k · kC : WC → R≥0
(147) p
k(v, w)kC := kvk2 + kwk2 .
Ademais, seja σ0 a estrutura real induzida em WC . Temos que kσ0 (v, w)kC =
k(v, −w)kC = k(v, w)kC . Em geral, damos a seguinte definição.
Definição 6.1.12. Seja (V, k · k) um espaço vetorial complexo normado. Uma
estrutura real σ em V é dita compatı́vel com a norma se kσ(v)k = kvk para todo
v ∈ V . Equivalentemente, a norma é dita compatı́vel com a estrutura real. ♦
Obtemos a seguinte função injetora:
Espaços vetoriais (W, k · k) 7→ Espaços vetoriais complexos
/
(148) reais normados com estrutura .
(WC , k · kC , σ0 )
normados real compatı́vel
Também neste caso não se trata de uma função sobrejetora, como o leitor verificará
resolvendo o exercı́cio 6.8 da próxima seção.
6.1.4. Exercı́cios.
6.1. Calcule a distância euclidiana entre (i, 0, 1) e (1, 2 − i, 1 − i) em C3 .
6.2. Calcule a distância entre (i, 0, 1) e (1, 2 − i, 1 − i) (os mesmos do exercı́cio prece-
dente) em C3 , sendo a distância induzida pela norma kvk∞ := max{|v1 |, |v2 |, |v3 |}.
6.3. Calcule a distância entre os polinômios p(x) = 2ix3 −x+(1+i) e q(x) = ix3 +x2 +1
em C[x] com a norma do exemplo 6.1.7.
6.2. PRODUTO HERMITIANO 205
6.4. Encontre uma norma em R2 não compatı́vel com a estrutura complexa canônica.
6.5. Verifique que as normas k · kk , para k 6= 2, e k · k∞ em R2n são compatı́veis com a
estrutura complexa canônica, mas não induzem uma norma no espaço complexo (R2n )J ,
isomorfo a Cn através de (118).
6.6. Verifique que (147) é efetivamente uma norma.
6.7. (1) Demonstre que toda norma em C é compatı́vel com a conjugação. (2) Encontre
uma norma em C2 não compatı́vel com a conjugação.
6.8. Verifique que as normas k · kk , para k 6= 2, e k · k∞ em Cn são compatı́veis com a
conjugação, mas, para n ≥ 2, não são induzidas pela restrição a Rn através de (147).
6.9. Dado um espaço vetorial complexo normado V , considere a distância d0 definida
analogamente à do exercı́cio 4.3 da seção 4.1.1. Demonstre que d0 não é induzida por
nenhuma norma.
6.10. Dado um espaço vetorial complexo normado V , considere a distância d definida
analogamente à do exercı́cio 4.4 da seção 4.1.1. Demonstre que d não é induzida por
nenhuma norma.
Por isso:
1 i
(152) hv, wi = 2
kv + wk2 − kvk2 − kwk2 − 2
kv + iwk2 − kvk2 − kwk2 .
A fórmula (152) mostra que o produto hermitiano pode ser escrito somente em
função da norma, portanto dois produtos hermitianos distintos induzem normas
distintas, como querı́amos demonstrar. Ademais, obtemos um critério para verificar
se uma norma é induzida por um produto hermitiano. De fato, se o for, o produto
coincide com (152), portanto, fixada uma norma, consideramos a função (152) e
verificamos se satisfaz as três propriedades fundamentais. Se a resposta for negativa,
a norma não pode ser induzida por nenhum produto hermitiano. Resolvendo os
exercı́cios, o leitor verificará que as normas do exemplo 6.1.10, exceto o caso k = 2,
não são induzidas por um produto hermitiano. Isso mostra que a resposta à primeira
pergunta deste parágrafo é negativa.
6.2.2. Confronto entre produto interno e produto hermitiano – Parte
I. Vamos analisar o produto hermitiano canônico do ponto de vista real. Vamos
denotar por h · , · i o produto hermitiano canônico em Cn e por hh · , · ii o produto
interno canônico em Rm . Consideremos dois vetores v, w ∈ Cn . Sejam v = x + iy
e w = x0 + iy 0 , sendo x, y, x0 , y 0 ∈ Rn . Temos que v R = (x1 , y1 , . . . , xn , yn ) e wR =
(x01 , y10 , . . . , x0n , yn0 ), logo:
hhv R , wR ii = x1 x01 + y1 y10 + · · · + xn x0n + yn yn0 = hhx, x0 ii + hhy, y 0 ii
hhJ v R , wR ii = −y1 x01 + x1 y10 − · · · − yn x0n + xn yn0 = hhx, y 0 ii − hhx0 , yii.
Portanto, temos:
hv, wi = hx + iy, x0 + iy 0 i = (hhx, x0 ii + hhy, y 0 ii) + i(hhx, y 0 ii − hhx0 , yii)
(153)
= hhv R , wR ii + ihhJ v R , wR ii.
Por isso, o produto hermitiano contém em si o produto escalar entre v R e wR e
o produto escalar entre (iv)R e wR ao mesmo tempo. Pelo lema 6.1.5 temos que
hhv R , J wR ii = −hhJ v R , wR ii e hhJ v R , J wR ii = hhv R , wR ii, portanto obtemos todas as
6.2. PRODUTO HERMITIANO 209
J induz canonicamente uma orientação, representada pela base ordenada {v, Jv}.
Por isso, o ângulo η fica completamente determinado, sendo η 0 = π2 − η na figura.
w w
iv iv
0
ψ η π(w)
v η v
θ00 iv θ00 iv
θ0
ψ
θ π(w)
v v
plano correspondente. Seja λ ∈ R tal que w = π(w) + λu. Devemos verificar que
λ > 0 (ou seja, que w pertence ao mesmo semi-espaço que contém w). Isso segue
imediatamente do fato que A = {v, Jv, w} e B 0 = {v, Jv, u} representam a mesma
orientação, sendo det(µ(A, B 0 )) = λ.
Os cossenos diretores de w em relação à base ortonormal B são precisamente
cos θ, cos θ0 e cos θ00 , logo, usando a identidade (97), cos2 θ00 = 1 − cos2 θ − cos2 θ0 ,
portanto, aplicando (161), temos cos2 ψ = sin2 θ00 = 1 − cos2 θ00 = cos2 θ + cos2 θ0 .
Pela fórmula (154) temos:
|hv, wi|
cos ψ = .
kvkkwk
hv,wi
Só falta verificar o argumento. Seja kvkkwk
= cos ψeix . Pela fórmula (154):
hv, π(w)i
= cos η + i sin η = eiη .
kvk · kπ(w)k
Ademais hv, wi = hv, π(w) + λui = hv, π(w)i e kπ(w)k = kwk cos ψ, portanto:
Observação 6.2.23. Pela fórmula (160), temos que ψ = π2 se, e somente se,
hv, wi = 0. Isso é coerente com a fórmula (154). De fato, ψ = π2 equivale ao fato
que w seja ortogonal ao plano hviR , portanto, em (154), cos θ = cos θ0 = 0, logo
hv, wi = 0. ♦
214 6. PRODUTO HERMITIANO
continua sendo hermitiana. Ademais, se não pedirmos que A seja uma base, o
número de elementos de A pode também ser diferente de n = dim V . ♦
Vamos agora verificar como muda a matriz representativa de um produto hermi-
tiano mudando a base correspondente. Sejam A = {a1 , . . . , an } e B = {b1 , . . . , bn }
duas bases ordenadas de V . Sejam A = ν(A) = [αij ], B = ν(B) = [βij ] e
C = µ(A, B) = [γij ]. Temos que:
βij = hbi , bj i = hγ ki ak , γ hj ah i = γ̄ ki γ hj hak , ah i = (γ † )i k αkh γ hj
portanto
(166) B = C † AC.
Definição 6.2.30. Duas matrizes hermitianas A, B ∈ H(n; C) são ditas her-
mitianamente congruentes se existe uma matriz invertı́vel C ∈ GL(n; C) tal que
B = C † AC. ♦
O leitor pode verificar que a congruência hermitiana de matrizes é uma relação
de equivalência (v. exercı́cio 6.11 da seção 6.2.5). Observamos que a relação (166)
faz sentido também se C não é invertı́vel, mas neste caso A e B não são consideradas
congruentes (nem se trataria de uma relação de equivalência). Contudo, se A e B
representarem um produto hermitiano, então é automático que C seja invertı́vel.
De fato, A e B são invertı́veis (v. observação 6.2.27) e det B = det A · |det C|2 , logo
det C 6= 0. Enfim, as observações 4.2.23 (substituindo C T C por C † C) e 4.2.24 valem
também em relação a um produto hermitiano.
6.2.5. Exercı́cios.
6.11. Adapte ao contexto complexo os enunciados dos exercı́cios 4.9, 4.10 e 4.15 da
seção 4.2.4 e demonstre que continuam sendo válidos.
6.12. Calcule a matriz representativa do produto hermitiano canônico em C3 a respeito
da base A = {(1, i, 1), (−1, i, 1 + i), (2, 0, 1)}. Calcule a matriz representativa a respeito
da base B = {(1 + i, −1 − i, −1), (2, 2i, 3 + i), (3 + 2i, i, 2 + i)} a partir da definição (163)
e aplicando a fórmula (166), verificando que se obtém o mesmo resultado.
6.13. Seja V = {(x, y, z, w) : x − iy + (2 − i)w = 0} ⊂ C4 . Ache a matriz representativa
do produto escalar canônico em V a respeito da base A = {(2, 1, 0, −1), (2i − 2, 1, i, 1), (i −
2, 0, 0, 1)}. Usando essa matriz, calcule o produto hermitiano h(3i − 2, 2, i, 1), (4 − i, i −
1, −i, −2 − i)i.
6.14. Seja A ∈ M (n; C) e seja AR ∈ M (2n; R) a realificação de A.
• Verifique que (A† )R = (AR )T .
• Verifique que A é (anti-)hermitiana se, e somente se, AR é (antis)simétrica.
6.15. Sejam V um espaço vetorial hermitiano e A uma base de V . Denotamos por
ν(A) e νR (AR ) as matrizes representativas respetivamente do produto hermitiano em V e
do produto interno correspondente em VR .
• Demonstre que νR (AR ) = (ν(A))R , coerentemente com o exercı́cio 6.14.
• Verifique que as fórmulas de mudança de base (166) e (86) são coerentes com o
item precedente.
6.3. ORTOGONALIDADE 217
6.3. Ortogonalidade
A definição de ortogonalidade no caso complexo é idêntica à real.
Definição 6.3.1. Dois vetores v, w ∈ V são ortogonais ou perpendiculares se
hv, wi = 0. Usamos a notação v ⊥ w. ♦
Quando queremos distinguir entre a ortogonalidade em V e a em VR usamos os
sı́mbolos ‘⊥C ’ e ‘⊥R ’.
Observação 6.3.2. Como no caso real (observação 4.3.2), 0 é o único vetor
ortogonal a todo vetor de V e é o único vetor ortogonal a si mesmo. Se v 6= 0 e
w 6= 0, o fato de serem ortogonais equivale ao fato que, na fórmula (154), θ = ± π2 e
θ0 = ± π2 . Isso significa que w é ortogonal a v, como vetor complexo, se, e somente
se, w é ortogonal ao plano real hhv, J(v)ii, como já afirmamos na observação 6.2.23.
Enfim, a partir da fórmula (152) obtemos que:
(167) v ⊥C w ⇔ kv + wk2 = kv + iwk2 = kvk2 + kwk2 .
Trata-se de uma dupla aplicação do teorema de Pitágoras e do seu inverso. ♦
6.3.1. Famı́lias ortogonais e ortonormais. As definições de famı́lia (ou base)
ortogonal e ortonormal coincidem com as correspondentes reais, substituindo o pro-
duto escalar pelo hermitiano. Também o lema 4.3.5 vale com a mesma demonstração.
Resolvendo o exercı́cio 6.16 da seção ??, o leitor demonstrará o seguinte lema.
Lema 6.3.3. A famı́lia A = {a1 , . . . , ak } ⊂ V é ortonormal (ortogonal) se, e
somente se, a famı́lia AR = {a1 , ia1 , . . . , ak , iak } ⊂ VR é ortonormal (ortogonal).
Na fórmula (89) temos que prestar atenção à ordem dos vetores no produto
hermitiano, para que as entradas do vetor não fiquem conjugadas.
Lema 6.3.4. Sejam v ∈ V e A = {a1 , . . . , an } uma base ortonormal de V . Então:
(168) v = ha1 , via1 + · · · + han , vian .
Podemos definir a projeção ortogonal de v na direção de w usando a formula
análoga à (92), mas escolhendo a ordem correta no produto hermitiano para que a
projeção seja linear e não anti-linear:
hw, vi
(169) πw (v) := w.
hw, wi
Vamos entender o significado geométrico de (169). Para distinguir entre a projeção
C-linear em V e a projeção R-linear em VR , usamos a notação πwC (v) e πwR (v). Pelas
fórmulas (169) e (153), temos que:
hhw, vii + ihhJ(w), vii hhw, vii hhJw, vii
πwC (v) = w= w+ Jw = πwR (v) + πJw
R
(v).
hhw, wii hhw, wii hhJw, Jwii
Logo, do ponto de vista real, a projeção (169) é a soma das projeções reais em w e
J(w). Como {w, J(w)} é uma base ortogonal do plano real que gera, isso significa
que a projeção complexa de v na direção de w é a projeção real de v no plano
hhw, Jwii.
218 6. PRODUTO HERMITIANO
iv
πvC (w)
v
−1
A bijeção Φ é a função (175) e a inversa Φ associa a cada produto hermitiano
de V o conjunto das bases ortonormais correspondentes, o qual é uma classe de
equivalência de ∼U .
(3) Ache a equação do plano complexo passante por (1, i, −1) e perpendicular ao
vetor (i, 0, 2 + i).
6.21. Demonstre o lema 6.3.7.
6.22. Calcule o complemento ortogonal do seguinte subespaço vetorial de C4 , dotado
do produto hermitiano canônico:
V = h(1 + i, 1, 1 − i, 1), (−i, −i, 0, −1)i.
6.23. Para cada um dos produtos hermitianos em C3 considerados no exercı́cio 6.20,
calcule uma base do complemento ortogonal da reta h(2, −i, i)i.
6.24. Encontre a projeção de (1, i, i − 1) na direção de (1, i, i) em C3 com o produto
hermitiano canônico.
6.25. Sejam W = {(x, y, z, w) : ix − z + (1 − i)w = 0, x + iw = 0} ⊂ C4 , dotado do
produto hermitiano canônico, e v = (1, 1 + i, 0, −1) ∈ V . Calcule a projeção de v em W .
6.26. Para cada um dos produtos hermitianos em C3 considerados no exercı́cio 6.20,
calcule a projeção ortogonal do vetor v = (1, i, 1) no plano W = h(1, 0, i), (0, −i, 2)i, usando
os dois métodos descritos na observação 4.3.35.
6.27. Seja V = (2, i, −i, 1)⊥ em C4 com o produto hermitiano representado em relação
à base canônica por:
1 0 0 1
0 2 i 0
A= 0 −i 1 0 .
1 0 0 2
Seja W = h(2, 0, i − 1, −1)i ⊂ V . Calcule uma base de W ⊥V .
6.28. Determine todas as matrizes unitárias de ordem 1 e 2 (ou seja, pertencentes
respetivamente a U(1) e U(2)).
6.29. Complete o exercı́cio 6.14, verificando que A é unitária se, e somente se, AR é
ortogonal. Observe que isso é coerente com os lemas 4.3.19 e 6.3.11.
6.30. Seja C3 dotado do produto hermitiano que torna a base A = {(1, 0, i), (1, −i, 1),
(0, 2 − i, 2 − i)} ortonormal. Usando a matriz de mudança de base, estabeleça quais entre
as seguintes bases são ortonormais:
√
• B1 = 1+i √ , √1 , i 2 , 1+i √ , − √i , 0 , (0, −2i − 1, −2i − 1) ;
2 2 2 2
• B2 = {(2, 2 − 2i, 3), (0, 2 − i, −
i),
2 (1, 2 − 2i,
3 − i)};
1 1+i 2+2i i i−1 2i−2
• B3 = (1, 0, i), 2 , 2 , 2 , 2 , 2 , 2 .
√ √ √ √ √ √
µA
GL(V ) / GL(n; C).
'
É fácil verificar que rW é uma função unitária, que coincide com a reflexão real
em relação a WR em VR . Pode-se verificar como no caso real que qualquer reflexão
complexa pode ser escrita como a composição de algumas reflexões em relação a
hiperplanos. Todavia, não vale a versão unitária do teorema 4.4.17. De fato, consi-
deremos por exemplo C com o produto hermitiano canônico. Os únicos subespaços
vetoriais são {0} e C todo, portanto as únicas reflexões complexas possı́veis são a
identidade e a sua oposta, mas U(1) é bem maior que {id, −id}, dado que qualquer
transformação do tipo z 7→ eiθ z, sendo θ ∈ R, é unitária. Estudaremos no próximo
capı́tulo, graças ao teorema espectral, a estrutura geométrica das transformações
unitárias.
6.4.3. Pull-back e push-forward. Podemos definir as noções de pull-back e
push-forward de um produto hermitiano exatamente como no caso real, sem ne-
nhuma variação. As mesmas propriedades continuam valendo. O leitor pode elabo-
rar facilmente os detalhes.
6.4.4. Exercı́cios.
6.31. Determine todas as transformações unitárias de C a C e de C2 a C2 com o
produto hermitiano canônico.
6.32. Encontre uma transformação unitária f : C3 → C3 (em relação ao produto her-
mitiano canônico) tal que f (1, i, i) = (−i + 1, −i, 0).
6.33. Adapte ao contexto complexo os enunciados dos exercı́cios 4.28, 4.29 e 4.30 da
seção 4.4.4.
6.34. Seja C2 dotado do produto hermitiano h(z1 , w1 ), (z2 , w2 )i = 2z̄1 z2 + w̄1 w2 +
iz̄1 w2 − iw̄1 z2 .
√ √
(1) Construa uma função unitária f : C2 → C2 tal que f (1, 0) = ( 2, i 2).
(2) Seja C ∈ GL(2; C) a matriz representativa de f em relação à base canônica. Con-
forme a notação do exercı́cio 6.33 (adaptando o exercı́cio 4.28), verifique explici-
tamente que C ∈ UA (2), sendo A a matriz que representa o produto hermitiano
fixado a respeito da base canônica.
6.35. Adapte ao contexto complexo os enunciados dos exercı́cios 4.32–4.35 da seção
4.4.4, verificando que continuam valendo.
que se estendem a automorfismos de End(V )R e M (n; C)R todos. Por isso, obtemos
os seguintes diagramas comutativos de espaços vetoriais reais:
Φ Φ0
( (
(182) H(V )
µA
/ H(n; C) )
AH(V
µA
/ AH(n; C)
_ ' _ _ ' _
Φ Φ0
( (
End(V )R
µA
/ M (n; C)R End(V )R
µA
/ M (n; C)R .
' '
7
Para o leitor mais experiente, também no caso complexo há uma relação muito forte entre as
transformações unitárias e as anti-hermitianas, pois U(n) é um grupo de Lie (real, não complexo)
cuja álgebra de Lie é precisamente AH(n; C), com o colchete de Lie [A, B] := AB − BA.
8A mesma observação vale em relação ao grupo de Lie real U(V ) e ao grupo de Lie complexo
formado pelas transformações ortogonais a respeito de uma forma bilinear simétrica. Pensando
nas matrizes, U(n) é um grupo de Lie real, enquanto O(n; C) é complexo.
228 6. PRODUTO HERMITIANO
6.6.1. Exercı́cios.
6.41. Encontre uma transformação anti-unitária f : C3 → C3 , com o produto hermiti-
ano canônico, tal que f (1, i, 1) = (i, −1, i).
µA
GL(V ) / GL(n; C).
'
(190) SU(V ) r
µA
/ SU(n) s
Mm '
Ll
{ $ &
, U(n) z
µA
q r
'
U(V ) GL+ (V ) µA 2 GL+ (n; C)
Ll ' Kk
# z $ x
GL(V )
µA
/ GL(n; C).
'
6.7.1. Exercı́cios.
6.42. Verifique que:
a −b̄ 2 2
SU(2) = , a, b ∈ C, |a| + |b| = 1 .
b ā
6.43. Encontre uma função unitária especial f : C2 → C2 tal que f √1 , √i 1+i
√ , √1
2 2
= 3 3
.
6.44. Considere o subespaço V = h(1, i, i−2), (1, i, i)i ⊂ C3 , com a orientação represen-
tada pela base {(1, i, i − 2), (1, i, i)}, e o espaço C2 com a orientação canônica. Estabeleça
se o isomorfismo f (x, y, z) = (x, z) respeita as orientações.
7.1. Diagonalização
Vamos agora estudar as formas canônicas dos endomorfismos. Isso significa que,
dado um endomorfismo f : V → V , sendo V finitamente gerado, procuramos uma
base A de V que torne a matriz representativa particularmente simples. Isso pode
tornar mais fácil entender a estrutura de f , portanto se trata de um tópico com
várias aplicações significativas.
Observação 7.1.1. Queremos deixar claro que estamos fixando a mesma base
A para V como domı́nio e como contra-domı́nio. Se admitı́ssemos a possibilidade
de fixar duas bases distintas, poderı́amos sempre representar um endomorfismo f
da seguinte forma:
Ik 0
(194) µAB (f ) = ,
0 0
sendo k a dimensão da imagem de f . De fato, seja A0 = {v k+1 , . . . , v n } uma base
de Ker f . Completemos A0 a uma base A = {v 1 , . . . , v k , v k+1 , . . . , v n } de V . Como
mostramos na demostração da fórmula de Grassmann, B 0 := {f (v 1 ), . . . , f (v k )} é
uma base de Im f . Completemos B 0 a uma base B = {f (v 1 ), . . . , f (v k ), wk+1 , . . . , wn }
de V . Então µAB (f ) é dada por (194). Observamos que a matriz (194) só depende
de k, ou seja, da dimensão de Im f , que coincide com o posto de qualquer matriz
representativa. Portanto, qualquer matriz de posto k é µ-equivalente (v. def. 2.6.14)
à (194). Isso mostra que duas matrizes com o mesmo posto são µ-equivalentes. Vice-
versa, é claro que duas matrizes µ-equivalentes têm o mesmo posto, pois representam
o mesmo endomorfismo, portanto a dimensão da imagem é a mesma. Isso prova que
duas matrizes são µ-equivalentes se, e somente se, têm o mesmo posto. ♦
Voltando a considerar só uma base A de V , um caso particularmente interessante
se verifica quando µA (f ) é diagonal. De fato, antes de tudo as matrizes diagonais
são muito simples a serem tradadas; ademais, é fácil verificar que µA (f ) é diagonal
se, e somente se, todo elemento de A é um autovetor de f , portanto, neste caso, f
atua multiplicando cada elemento de A pelo autovalor correspondente. Isso torna
bastante fácil descrever a ação de f . Enfim, os autovalores de f são os elementos
da diagonal de µA (f ), logo ficam evidenciados explicitamente. Por estes motivos,
o primeiro objetivo desta seção consiste em estabelecer quando um endomorfismo
pode ser representado por uma matriz diagonal.
Definição 7.1.2. Um endomorfismo f : V → V , sendo V finitamente gerado, é
dito diagonalizável se existe uma base A de V tal que µA (f ) é uma matriz diagonal.
235
236 7. FORMAS CANÔNICAS DOS ENDOMORFISMOS
C −1 AC = C −1 [Av 1 | · · · | Av n ] = C −1 [λ1 v 1 | · · · | λn v n ] = C −1 C∆ = ∆.
para i = 1, 2:
(1) estabeleça se Ai é diagonalizável;
(2) se Ai for diagonalizável, escreva uma matriz diagonal semelhante e uma
matriz de mudança de base.
Resolução. Temos que χA1 (λ) = (λ + 2)2 (λ + 1)(λ − 4). Antes de tudo,
isso mostra que o polinômio caracterı́stico é completamente redutı́vel. Ademais, os
autovalores são −2, −1 e 4, com multiplicidade algébrica respetivamente 2, 1 e 1.
Por isso já sabemos que a multiplicidade geométrica de −1 e 4 é 1. Calculemos a
multiplicidade geométrica de −2. O auto-espaço V−2 é o conjunto das soluções de
238 7. FORMAS CANÔNICAS DOS ENDOMORFISMOS
T = . . .
. ⇒
TR = . . .
. ..
. . . . .
.
an + ibn an −bn
b n an
Obviamente det T = (a1 +ib1 ) · · · (an +ibn ). Seja T0 a submatriz de T obtida tirando
a primeira linha e a primeira coluna. Segue imediatamente que (T0 )R é a submatriz
de TR obtida tirando as primeiras duas linhas e colunas. Como det(T0 ) = (a2 +
ib2 ) · · · (an +ibn ), pela hipótese de indução temos que det(T0 )R = (a22 +b22 ) · · · (a2n +b2n ).
Aplicando a regra de Laplace às primeiras duas colunas de TR obtemos que det TR =
a21 det(T0 )R + b21 det(T0 )R = (a21 + b21 )(a22 + b22 ) · · · (a2n + b2n ) = |det T |2 .
Vamos agora mostrar que, quando um endomorfismo for triangularizável, existe
um modo canônico de escolher uma matriz representativa triangular, dito forma
canônica de Jordan.
7.2.1. Blocos de Jordan.
Definição 7.2.5. Dada uma matriz A = [aij ] ∈ M (n; K), chamamos de:
• sobre-diagonal o conjunto das entradas imediatamente acima da diagonal
principal, ou seja, o conjunto das entradas ai,i+1 , para 1 ≤ i ≤ n − 1.
• k-sobre-diagonal, para 0 ≤ k ≤ n − 1, o conjunto das entradas de A que
estão k posições acima da diagonal principal, ou seja, da forma ai,i+k , sendo
1 ≤ i ≤ n − k.
♦
É claro que, para k = 0, a k-sobre-diagonal é a diagonal principal, para k = 1 é
a sobre-diagonal e, para k = n − 1, é formada pelo único elemento a1,n .
Definição 7.2.6. O bloco de Jordan de ordem n, associado ao autovalor λ̃, é a
matriz Bn (λ̃) ∈ M (n; K) tal que:
1Para o leitor mais experiente, podemos também provar que det(AR ) > 0 quando A ∈ GL(n; C)
com um simples argumento topológico. Como GL(n; C) é conexo (por caminhos), existe um ca-
minho ϕ : I → GL(n; C) que une A à identidade. Realificando, obtemos um caminho ϕR : I →
GL(2n; R) que une AR à identidade. Isso mostra que AR pertence à mesma componente conexa da
identidade, a qual é formada pelas matrizes com determinante positivo. Contudo, para demonstrar
que GL(n; C) é conexo precisamos da forma canônica de Jordan.
242 7. FORMAS CANÔNICAS DOS ENDOMORFISMOS
pois as entradas da diagonal principal são iguais a (λ̃−λ)l . Isso implica que Bn (λ̃)−
λIn é nilpotente se, e somente se, λ = λ̃.
O item 4 do seguinte lema mostra a estrutura dos auto-espaços generalizados, por en-
quanto só considerando endomorfismos representáveis por matrizes da forma (205).
Contudo, veremos que o mesmo resultado vale para qualquer endomorfismo.
Lema 7.2.11. Seja µA (f ) = J, sendo A dada por (213) e J por (205), e sejam
Ai := {ai,1 , . . . , ai,mi } e Vi := hAi i.
(1) Todo sub-espaço Vi é f -invariante.
(2) Seja λ̃ um autovalor de f e, a menos da ordem, suponhamos que λ1 = · · · =
λh = λ̃ e λh+1 , . . . , λk 6= λ̃. Para todo l ∈ N temos que
D[ E
l
(217) Ker((f − λ̃In ) ) = {ai,1 , . . . , ai,min{l,mi } }
i: i≤h
D [ [ E
(218) Im((f − λ̃In )l ) = {ai,1 , . . . , ai,mi −l }, {ai,1 , . . . , ai,mi } .
i≤h i: i≥h+1
n
i:
l<mi
(3), a imagem de f − λ̃In é gerada pelos elementos de A que não são geradores de
uma cadeia associada a um autovalor λi igual a λ̃, ou seja:
(219) Im(f − λ̃In ) = hA \ {a1,m1 , . . . , ah,mh }i.
0
Seja A = A \ {a1,m1 , . . . , ah,mh }. Sejam m1 = · · · = mp = 1 e mp+1 , . . . , mh > 1.
Então:
A0 = {ap+1,1 , . . . , ap+1,mp+1 −1 , . . . , ah,1 , . . . , ah,mh −1 ,
(220)
ah+1,1 , . . . , ah+1,mh+1 , . . . , ak,1 , . . . , ak,mk }.
Enfim
Ker(f − λ̃In ) = Vλ̃ = ha1,1 , . . . , ah,1 i.
7.2.5. Existência e unicidade da forma canônica de Jordan. Agora po-
demos demonstrar a existência e a unicidade da forma canônica de Jordan para todo
endomorfismo trinagularizável.
Teorema 7.2.12. Seja f : V → V um endomorfismo triangularizável. Existe
uma base A de V tal que µA (f ) é uma matriz em forma canônica de Jordan. Esta
matriz é única (ou seja, não depende da base A escolhida) a menos da ordem dos
blocos.
Demonstração. Vamos demonstrar a existência por indução sobre n. Se n = 1
a tese é óbvia, pois qualquer matriz de ordem 1 é em forma canônica de Jordan.
Suponhamos que a tese valha para todo m ≤ n − 1. Sendo χf (λ) completamente
redutı́vel pelo teorema 7.2.2, existe um autovalor λ̃ de f . Consideremos o sub-espaço
I := Im(f − λ̃In ) de V . Seja m := dim I, logo m = n − mg(λ̃). Observamos que:
• como λ̃ é um autovalor, m ≤ n − 1;
• f (I) ⊂ I. De fato, seja v ∈ I. Por definição existe w ∈ V tal que
v = f (w) − λ̃w, logo f (v) = f (f (w) − λ̃w) = (f − λ̃In )(f (w)) ∈ I.
Por isso fica definida a restrição f 0 = f |I : I → I e, pela hipótese de indução, existe
uma base A0 de I tal que µA0 (f 0 ) é uma matriz em forma canônica de Jordan. Sejam
A0 = {a01,1 , . . . , a01,m01 , . . . , a0h0 ,1 , . . . , a0h0 ,m0 0 , . . . , a0k0 ,1 , . . . , a0k0 ,m0k }
h
Bm01 (λ01 ) · · · 0
µA0 (f 0 ) = .. ..
,
. ··· .
0
0 · · · Bm0k (λk )
sendo λ01 = · · · = λ0h0 = λ̃ e λ0h0 +1 , . . . , λ0k0 6= λ̃.2
Seja p := dim(Vλ̃ ) − dim(Vλ̃ ∩ I). Queremos escerver a base A0 na forma (220),
portanto usamos a seguinte notação:
ap+i,j := a0i,j λ̃p+i = λ̃0i
2Se V ∩ I = {0}, ou seja, Ker(f − λ̃I ) ∩ Im(f − λ̃I ) = {0}, podemos concluir facilmente
λ̃ n n
a demonstração do teorema, pois, escolhendo qualquer base A00 de Vλ̃ e definindo A := A00 ∪ A0 ,
obtemos uma matriz µA (f ) em forma canônica de Jordan. Esta situação se verifica quando ma(λ̃) =
mg(λ̃), ou seja, quando todos os blocos associados a λ̃ são de ordem 1.
248 7. FORMAS CANÔNICAS DOS ENDOMORFISMOS
h := p + h0 mp+i := m0i + 1, 1 ≤ i ≤ h0
k := p + k 0 mp+i := m0i , h0 + 1 ≤ i ≤ k 0 .
Desta maneira:
A0 = {ap+1,1 , . . . , ap+1,mp+1 −1 , . . . , ah,1 , . . . , ah,mh −1 ,
ah+1,1 , . . . , ah+1,mh+1 , . . . , ak,1 , . . . , ak,mk }
Bmp+1 (λl+1 ) · · · 0
µA0 (f 0 ) = .. .. ,
. ··· .
0 ··· Bmk (λk )
sendo λp+1 = · · · = λh = λ̃ e λh+1 , . . . , λk 6= λ. Para todo i = p + 1, . . . , h,
como ai,mi −1 ∈ I, existe ai,mi ∈ V tal que (f − λ̃I)(ai,mi ) = ai,mi −1 . Enfim, como
{ap+1,1 , . . . , ah,1 } é uma base de Vλ̃ ∩ I por causa da fórmula (214), a completamos a
uma base de Vλ̃ acrescentando {a1,1 , . . . , ap,1 }. Obtemos a famı́lia de vetores de V :
A = {a1,1 , . . . , ap,1 , ap+1,1 , . . . , ap+1,mp+1 , . . . , ah,1 , . . . , ah,mh ,
(221)
ah+1,1 , . . . , ah+1,mh+1 , . . . , ak,1 , . . . , ak,mk }.
Verifiquemos que A é uma base de V . Antes de tudo observamos que A contém n
elementos, sendo n = dim V , portanto é suficiente mostrar que é independente. De
fato, pelo teorema do núcleo e da imagem temos que dim I = n − mg(λ̃). Como p =
dim(Vλ̃ ) − dim(Vλ̃ ∩ I) = mg(λ̃) − (h − p), temos que h = mg(λ̃), logo dim I = n − h.
Para passar de A0 a A acrescentamos os vetores a1,1 , . . . , ap,1 , ap+1,mp+1 , . . . , ah,mh ,
portanto acrescentamos h vetores em total, logo o número de elementos de A é
(n − h) + h = n.
Demonstremos que A é independente. Seja:
p mi
h X k mi
X X X X
(222) µi,1 ai,1 + µi,j ai,j + µi,j ai,j = 0.
i=1 i=p+1 j=1 i=h+1 j=1
Por construção, trata-se de uma combinação linear dos vetores de uma base de
Vλ̃ , logo os coeficientes são nulos. Isso mostra que A é uma famı́lia independente,
portanto é uma base de V , a respeito da qual f é representado pela matriz (205)
em forma canônica de Jordan.
Para demonstrar a unicidade, vamos verificar que, independentemente da base A,
a partir de f podemos reconstruir todos os blocos da matriz (205). Para cada auto-
valor λ̃, os blocos associados a λ̃ são determinados pela ordem máxima m̃, dada por
(209), e pelo número de blocos de cada ordem entre 1 e m̃, dados por (211) e (212).
As únicas quantidades que aparecem nestas fórmulas são os postos das potências
de J − λ̃In e a multiplicidade algébrica de λ̃. Nenhum destes valores depende da
escolha da base A, e sim somente de f . Logo, podemos escrever equivalentemente:
m̃ = min{l ∈ N : rk(f − λ̃I)l = n − ma(λ̃)}
(223) s0 = rk(f − λ̃In )m̃−1 − rk(f − λ̃In )m̃
si = rk(f − λ̃In )m̃−i−1 − rk(f − λ̃In )m̃−i − s0 − · · · − si−1 .
Isso mostra que, a menos da ordem dos blocos, a matriz J pode ser reconstruı́da a
partir de f , portanto é única.
Corolário 7.2.13. Seja f : V → V um endomorfismo triangularizável. É
possı́vel decompor f em uma soma f = f0 + n0 , sendo f0 diagonalizável e n0 nilpo-
tente.
Demonstração. Seja A uma base de V a respeito da qual f é representado
por uma matriz J em forma canônica de Jordan. Seja J = ∆ + N , sendo ∆ a
matriz diagonal, cujas entradas são as de J, e N a matriz nilpotente, cujas entradas
na sobre-diagonal são as de J. Então ∆ e N representam, a respeito de A, os
endomorfismos f0 e n0 .
Graças às fórmulas (223) podemos determinar a forma canônica de Jordan de
um endomorfismo dado; mostraremos em seguida que, em alguns casos, é possı́vel
determiná-la mais rapidamente, através do polinômio mı́nimo.
Exercı́cio 7.2.14. Encontre a forma canônica de Jordan dos endomorfismos
representados, a respeito da base canônica, pelas matrizes A1 e A2 do exemplo 7.1.6.
Resolução. Como A1 é diagonalizável, a forma canônica de Jordan é matriz
diagonal semelhante que encontramos no exemplo 7.1.6. A respeito de A2 , vimos
que os autovalores são −2 e 1, com multiplicidade algébrica respetivamente 3 e
1 e multiplicidade geométrica respetivamente 2 e 1. Por isso, o bloco relativo ao
autovalor 1 só pode ter ordem 1. A respeito do autovalor −2, como ma(2)−mg(2) =
1, só há uma entrada não nula na sobre-diagonal. Por isso, a unica combinação
possı́vel consiste em um bloco de ordem 1 e um bloco de ordem 2. Obtemos a
matriz:
−2 1 0 0
0 −2 0 0
J = .
0 0 −2 0
0 0 0 1
250 7. FORMAS CANÔNICAS DOS ENDOMORFISMOS
Nesse caso não precisamos das fórmulas (223). Mesmo assim, vamos mostrar como
aplicá-las, como exemplo simples do caso geral. A respeito do autovalor 1, verifi-
camos no exemplo 7.1.6 que rk(A − I) = 3, o que implica que mg(1) = 1. Como
rk(A − I) = 3 = 4 − ma(1), temos que m̃ = 1. Como s0 = rk(A + 2I)0 − rk(A + 2I) =
4 − 3 = 1, temos 1 bloco de ordem 1. Isso é o que sempre acontece quando mg(λ̃) =
ma(λ̃), ou seja, temos ma(λ̃) blocos de ordem 1. A respeito do autovalor −2, verifica-
mos no exemplo 7.1.6 que rk(A + 2I) = 2, o que implica que mg(−2) = 2. Ademais,
podemos calcular facilmente (A + 2I)2 e obtemos rk(A + 2I)2 = 1 = 4 − ma(−2),
logo m̃ = 2. Como s0 = rk(A + 2I) − rk(A + 2I)2 = 1, temos um bloco de ordem
2. Enfim, s1 = 4 − rk(A + 2I) − s0 = 1, logo temos um bloco de ordem 1. Isso
determina J. ♦
2 1 0 0
0 2 0 0
J =
0
.
0 2 1
0 0 0 2
e a completamos a uma base do numerador Ker((f − λ̃In )m̃ ). Sejam a1,m̃ , . . . , as0 ,m̃
os vetores acrescentados. Por construção a famı́lia {[a1,m̃ ], . . . , [as0 ,m̃ ]} é uma base
do quociente Ker((f − λ̃In )m̃ )/Ker((f − λ̃In )m̃−1 ). Escolhemos estes vetores como
geradores das cadeias correspondentes e, aplicando iterativamente f − λ̃In a aq,m̃ ,
definimos:
(224) aq,m̃−j := (f − λ̃In )j (aq,m̃ ) ∀q ∈ {1, . . . , s0 }, j ∈ {0, . . . , m̃ − 1}.
Demonstraremos daqui a pouco que, dessa maneira, obtemos efetivamente uma base
para cada bloco maximal. Se só existem blocos de ordem m̃ (ou seja, se h = s0 ), já
concluı́mos. Se existem outros blocos, voltemos a supor de conhecer a base de Jordan
A. Suponhamos que, a menos da ordem, os blocos de ordem m̃ − i associados a λ̃,
sendo 1 ≤ i ≤ m̃ − 1, sejam Bm̃−i (λs0 +···+si−1 +1 ), . . . , Bm̃−i (λs0 +···+si−1 +si ). Por sim-
plicidade usamos a notação s̃i := s0 + · · · + si−1 . Pelo lema 7.2.11 item 2, dada uma
base de Jordan A, os geradores as̃i +1,m̃−i , . . . , as̃i +si ,m̃−i são vetores da base A que
pertencem ao kernel de (f − λ̃In )m̃−i mas não ao kernel de (f − λ̃In )m̃−i−1 , logo defi-
nem elementos não nulos [as̃i +1,m̃−1 ], . . . , [as̃i +si ,m̃−i ] ∈ Ker((f − λ̃In )m̃−i )/Ker((f −
λ̃In )m̃−i−1 ). Contudo, contrariamente ao caso maximal, não são os únicos elementos
de A com esta propriedade: temos que incluir também os vetores a1,m̃−i , . . . , as̃i ,m̃−i
associados a blocos de ordem superior.
Lema 7.2.18. A famı́lia {[a1,m̃−i ], . . . , [as̃i ,m̃−i ], [as̃i +1,m̃−i ], . . . , [as̃i +si ,m̃−i ]} é uma
base do quociente Ker((f − λ̃In )m̃−i )/Ker((f − λ̃In )m̃−i−1 ).
Demonstração. A demonstração é análoga à do lema 7.2.18, aplicando a
fórmula (212), por causa da qual s̃i + si é precisamente a dimensão do quociente
Ker((f − λ̃In )m̃−i )/Ker((f − λ̃In )m̃−i−1 ).
Por enquanto supusemos de conhecer a base A e deduzimos o lema 7.2.18. Su-
pondo agora de não conhecer a base de Jordan, tentamos aplicar a volta do lema
7.2.18, ou seja, procuramos uma base qualquer do denominador Ker((f − λ̃In )m̃−i−1 ),
a unimos à famı́lia a1,m̃−i , . . . , as̃i ,m̃−i e completamos a união a uma base do nume-
rador Ker((f − λ̃In )m̃−i ). Sejam as̃i +1,m̃−i , . . . , as̃i +si ,m̃−i os vetores acrescentados.
Escolhemos estes vetores como geradores das cadeias correspondentes e, aplicando
iterativamente f − λ̃In a aq,m̃−i , definimos:
aq,m̃−i−j := (f − λ̃In )j (aq,m̃−i ) ∀q ∈ {s̃i + 1, . . . , s̃i + si },
(225)
j ∈ {0, . . . , m̃ − i − 1}.
Demonstraremos daqui a pouco que, dessa maneira, obtemos efetivamente uma base
para cada bloco de ordem m̃ − i.
3Em geral, para completar a base B 0 terı́amos que achar uma base qualquer de Ker((f +2I)2 ) e
aplicar o teorema da base incompleta. Em alternativa, podemos calcular o complemento ortogonal
de Ker(f + 2I) em Ker((f + 2I)2 ) e achar uma sua base. Neste exercı́cio conseguimos completar
a base B 0 imediatamente.
254 7. FORMAS CANÔNICAS DOS ENDOMORFISMOS
Agora podemos demostrar que a técnica mostrada nesta seção leva efetivamente
a uma base de Jordan. Além disso, mostraremos alguns lemas que generalizam os
análogos relativos a endomorfismos diagonalizáveis.
Lema 7.2.22. Sejam f : V → V um endomorfismo, λ̃ um autovalor de f e v um
autovetor generalizado associado a λ̃. Se λ 6= λ̃, para todo l ∈ N o vetor (f − λI)l (v)
é um autovetor generalizado associado a λ̃ (em particular não é nulo).
Demonstração. Vamos demonstrar o resultado por indução sobre l. Seja l =
1. Por definição existe m ∈ N tal que (f − λ̃I)m (v) = 0. Seja w = (f − λI)(v). É
imediato verificar por indução sobre m que f − λI comuta com (f − λ̃I)m , portanto:
(f − λ̃I)m (w) = (f − λ̃I)m ◦ (f − λI)(v)
= (f − λI) ◦ (f − λ̃I)m (v) = (f − λI)(0) = 0,
logo w ∈ Vλ̃0 . Seja por absurdo w = 0. Então f (v) = λv, portanto (f − λ̃I)m (v) =
(λ − λ̃)m v 6= 0, o que é absurdo. Isso demonstra a tese para l = 1. Se a tese valer
7.2. TRIANGULARIZAÇÃO E FORMA CANÔNICA DE JORDAN 255
ou seja, com a dimensão da sub-matriz formada pelos blocos associados a λ̃. Apli-
cando o mesmo procedimento a todo autovalor λ̃, obtemos n = m1 +· · ·+mk vetores,
sendo n = dim V . Por isso, só devemos demonstrar que a famı́lia de vetores definida
pelas fórmulas (224) e (225) é independente. Seja:
h
XX
(228) (µλ̃,q,1 aq,1 + · · · + µλ̃,q,mq aq,mq ) = 0,
λ̃ q=0
para todo λ̃. Seja i o mı́nimo número natural tal que existe q ∈ N tal que µλ̃,q,m̃−i 6=
0. Isso significa que
s̃X
i +si
µλ̃,q,m̃−i [aq,m̃−i ] = 0
q=1
como elemento de Ker((f − λ̃In )m̃−i )/Ker((f − λ̃In )m̃−i−1 ), sendo os coeficientes não
todos nulos. Isso é absurdo, pois a famı́lia {[a1,m̃−i ], . . . , [as̃i +si ,m̃−i ]} é uma base de
Ker((f − λ̃In )m̃−i )/Ker((f − λ̃In )m̃−i−1 ) por construção. Isso mostra que todos os
coeficientes de (228) são nulos.
Enfim, vamos mostrar a generalização natural do lema 7.1.8.
Lema 7.2.25. Seja f : V → V um endomorfismo e sejam λ1 , . . . , λk os autovalo-
res distintos de f . O endomorfismo f é triangularizável se, e somente se, V é soma
direta dos auto-espaços generalizados de f , ou seja:
V = Vλ01 ⊕ · · · ⊕ Vλ0k .
Demonstração. (⇒) Sendo f triangularizável, existe uma base de Jordan A
da forma (213). Pelo lema 7.2.11 uma base do auto-espaço generalizado Vλ0i é for-
mada pelos elementos da base A correspondentes aos blocos associados a λi . Como
A é a união disjunta destas sub-famı́lias, temos que V = Vλ01 ⊕ · · · ⊕ Vλ0k . (⇐)
Se V for um espaço vetorial complexo, então todo f é triangularizável. Se V
for real e f não for triangularizável, então χf (λ) não é completamente redutı́vel,
portanto admite pelo menos uma raiz complexa não real λ. Considerando a com-
plexificação fC : VC → VC , é fácil verificar que VC = (VC )0λ1 ⊕ · · · ⊕ (VC )0λk , pois
a complexificação não muda a dimensão. Seja v um autovetor associado a λ e
seja v = v 1 + · · · + v k , sendo v i ∈ (VC )0λi . Temos que (f − λI)(v) = 0, portanto
(f − λI)(v 1 ) + · · · + (f − λI)(v k ) = 0, logo, sendo a soma direta, (f − λI)(v i ) = 0
para todo i. Pelo lema 7.2.22 temos que v i = 0 para todo i, o que é absurdo, pois v
é um autovetor.
7.3. FORMA CANÔNICA DE JORDAN REAL 257
ver também a partir das fórmulas (223), pois, sendo σ0 um isomorfismo com o espaço
vetorial conjugado, temos que rk((f −z̄i I)l ) = rk(σ0 ◦(f −z̄i I)l ) = rk((f −zi I)l ◦σ0 ) =
rk((f − zi I)l ), ou seja, mais rapidamente, o posto de (f − zi I)l coincide com o do
seu conjugado, o qual, sendo f real, coincide com (f − z̄i I)l .
Vamos listar os autovalores λ1 , . . . , λk , z1 , z̄1 , . . . , zh , z̄h repetindo cada autovalor
conforme o número de blocos correspondentes na forma de Jordan de fC . Obtemos
a seguinte forma:
Bm01 (λ1 )
..
.
Bmk0 (λ k )
Bm1 1(z )
JC = .
Bm1 (z1 )
. ..
Bmh (zh )
Bmh (zh )
Consideremos uma base de Jordan correspondente da seguinte forma:
A = {a01,1 , . . . ,a01,m01 , . . . , a0k,1 , . . . , a0k,m0k , a1,1 , . . . , a1,m1 ,
(229)
ā1,1 , . . . , ā1,m1 , . . . , ah,1 , . . . , ah,mh , āh,1 , . . . , āh,mh }.
Sejam
(230) ai,j = v i,j + iwi,j āi,j = v i,j − iwi,j ,
sendo v i,j , wi,j ∈ V . A seguinte famı́lia é também uma base de VC :
B = {a01,1 , . . . ,a01,m01 , . . . , a0k,1 , . . . , a0k,m0k , v 1,1 , w1,1 ,
(231)
. . . , v 1,m1 , w1,m1 , . . . , v h,1 , wh,1 , . . . , v h,mh , wh,mh }.
Para verificar que B é uma base, é suficiente observar que v i,j = 12 (ai,j + āi,j ) e
wi,j = 2i1 (ai,j − āi,j ), portanto o sub-espaço gerado por B coincide com o gerado por
A, ou seja, VC todo. Como A e B contêm o mesmo número de elementos, também
B é uma base. Vamos calcular a matriz representativa µB (fC ). Seja zi = xi + iyi .
Temos que, para todo i entre 1 e h:
fC (v i,1 ) = 21 fC (ai,1 ) + fC (āi,1 ) = 12 (zi,1 ai,1 + z̄i,1 āi,1 )
Por isso, a respeito do trecho {v i,1 , wi,1 , . . . , v i,mi , wi,mi }, a matriz representativa de
fC é a seguinte:
x y 1 0
−y x 0 1
.. ..
. .
(Bmi (z̄i ))R =
x y .
1 0
−y x 0 1
x y
−y x
Trata-se da realificação do bloco de Jordan associado a z̄i . Por isso a matriz repre-
sentativa de fC a respeito da base B é a seguinte:
Bm01 (λ1 )
...
Bm0k (λk )
(232) J = .
(Bm1 (z̄1 ))R
. ..
(Bmh (z̄h ))R
O fato que aparecam blocos da forma (Bmi (z̄i ))R singifica que, no sub-espaço corres-
pondente, fC é a realificação de um endomorfismo complexo. Daqui a pouco vamos
entender qual.
Definição 7.3.1. Uma matriz J ∈ M (n; R) é dita em forma canônica de Jordan
real se for constituı́da por blocos de Jordan reais e por realificações de blocos de
Jordan complexos em posição simétrica a respeito da diagonal principal, ou seja, se
for da forma (232). ♦
Acabamos de verificar que todo endomorfismo real pode ser representado em
forma canônica de Jordan real. Vimos também como encontrar concretamente uma
forma de Jordan e uma base de Jordan reais:
• para achar a forma de Jordan real, calculamos a forma de Jordan complexa
e realificamos os blocos associados aos autovalores complexos não reais;
• para achar uma base de Jordan real, calculamos uma base de Jordan com-
plexa da forma (229) e, através das identidades (230), obtemos a base (231).
Este procedimento pode ser invertido facilmente, portanto a forma de Jordan real e a
forma de Jordan complexa podem ser deduzidas uma a partir da outra. Isso implica
que, como a complexa é única, a real o é também, exceto pelo seguinte fato. Quando
listamos os autovalores complexos, os chamamos de z1 , z̄1 , . . . , zh , z̄h . Claramente
podı́amos chamar de zi o que chamamos de z̄i e vice-versa. Com esta mudança,
no bloco de Jordan correspondente o número real y, ou seja, =(zi ), muda de sinal.
Afinal, a forma de Jordan real é única a menos da ordem dos blocos e do sinal da
componente y de cada bloco de Jordan realificado. Claramente, quando fixamos o
sinal de y em cada bloco, a base de Jordan tem que ser escolhida coerentemente.
Poderı́amos impor y > 0 em cada bloco por convenção; desta maneira a ambiguidade
260 7. FORMAS CANÔNICAS DOS ENDOMORFISMOS
0 0 0 0 · · · 0 λ̃
Seja A = {a1 , . . . , a2n } uma base de Jordan real (ordenada) correspondente a
(Bn (λ̃))R . O leitor pode verificar que, a respeito da base A0 = {a1 , a3 , . . . , a2n−1 ,
a2 , a4 , . . . , a2n } a matriz representativa é formada por dois blocos de Jordan de or-
dem n, ou seja, é da forma
Bn (λ̃) 0
.
0 Bn (λ̃)
Por isso, um bloco real realificado equivale a dois blocos reais iguais.
Exercı́cio 7.3.2. Calcule a forma canônica de Jordan real da seguinte matriz:
1 0 0 −1
0 3 −1 0
A= 0
.
1 1 0
1 0 0 1
Encontre uma base de Jordan real correspondente.
Resolução. O polinômio caracterı́stico é χA (λ) = (λ − 2)2 (λ2 − 2λ + 2),
portanto A não é trinagularizável. Vamos calcular a forma de Jordan complexa.
Como rk(A − 2I) = 3, temos que mg(2) = 1. As duas raı́zes complexas de χA (λ)
são 1 − i e 1 + i, ambas de multiplicidade algébrica 1, portanto a forma de Jordan
complexa é a seguinte:
2 1 0 0
0 2 0 0
JC =
0 0 1 − i
.
0
0 0 0 1+i
A forma de Jordan real é formada pelo bloco real de ordem 2 associado ao autovalor
2 e pela realificação do bloco complexo de ordem 1 associado ao autovalor 1 + i:
2 1 0 0
0 2 0 0
J = 0 0 1 −1 .
0 0 1 1
7.3. FORMA CANÔNICA DE JORDAN REAL 261
Para achar uma base de Jordan complexa, comecemos pelo gerador do bloco de
ordem 2. Temos que completar uma base de Ker(A − 2I) a uma base de Ker((A −
2I)2 ). O leitor pode verificar que Ker(A − 2I) = h(0, 1, 1, 0)i e Ker((A − 2I)2 ) =
h(0, 1, 0, 0), (0, 0, 1, 0)i, portanto podemos completar {(0, 1, 1, 0)} à base {(0, 1, 1, 0),
(0, 1, 0, 0)}. Por isso escolhemos (0, 1, 0, 0) como gerador do bloco de ordem 2. O ou-
tro vetor relativo ao mesmo bloco será (A−2I)·(0, 1, 0, 0)T = (0, 1, 1, 0)T , portanto o
trecho da base, relativo ao autovalor 2, é {(0, 1, 1, 0), (0, 1, 0, 0)}. Agora procuramos
um autovetor associado a 1 − i. Resolvendo (A − (1 − i)I)v = 0 obtemos o autovetor
(1, 0, 0, i). Enfim, em relação ao autovalor 1 + i, só temos que conjugar o autovetor
precedente, obtendo (1, 0, 0, −i). Afinal obtemos a base de Jordan complexa:
A = {(0, 1, 1, 0), (0, 1, 0, 0), (1, 0, 0, i), (1, 0, 0, −i)}.
Para achar a base real correspondente só devemos substituir os dois vetores comple-
xos pela parte real e a parte imaginaria do autovetor associado a 1 − i, logo:
B = {(0, 1, 1, 0), (0, 1, 0, 0), (1, 0, 0, 0), (0, 0, 0, 1)}.
O leitor pode verificar que µB (v 7→ Av) = J. Equivalentemente, se C for a matriz
cujas colunas são os vetores de B, temos que J = C −1 AC. ♦
de ordem 2. O outro vetor relativo ao mesmo bloco será (A + iI) · (0, −i, 0, 1)T =
(−i, 0, 1, 0)T , portanto obtemos a base de Jordan complexa:
A = {(−i, 0, 1, 0), (0, −i, 0, 1), (i, 0, 1, 0), (0, i, 0, 1)}.
A base real correspondente é formada pela parte real e pela parte imaginária dos
dois vetores associados a −i, logo:
B = {(0, 0, 1, 0), (−1, 0, 0, 0), (0, 0, 0, 1), (0, −1, 0, 0)}.
O leitor pode verificar que µB (v 7→ Av) = J. Equivalentemente, se C for a matriz
cujas colunas são os vetores de B, temos que J = C −1 AC. ♦
igualdade pq(r) = p(r)q(r), mas em geral não vale. É claro que, se os coeficientes de
q(x) pertencerem ao centro de A, então comutam com todo r, portanto pq = p·q. Por
isso é natural considerar polinômios com coeficientes no centro de A, que denotamos
por C. Um polinômio p ∈ C[x] define a função polinomial p : C → C, mas, por
causa do mergulho natural C[x] ⊂ A[x], induzido pelo mergulho C ⊂ A, também
define a função polinomial p : A → A. Acabamos de verificar que, se p, q ∈ C[x] e
p, q : A → A forem as funções polinomiais correspondentes, então p + q = p + q e
pq = p · q. O mesmo vale para p, q ∈ B[x], sendo B ⊂ C qualquer subanel do centro
de A.4
4O que acabamos de mostrar pode ser expresso da seguinte maneira. Seja F(A) o conjunto das
funções de A a A. Tornamos F(A) um anel com a soma e o produto definidos por (f + g)(a) :=
f (a) + g(a) e (f g)(a) := f (a)g(a) (portanto o produto não é a composição). Seja η : A[x] → F(A),
7.4. POLINÔMIO MÍNIMO E TEOREMA DE CAYLEY-HAMILTON 263
É claro que W é f -invariante se, e somente se, fica bem definida a restrição
f |W : W → W . Graças à forma canônica de Jordan poderemos encontrar uma
caracterização explı́cita dos sub-espaços invariantes. Antes disso vamos enunciar
alguns resultados preliminares.
Lema 7.5.2. Sejam f : V → V um endomorfismo e W ⊂ V um sub-espaço f -
invariante. Seja f 0 := f |W : W → W . O polinômio caracterı́stico de f 0 divide o de
f e o polinômio mı́nimo de f 0 divide o de f .
Demonstração. Em relação ao polinômio caracterı́stico, seja B = {w1 , . . . , wm }
uma base de W e vamos completá-la a uma base A = {w1 , . . . , wm , v m+1 , . . . , v n }
de V . Como f (W ) ⊂ W , a matriz representativa µA (f ) tem a seguinte forma:
µB (f 0 ) A
µA (f ) = .
0 B
Isso implica que χf (λ) = χf 0 (λ) · χB (λ), logo χf 0 divide χf .
Em relação ao polinômio mı́nimo, por definição mf (f ) = 0, ou seja, (mf (f ))(v) =
0 para todo v ∈ V . Isso vale em particular para todo v ∈ W , portanto mf (f 0 ) = 0.
Acabamos de demonstrar que mf ∈ If 0 , sendo If 0 gerado por mf 0 , logo mf 0 divide
mf .
Corolário 7.5.3. Seja f : V → V um endomorfismo triangularizável e seja
W ⊂ V um sub-espaço f -invariante. A restrição f 0 := f |W : W → W é também
triangularizável.
Demonstração. O polinômio caracterı́stico χf é completamente redutı́vel. Pelo
lema 7.5.2 o polinômio caracterı́stico χf 0 divide χf , logo é também completamente
redutı́vel.
Corolário 7.5.4. Seja f : V → V um endomorfismo diagonalizável e seja
W ⊂ V um sub-espaço f -invariante. A restrição f 0 := f |W : W → W é também
diagonalizável.
Demonstração. Pelo lema 7.4.10 o polinômio mı́nimo mf é completamente
redutı́vel e não possui raı́zes múltiplas. Pelo lema 7.5.2 o polinômio mı́nimo mf 0 di-
vide mf , logo é também completamente redutı́vel e sem raı́zes múltiplas. Aplicando
novamente o lema 7.4.10 concluı́mos que f 0 é diagonalizável.
7.5.1. Operadores diagonalizáveis. Graças ao corolário 7.5.4 podemos ca-
racterizar os sub-espaços invariantes de um endomorfismo diagonalizável, como mos-
tra o seguinte corolário.
Corolário 7.5.5. Seja f : V → V um endomorfismo diagonalizável. Um sub-
espaço W ⊂ V é f -invariante se, e somente se, existe uma base de W formada por
autovetores de f . Equivalentemente, sejam λ1 , . . . , λk so autovalores distintos de f
e seja V = Vλ1 ⊕ · · · ⊕ Vλk a decomposição correspondente de V . Um sub-espaço
W ⊂ V é f -invariante se, e somente se, para todo i ∈ {1, . . . , k} existe um subespaço
Wi ⊂ Vλi (que pode ser nulo) tal que W = W1 ⊕ · · · ⊕ Wk . Tirando os termos nulos,
esta decomposição coincide com a de W como soma direta dos seus auto-espaços.
7.7. TEOREMAS ESPECTRAIS 269
= µ1 f (v 1 , w) + µ2 f (v 2 , w) + µ1 g(v 1 , w) + µ2 g(v 2 , w)
= µ1 (f + g)(v 1 , w) + µ2 (f + g)(v 2 , w).
e:
(λf )(µ1 v 1 + µ2 v 2 , w) = λf (µ1 v 1 + µ2 v 2 , w)
= λ(µ1 f (v 1 , w) + µ2 f (v 2 , w))
= µ1 (λf )(v 1 , w) + µ2 (λf )(v 2 , w).
Provas análogas valem a respeito da segunda componente. Poderı́amos também
raciocinar da seguinte maneira. Para cada w ∈ W fixado, as funções v 7→ f (v, w) e
v 7→ g(v, w) são lineares de V a R, logo, sendo a soma bem definida em Hom(V, R),
a função v 7→ f (v, w) + g(v, w) = (f + g)(v, w) é linear. O mesmo vale a respeito da
segunda componente, portanto f + g é bilinear. Uma prova análoga vale para λf .
Isso mostra que Bil(V, W ) é um espaço vetorial. Mostraremos daqui a pouco que
a dimensão dele é dim V dim W .
8.1.2. Matriz representativa. Vimos que, fixadas uma base A de V e uma
base B de W , obtemos um isomorfismo de espaços vetoriais µAB : Hom(V, W ) →
M (m, n; R), sendo n = dim V e m = dim W . Vamos ver que pode-se reproduzir
uma construção análoga para o espaço das funções bilineares de V × W a R.
Definição 8.1.8. Sejam f : V × W → R uma função bilinear, A = {a1 , . . . , am }
uma base de V e B = {b1 , . . . , bn } uma base de W . A matriz representativa de f a
respeito de A e B é definida da seguinte maneira:
νAB (f ) := [f (ai ), f (bj )].
♦
Sejam v = λ1 a1 + · · · + λm am e w = µ1 b1 + · · · + µn bn . Sejam λ = (λ1 , . . . , λm )T ∈
Rm e µ = (µ1 , . . . , µn )T ∈ Rn . É imediato verificar que, pela bilinearidade de f :
(240) f (v, w) = λT · νAB (f ) · µ.
No caso particular em que V = Rm , W = Rn e A e B são as bases canônicas,
obtemos a fórmula (239).
Lema 8.1.9. Sejam V e W espaços vetoriais reais, A uma base de V e B uma
base de W . A função:
νAB : Bil(V, W ) → M (m, n; R)
é um isomorfismo de espaços vetoriais. Em particular, dim Bil(V, W ) = dim V dim W .
Demonstração. A função νAB é linear. De fato, sejam f, g ∈ Bil(V, W ) e
λ, µ ∈ R. Temos que νAB (λf + µg) = [(λf + µg)(ai , bj )] = [λf (ai , bj ) + µg(ai , bj )] =
λνAB (f ) + µνAB (g). É injetora, pois, se νAB (f ) = 0, então f (ai , bj ) = 0 para todos i
e j, logo, por bilinearidade, f (v, w) = 0 para todos v ∈ V e w ∈ W , portanto f = 0.
Enfim é sobrejetora. De fato, para definir uma função bilinear f , é suficiente definir
o valor sobre os vetores de A e de B. Logo, dada uma matriz A = [αij ] ∈ M (m, n; R),
280 8. FORMAS BILINEARES E HERMITIANAS
conisderamos a função f ∈ Bil(V, W ) tal que f (ai , aj ) = αij . Então, por definição,
νAB (f ) = A.
Exemplo 8.1.10. Seja f : R3 × R2 → R a função bilinear f ((x, y, z), (x0 , y 0 )) =
2xx0 +3xy 0 −zy 0 . Achar a matriz representativa a respeito das bases canônicas de R3 e
R2 e a respeito das bases A = {(1, 1, 1), (1, 1, −1), (1, 0, 1)} e B = {(1, 2), (−1, −1)}.
A respeito das bases canônicas obtemos a matriz dos coeficientes, ou seja:
2 3
A = 0 0 .
0 −1
A respeito de A e B, temos que f ((1, 1, 1), (1, 2)) = 6, f ((1, 1, 1), (−1, −1)) = −4 e
assim em diante. Obtemos a matrix:
6 −4
B = 10 −6 .
6 −4
♦
Vamos ver como se comporta a matriz respresentativa mudando as bases. Sejam
A = {a1 , . . . , am } e A0 = {a01 , . . . , a0m } bases de V e sejam B = {b1 , . . . , bn } e
B 0 = {b01 , . . . , b0n } bases de W . Sejam A = [αij ] = νAB (f ) e B = [βij ] = νA0 B0 (f ).
Enfim, sejam C = [γij ] = µ(A, A0 ) e D = [θij ] = µ(B, B 0 ). Temos que:
Pm Pn
βij = f (a0i , b0j ) = f
k=1 γ ki a k , h=1 θhj b h
= m
P Pn Pm Pn
k=1 γ θ
h=1 ki hj f (a ,
k h b ) = k=1 h=1 γki θhj αkh
Pm Pn T
= k=1 h=1 γik αkh θhj
logo:
(241) B = C T AD.
Esta fórmula é parecida com a (21). De fato cada uma pode ser deduzida da outra,
como mostraremos no último capı́tulo. As matrizes C e D são intertı́veis e C T é
invertı́vel se, e somente se, C for, portanto obtemos o seguinte teorema:
Teorema 8.1.11. Sejam A, B ∈ M (m, n). Então existem:
• dois espaço vetoriais finitamente gerados V e W ;
• uma função bilinear f : V × W → R;
• duas bases A, A0 de V e duas bases B, B 0 de W
tais que νAB (f ) = A e νA0 B0 (f ) = B se, e somente se, A e B são µ-equivalentes, ou
seja, se, e somente se, A e B têm o mesmo posto.
Demonstração. ⇒. É consequência direta da fórmula (241) e da definição
2.6.14. ⇐. Sejam C e D matrizes invertı́veis tais que B = C T AD. Sejam V = Rm ,
W = Rn e A e B as bases canônicas. Seja f (v, w) := v T Aw. Então νAB (f ) = A.
Ademais, sejam A0 = A · C e B 0 = B · D. Pela fórmula (241), temos que νA0 B0 (f ) =
B.
Por causa do teorema precedente, podemos dar a seguinte definição.
8.1. FUNÇÕES BILINEARES REAIS 281
Demonstração. (1) ⇒ (3) Seja νA (ϕ) = [αij ]. Por definição αij = ϕ(ai , aj ).
Sendo ϕ simétrica, αij = ϕ(aP i , aj ) = ϕ(aj , ai ) = αji . (3) ⇒ (2) Óbvio. (2) ⇒ (1) Se-
jam v = ni=1 λi ai e w = nj=1 µj aj . Seja νA (ϕ) = [αij ]. Temos que ϕ(v, w) =
P
Pn Pn Pn Pn
i,j=1 λi µj ϕ(ai , aj ) = i,j=1 λi µj αij = i,j=1 λi µj αji = i,j=1 λi µj ϕ(aj , ai ) =
ϕ(w, v).
Em particular, as formas simétricas em Rn são da forma ϕ(v, w) = v T Aw, sendo
A simétrica.
Definição 8.2.3. Uma forma bilinear ϕ ∈ Bil(V ) é dita antissimétrica se
ϕ(v, w) = −ϕ(w, v) para todos v, w ∈ V . Denotamos por BilAS(V ) o conjunto
das formas bilineares antissimétricas em V . ♦
É imediato verificar que BilAS(V ) é um sub-espaço vetorial de Bil(V ). Destaca-
mos que, se ϕ ∈ BilAS(V ), temos que ϕ(v, v) = 0 para todo v ∈ V .
Lema 8.2.4. Seja ϕ ∈ BilAS(V ). Os seguintes fatos são equivalentes:
(1) ϕ é antissimétrica;
(2) existe uma base A de V tal que νA (ϕ) é uma matriz antissimétrica;
(3) para toda base A de V , a matriz νA (ϕ) é antissimétrica.
A prova é análoga à do lema 8.2.2. Existem duas projeções naturais:
πS : Bil(V ) → BilSim(V ) πA : Bil(V ) → BilAS(V )
(246)
ϕ 7→ ϕs ϕ 7→ ϕa
sendo:
1 1
ϕs (v, w) := 2
ϕ(v, w) + ϕ(w, v) ϕa (v, w) := 2
ϕ(v, w) − ϕ(w, v) .
É imediato provar que πS e πA são projeções. É claro que BilSim(V ) ∩ BilAS(V ) =
{0}, pois, se ϕ ∈ BilSim(V ) ∩ BilAS(V ), temos que ϕ(w, v) = −ϕ(w, v) para todos
w, v ∈ V , logo ϕ = 0. Ademais, πS + πA = idBil(V ) , portanto:
(247) Bil(V ) = BilSim(V ) ⊕ BilAS(V ).
Consideremos a função (245): a restrição dela a BilSim(V ) é injetora, enquanto a
restrição a BilAS(V ) é nula. De fato, seja Φ = Q(ϕ), sendo ϕ ∈ BilSim(V ). Então
Φ(v + w) = ϕ(v + w, v + w) = Φ(v) + 2ϕ(v, w) + Φ(w), portanto:
ϕ(v, w) = 12 Φ(v + w) − Φ(v) − Φ(w) .
(248)
A fórmula (248) generaliza (??) e mostra que, se uma forma quadrática Φ está
na imagem de Q|BilSim(V ) , a função bilinear ϕ de que é imagem é única, pois ϕ
é completamente determinada por Φ. Ademais, conforme a fórmula (247), seja
ϕ = ϕs + ϕa . Como Q(ϕa ) = 0 e Q é linear, temos que Q(ϕ) = Q(ϕs ), portanto,
dadas ϕ, ψ ∈ Bil(V ), temos que Q(ϕ) = Q(ψ) se, e somente se, ϕs = ψs , se, e
somente se, ϕ − ψ é antissimétrica.
Como Q(ϕ) = Q(ϕs ), temos que Im(Q) = Im(Q|BilSim(V ) ), portanto, para mos-
trarmos que Q não é sobrejetora, é suficiente achar uma forma quadrâtica que
não está na imagem de Q|BilSim(V ) . Dada uma forma quadrática Φ ∈ Quad(V ),
a forma Φ está na imagem de Q|BilSim(V ) se, e somente se, (248) é bilinear. Para
284 8. FORMAS BILINEARES E HERMITIANAS
sendo igual a 0 se, e somente se, µi = 0 para todo i, se, e somente se, v = 0.
É claro que para A = In obtemos o produto escalar canônico. Dado um espaço
vetorial genérico V , podemos considerar um isomorfismo ϕ : V → Rn e o pull-back
de um produto escalar em Rn . Isso mostra que todo espaço vetorial tem um (na
verdade, infinitos) produto interno. A matriz representativa a respeito de uma base
qualquer é simétrica e definida positiva.
8.4. PRODUTO INTERNO 285
Exemplo 8.4.5. Verificar que a forma bilinear h(x, y, z), (x0 , y 0 , z 0 )i := xx0 −
xy − x0 y + 2yy 0 + zz 0 é um produto escalar em R3 .
0
É uma matriz simétrica, portanto devemos verificar que seja definida positiva. Um
autovalor é 4. Ademais, considerando a submatriz A0 obtida tirando a segunda linha
e a segunda coluna, temos que det(A0 ) = 1 > 0 e Tr(A0 ) = 7 > 0, logo também os
dois demais autovalores são positivos.
Para acharmos uma base ortonormal de R3 , partimos da base canônica e apli-
camos o método de Grahm-Schmidt. Temos que ke1 k2 = eT1 Ae1 = 2, portanto
a1 = √12 e1 = √12 , 0, 0 . Ademais, he2 , a1 i = √12 eT2 Ae1 = 0, portanto a02 = e2 .
Como ke2 k2 = eT2 Ae2 = 4, temos a2 = 0, 12 , 0 . Enfim, he3 , a1 i = √12 eT3 Ae1 = √32
♦
A fórmula (??) vale sem variações, assim como a definição de função linear
ortogonal, entre dois espaços vetoriais genéricos V e W , a observação 4.4.2, o lema
4.4.3 e o corolário 4.4.4.
A respeito da observação 4.4.5, a conta era muito simples pois a base canônica é
ortonormal a respeito do produto escalar canônico. Vamos ver o que acontece com
um produto escalar genérico. Seja f : Rn → Rm , f (v) = Av. Consideremos os
produtos escalares hv, wi = v T Xw em Rn e hv, wi = v T Y w em Rm . A função f é
ortogonal se, e somente se:
hAv 1 , Av 2 i = hv 1 , v 2 i ∀v 1 , v 2 ∈ Rn
v T1 AT Y Av 2 = v T1 Xv 2 ∀v 1 , v 2 ∈ Rn
AT Y A = X.
Ademais, he2 , a1 i = √12 eT2 Xe1 = 1, portanto a02 = e2 − √12 √12 , 0 = − 12 , 1 . Temos
que ka02 k2 = a02 Xa02 = 12 , logo a2 = − √12 , √22 . Obtemos a base ortonormal A =
1
√ , 0 , − √1 , √2
2 2 2
. Portanto, a respeito de A, uma rotação é representada por
uma matriz ortogonal especial, ou seja, da forma:
cos θ − sin θ
Rθ = .
sin θ cos θ
8.4. PRODUTO INTERNO 289
Temos que f (1, 0) = (1, 1, 0) = (1, 0, 0) + (0, 1, 0) e f (0, √12 ) = (0, 0, √12 ) =
√1 (1, 0, 0) + (− √1 , 0, √1 , portanto:
2 2 2
1 √12
µAB (f ) = 1 0 .
0 1
Sendo A e B ortonormais,
∗ µBA (f ∗ ) = µAB (f )T , portanto f ∗ (1, 0, 0) = (1, 0) +
1 1 ∗
= 1, 2 , f (0, 1, 0) = (1, 0) e f − √2 , 0, √2 = 0, √12 . Isso implica
1 1 1
√ 0, √
2 2 √
que f ∗ (0, 0, 1) = f ∗ (1, 0, 0) + 2f ∗ − √12 , 0, √12 = 1, 32 . Logo:
f ∗ (a + bx + cx2 ) = a + b + c, 12 a + 32 c .
e:
1 0 x0 + y 0 + z 0
∗ 0 0 0
= xx0 + xz 0 + xy 0 + yx0 + 3yz 0 .
h(x, y), f (x , y , z )i = x y 1 0 3 0
0 2 2
x + 2
z
♦
Também a definição de endomorfismo simétrico ou auto-adjunto, assim como o
lema 4.5.6, ficam válidas. A respeito da observação 4.5.7, de novo se baseava no fato
que a base canônica de Rn é ortonormal para o produto canônico. Em geral, para
um produto escalar representado por X, temos:
hAv 1 , v 2 i = hv 1 , Av 2 i ∀v 1 , v 2 ∈ Rn
v T1 AT Xv 2 = v T1 XAv 2 ∀v 1 , v 2 ∈ Rn
AT X = XA
(XA)T = XA.
Isso mostra que XA tem que ser simétrica. O mesmo vale para um produto qualquer
a respeito de uma base qualquer, naõ necessariamente ortonormal.
A respeito da orientação, vale o que já vimos, pois não depende do produto
escalar. Portanto, a definição de rotação vale sem variações.
DOIS PRODUTOS ESCALARES NO MESMO ESPAÇO TÊM UMA BASE
ORTOGONAL COMUM, EM Rn É A BASE ORTONORMAL DE AUTOVETO-
RES DA MATRIZ REPRESENTATIVA.
PROD ESCALAR ÚNICO A MENOS DI PULL-BACK POR AUTOMOR-
FISMO
9.1. Dualidade
Dados dois K-espaços vetoriais V e W , vimos que o conjunto das funções lineares
de V a W possui uma estrutura natural de K-espaço vetorial, definida por (f +
g)(v) := f (v) + g(v) e (λf )(v) := λ · f (v). Isso vale em particular para W = K,
portanto podemos dar a seguinte definição.
Definição 9.1.1. Seja V um K-espaço vetorial. O espaço vetorial dual de V é
o seguinte K-espaço vetorial:
V ∗ := Hom(V, K).
Os elementos de V ∗ são ditos funcionais lineares. ♦
Como dim Hom(V, W ) = dim V · dim W , em particular dim V ∗ = dim V .
Definição 9.1.2. Seja A = {a1 , . . . , an } uma base de V . A base dual de A é a
famı́lia de funcionais lineares A∗ := {a∗1 , . . . , a∗n } definida por a∗i (aj ) = δij . ♦
Isso significa que o funcional a∗i é a única função linear de V a K que vale 1 em
ai e 0 nos demais elementos da base A, logo:
(251) a∗i (λ1 a1 + · · · + λn an ) = λi ,
ou seja, o funcional a∗i seleciona a i-ésima coordenada de um vetor em relação à base
A. Obviamente o nome “base dual” é motivado pelo seguinte lema.
Lema 9.1.3. Se A for uma base de V , então A∗ é uma base de V ∗ .
Demonstração. Seja ϕ = λ1 a∗1 + · · · + λn a∗n ∈ V ∗ . Como a∗i (aj ) = δij por
definição, temos que ϕ(ai ) = λi , portanto, se ϕ = 0, então λi = 0 para todo i.
Isso demonstra que A∗ é independente. Como dim V ∗ = dim V , isso é suficiente,
mas vamos demonstrar também que A∗ gera V ∗ . Suponhamos que ϕ ∈ V ∗ seja um
elemento genérico. Seja λi := ϕ(ai ). Como também (λ1 a∗1 + · · · + λn a∗n )(ai ) = λi e
A é uma base, temos que ϕ = λ1 a∗1 + · · · + λn a∗n , logo todo elemento de V ∗ é uma
combinação linear de A∗ .
295
296 9. DUALIDADE E PRODUTO TENSOR
Observação 9.1.6. Para o leitor que conheça a linguagem das categorias, seja
VectK a categoria dos espaços vetoriais sobre K. Acabamos de definir um functor
contravariante ∗ : Vectop
K → VectK , cuja ação entre os objetos é definida por V 7→ V
∗
T
e cuja ação entre os morfismos é definida por f 7→ f . ♦
O lema precedente pode ser formulado afirmando que o seguinte diagrama co-
muta:
Hom(V, W )
T / Hom(W ∗ , V ∗ )
µAB µB∗ A∗
M (m, n; K)
T / M (n, m; K).
9.1. DUALIDADE 297
V
Φ / V ∗∗
f fTT
W
Φ / W ∗∗ .
De fato, para todo ψ ∈ W ∗ , temos que:
f T T (Φ(v)) (ψ) = (Φ(v) ◦ f T )(ψ) = Φ(v)(f T (ψ))
9.1.3. Anulador. Vamos mostrar que a dualidade induz uma bijeção entre os
sub-espaços vetoriais de V e os sub-espaços vetoriais de V ∗ .
Definição 9.1.12. Seja A ⊂ V um subconjunto. O anulador de A é o sub-
espaço vetorial de V ∗ formado pelos funcionais que se anulam em A, ou seja:
An(A) := {ϕ ∈ V ∗ : ϕ(v) = 0 ∀v ∈ A}. ♦
♦
Claramente, se A for finito e contiver n elementos, então KhAi ' Kn . O iso-
morfismo não é canônico, pois é necessário fixar uma ordem em A para mandar o
elemento i-ésimo de A no elemento i-ésimo da base canônica de Kn .
Definição 9.2.2. Sejam V e W dois espaços vetoriais sobre K. Consideremos o
espaço vetorial KhV × W i. Seja I ⊂ KhV × W i o sub-espaço vetorial gerados pelos
elementos de uma das duas seguintes formas:
• (λv + µv 0 , w) − λ(v, w) − µ(v 0 , w);
• (v, λw + µw0 ) − λ(v, w) − µ(v, w0 ),
300 9. DUALIDADE E PRODUTO TENSOR
Permutações
301
APÊNDICE B
303