Introdução À Algebra Linear 2 - Hamilton UFMG EAD

Fazer download em pdf ou txt
Fazer download em pdf ou txt
Você está na página 1de 163

INTRODUÇÃO À ÁLGEBRA LINEAR

Hamilton Prado Bueno

8 de agosto de 2018
Sumário

1 Matrizes e Sistemas Lineares 1


1.1 O Corpo dos Números Complexos . . . . . . . . . . . . . 1
1.2 Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Multiplicação de Matrizes . . . . . . . . . . . . . . . . . 8
1.4 Sistemas Lineares e o Método de Gauss-Jordan . . . . . . 11
1.5 Matrizes Elementares . . . . . . . . . . . . . . . . . . . . 23
1.6 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . 27

2 Espaços Vetoriais 32
2.1 O espaço ℝ𝑛 . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.2 O espaço ℂ𝑛 . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.3 Espaços Vetoriais Abstratos . . . . . . . . . . . . . . . . . 35
2.4 Subespaços . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.5 Base e Dimensão . . . . . . . . . . . . . . . . . . . . . . 49
2.6 Obtenção de Bases . . . . . . . . . . . . . . . . . . . . . 55
2.7 Representação de um Vetor em uma Base . . . . . . . . . 57
2.8 Somas Diretas . . . . . . . . . . . . . . . . . . . . . . . . 60
2.9 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . 62

3 Produto Interno 66
3.1 Propriedades Básicas . . . . . . . . . . . . . . . . . . . . 66
3.2 Norma . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
3.3 Bases Ortonormais . . . . . . . . . . . . . . . . . . . . . 73
3.4 Ortogonalização de Gram-Schmidt . . . . . . . . . . . . . 76
3.5 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . 81

4 Aplicações Lineares 84
4.1 Teorema do Núcleo e da Imagem . . . . . . . . . . . . . . 84
4.2 Aplicações Lineares e Matrizes . . . . . . . . . . . . . . . 89
4.3 Composição e Multiplicação . . . . . . . . . . . . . . . . 99
4.4 Espaço Linha e Espaço Coluna . . . . . . . . . . . . . . . 103
4.5 Sistemas Lineares, Pivôs e Variáveis Livres . . . . . . . . 107
4.6 Bases Ortogonais e Aplicações Lineares . . . . . . . . . . 109
4.7 O Teorema de Representação de Riesz . . . . . . . . . . . 111
4.8 A Adjunta de uma Aplicação Linear . . . . . . . . . . . . 112
4.9 Decomposições Ortogonais de Espaços . . . . . . . . . . 114
4.10 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . 116

iii
5 Diagonalização 121
5.1 Subespaços Invariantes . . . . . . . . . . . . . . . . . . . 121
5.2 Autovalores e Autovetores . . . . . . . . . . . . . . . . . 122
5.3 Autovetores e Diagonalização . . . . . . . . . . . . . . . 126
5.4 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . 132

6 O Teorema Espectral 135


6.1 A Complexificação de um Espaço Vetorial . . . . . . . . . 135
6.2 Operadores Ortogonais . . . . . . . . . . . . . . . . . . . 138
6.3 O Teorema Espectral . . . . . . . . . . . . . . . . . . . . 140
6.4 Identificação de Cônicas . . . . . . . . . . . . . . . . . . 145
6.4.1 Elipse . . . . . . . . . . . . . . . . . . . . . . . . 146
6.4.2 Hipérbole . . . . . . . . . . . . . . . . . . . . . . 148
6.4.3 Parábola . . . . . . . . . . . . . . . . . . . . . . . 149
6.4.4 A equação 𝐴𝑥21 + 𝐵𝑥1 𝑥2 + 𝐶𝑥22 + 𝐹 =0 . . . . . 150
6.4.5 O estudo da equação completa (6.2) . . . . . . . . 155
6.5 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . 156
Capítulo 1

Matrizes e Sistemas Lineares

Objetivos: No final do capítulo o aluno deverá:


1. saber operar com matrizes;
2. saber resolver um sistema pelo método de Gauss-Jordan;
3. saber relacionar as soluções de um sistema linear com o sistema ho-
mogêneo associado;
4. saber calcular a inversa de uma matriz invertível;
5. tornar-se familiar com a linguagem abstrata utilizada em todo este
texto.

1.1 O Corpo dos Números Complexos


Em alguns momentos de nosso curso precisaremos de conhecimentos
básicos sobre os números complexos. A exposição que faremos é comple-
tamente elementar.
O corpo dos números complexos é o conjunto
ℂ = {𝑎 + 𝑏𝑖 ∶ 𝑎, 𝑏 ∈ ℝ},
com as operações de adição e multiplicação definidas por
(𝑎1 + 𝑏1 𝑖) + (𝑎2 + 𝑏2 𝑖) = (𝑎1 + 𝑎2 ) + (𝑏1 + 𝑏2 )𝑖
(𝑎1 + 𝑏1 𝑖)(𝑎2 + 𝑏2 𝑖) = (𝑎1 𝑎2 − 𝑏1 𝑏2 ) + (𝑎1 𝑏2 + 𝑎2 𝑏1 )𝑖,
em que 𝑎1 , 𝑏1 , 𝑎2 , 𝑏2 ∈ ℝ. Usualmente denotaremos números complexos
pela letra 𝑧.
Identificaremos o número complexo 𝑎 + 0𝑖 com o número real 𝑎. Com
isso, o conjunto (corpo) dos números reais torna-se um subconjunto dos
números complexos. Em particular, todo resultado válido para quaisquer
números complexos também será válido para quaisquer números reais.
Denotaremos o número complexo 0 + 𝑏𝑖 simplesmente por 𝑏𝑖; se 𝑏 = 1,
escreveremos apenas 𝑖. (Veja a propriedade (𝑣𝑖𝑖), na sequência.) Decorre
da definição de multiplicação de números complexos que 𝑖2 = −1.
É fácil verificar que as operações no conjunto dos números complexos
satisfazem as seguintes propriedades: se 𝑧1 , 𝑧2 e 𝑧3 são números complexos
quaisquer, então temos:

1
2 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES

(𝑖) 𝑧1 + 𝑧2 = 𝑧2 + 𝑧1 (comutatividade da adição);

(𝑖𝑖) (𝑧1 + 𝑧2 ) + 𝑧3 = 𝑧1 + (𝑧2 + 𝑧2 ) (associatividade da adição);

(𝑖𝑖𝑖) 𝑧1 + 0 = 𝑧1 (elemento neutro aditivo);

(𝑖𝑣) existe um único 𝑧2 ∈ ℂ tal que 𝑧1 + 𝑧2 = 0 (existência do simétrico);

(𝑣) 𝑧1 𝑧2 = 𝑧2 𝑧1 (comutatividade da multiplicação);

(𝑣𝑖) (𝑧1 𝑧2 )𝑧3 = 𝑧1 (𝑧2 𝑧3 ) (associatividade da multiplicação);

(𝑣𝑖𝑖) 1𝑧1 = 𝑧1 (elemento neutro multiplicativo);

(𝑖𝑖𝑖) se 𝑧1 ≠ 0, então existe um único 𝑧2 ∈ ℂ tal que 𝑧1 𝑧2 = 1 (existência


do inverso);

(𝑖𝑥) 𝑧1 (𝑧2 + 𝑧3 ) = 𝑧1 𝑧2 + 𝑧1 𝑧3 (distributividade).

Por causa dessas propriedades, ℂ é chamado corpo. Como mencionamos


anteriormente, essas propriedades são válidas, em particular, para o subcon-
junto dos números reais, que também é um corpo.
Também delas decorre que a multiplicação de números complexos é
feita de maneira “usual”, substituindo 𝑖2 = −1.

Exemplo 1.1 A multiplicação de 𝑧1 = (2 + 𝑖) ∈ ℂ por 𝑧2 = (1 − 2𝑖) é feita


da maneira usual:

𝑧1 𝑧2 = (2 + 𝑖)(1 − 2𝑖) = 2(1 − 2𝑖) + 𝑖(1 − 2𝑖)


= 2 − 4𝑖 + 𝑖 − 2𝑖2 = 2 + 2 − 3𝑖 = 4 − 3𝑖. ⊲

É claro que, se 𝑧1 = 𝑎 + 𝑏𝑖, então seu simétrico é 𝑧2 = −𝑎 − 𝑏𝑖. Por isso,


vamos denotar o simétrico de 𝑧1 por −𝑧1 , ou seja, 𝑧1 + (−𝑧1 ) = 0. A intro-
dução dessa notação nos permite definir a subtração de números complexos:
𝑧1 − 𝑧2 = 𝑧1 + (−𝑧2 ), em que −𝑧2 é o simétrico de 𝑧2 .
Note que a comutatividade da multiplicação de números complexos nos
permite escrever 𝑎 + 𝑏𝑖 = 𝑎 + 𝑖𝑏 para quaisquer 𝑎, 𝑏 ∈ ℝ.
Se 𝑧1 ≠ 0, vamos denotar o único inverso de 𝑧1 por 1/𝑧1 . A unicidade
desse inverso nos permite definir a divisão de um número complexo 𝑧2 pelo
número complexo não nulo 𝑧1 : 𝑧2 /𝑧1 = 𝑧2 (1/𝑧1 ) = (1/𝑧1 )𝑧2 .
Se 𝑧 ∈ ℂ e 𝑚 ∈ ℕ = {1, 2, …}, definimos

(𝑧1 )𝑚 = 𝑧𝑚
1 = (𝑧 1 𝑧1 … 𝑧 1 )
⏟⏟⏟⏟⏟⏟⏟⏟⏟

m vezes
É fácil verificar que, se 𝑚, 𝑛 ∈ ℕ, então (𝑧𝑚 𝑛 𝑚𝑛 𝑚 𝑚 𝑚
1 ) = 𝑧1 e (𝑧1 𝑧2 ) = 𝑧1 𝑧2 .
Uma vez que 𝑧𝑚1 = 0 implica 𝑧1 = 0, podemos definir, para 𝑧1 ≠ 0

𝑧−𝑚 𝑚
1 = 1/𝑧1 .

Se 𝑧1 ≠ 0, uma vez que 𝑧𝑚 𝑚 0


1 /𝑧1 = 1, convencionaremos que 𝑧 = 1 para
todo 𝑧 ∈ ℂ.
1.1. O CORPO DOS NÚMEROS COMPLEXOS 3

Dado um número complexo 𝑧 = 𝑎 + 𝑏𝑖, definimos

ℜ𝔢 𝑧 = 𝑎 ∈ ℝ e ℑ𝔪 𝑧 = 𝑏 ∈ ℝ,

chamados, respectivamente, de parte real e parte imaginária do número


complexo 𝑧.
Agora vamos introduzir duas notações que serão muito úteis. Definimos
o conjugado 𝑧 ̄ do número complexo 𝑧 = 𝑎 + 𝑏𝑖 por

𝑧 ̄ = 𝑎 + 𝑏𝑖 = 𝑎 − 𝑏𝑖 = ℜ𝔢 𝑧 − (ℑ𝔪 𝑧)𝑖

e o valor absoluto do número complexo 𝑧 = 𝑎 + 𝑏𝑖 por

|𝑧| = |𝑎 + 𝑏𝑖| = √𝑎2 + 𝑏2 = √𝑧𝑧.̄

(Note que 𝑧𝑧 ̄ = (𝑎 + 𝑏𝑖)(𝑎 − 𝑏𝑖) = (𝑎2 + 𝑏2 ) + (−𝑎𝑏 + 𝑎𝑏)𝑖 = 𝑎2 + 𝑏2 , um


número real não negativo.)
Se 𝑧1 = 𝑎1 + 𝑏1 𝑖 e 𝑧2 = 𝑎2 + 𝑏2 𝑖 ≠ 0, então
𝑧1 𝑎 + 𝑏1 𝑖 𝑎1 + 𝑏1 𝑖 𝑎2 − 𝑏2 𝑖
= 1 =
𝑧2 𝑎2 + 𝑏2 𝑖 𝑎2 + 𝑏2 𝑖 𝑎2 − 𝑏2 𝑖
(𝑎 + 𝑏1 𝑖)(𝑎2 − 𝑏2 𝑖) (𝑎1 𝑎2 + 𝑏1 𝑏2 ) + (𝑏1 𝑎2 − 𝑎1 𝑏2 )𝑖
= 1 = .
(𝑎2 + 𝑏2 𝑖)(𝑎2 − 𝑏2 𝑖) 𝑎2 + 𝑏 22 2

Ou seja, a multiplicação pelo conjugado do denominador transforma a di-


visão de números complexos na divisão de um número complexo por um
número real,

Exemplo 1.2 Para 𝑧1 = 1 + 𝑖 e 𝑧2 = 1 − 2𝑖, temos

𝑧1̄ = 1 − 𝑖
|𝑧2 | = √12 + (−2)2 = √5
𝑧1 1+𝑖 (1 + 𝑖)(1 + 2𝑖) −1 − 𝑖
= = =
𝑧2 1 − 2𝑖 √5 √5 ⊲

Exercício 1.1 Mostre que as seguintes propriedades são verdadeiras para quaisquer números com-
plexos:
(a) 𝑧 + 𝑧 ̄ = 2ℜ𝔢 𝑧;
(b) 𝑧 − 𝑧 ̄ = 2(ℑ𝔪 𝑧)𝑖;
(c) 𝑧1 + 𝑧2 = 𝑧1̄ + 𝑧2̄ ;
(d) 𝑧1 𝑧2 = 𝑧1̄ 𝑧2̄ ;
(e) 𝑧 ̄ = 𝑧;
(f) |ℜ𝔢 𝑧| ≤ |𝑧|;
(g) |ℑ𝔪 𝑧| ≤ |𝑧|;
(h) |𝑧| = |𝑧|;
̄
(i) |𝑧1 𝑧2 | = |𝑧1 | |𝑧2 |
4 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES

Exemplo 1.3 Para quaisquer números 𝑧1 , 𝑧2 ∈ ℂ vale

|𝑧1 + 𝑧2 | ≤ |𝑧1 | + |𝑧2 |.

De fato,

|𝑧1 + 𝑧2 |2 = (𝑧1 + 𝑧2 )(𝑧1 + 𝑧2 ) = (𝑧1 + 𝑧2 )(𝑧1̄ + 𝑧2̄ )


= 𝑧1 𝑧1̄ + 𝑧1 𝑧2̄ + 𝑧2 𝑧1̄ + 𝑧2 𝑧2̄
= |𝑧1 |2 + 𝑧1 𝑧2̄ + 𝑧1 𝑧2̄ + |𝑧2 |2 = |𝑧1 |2 + 2ℜ𝔢 (𝑧1 𝑧2̄ ) + |𝑧2 |2
≤ |𝑧1 |2 + 2|𝑧1 𝑧2̄ | + |𝑧2 |2 = |𝑧1 |2 + 2|𝑧1 | |𝑧2 | + |𝑧2 |2
= (|𝑧1 | + |𝑧2 |)2 .

O resultado é obtido ao se tomar a raiz quadrada em ambos os lados dessa


desigualdade. (Note que estamos tomando a raiz quadrada de números reais
não negativos.) ⊲

Exercício 1.2 Utilizando as propriedades enunciadas no Exercício 1.1, justifique cada passagem
feita no Exemplo anterior.

Definição 1.4 Um número 𝜆 ∈ ℝ ou 𝜆 ∈ ℂ é chamado escalar.

1.2 Matrizes
Uma matriz 𝑚×𝑛 (com 𝑚, 𝑛 ∈ ℕ = {1, 2, …}) é uma tabela de escalares
(reais ou complexos), dispostos em 𝑚 linhas e 𝑛 colunas:

⎛ 𝑎11 𝑎12 ⋯ 𝑎1𝑛 ⎞


⎜𝑎 𝑎22 ⋯ 𝑎2𝑛 ⎟
𝐴 = (𝑎𝑖𝑗 ) = ⎜ 21 (1.1)
⋮ ⋮ ⋱ ⋮ ⎟
⎜ ⎟
⎝𝑎𝑚1 𝑎𝑚2 ⋯ 𝑎𝑚𝑛 ⎠

O elemento 𝑎𝑖𝑗 é a entrada correspondente à linha 𝑖 e à coluna 𝑗 da matriz 𝐴.


Uma matriz é nula se todas as suas entradas forem iguais a zero. Se todas
as entradas 𝑎𝑖𝑗 da matriz 𝐴 forem reais, dizemos que a 𝐴 é uma matriz real.
Se existir alguma entrada 𝑎𝑖𝑗 ∈ ℂ ⧵ ℝ, então 𝐴 é uma matriz complexa.
(Observe que, se a entrada 𝑎𝑖𝑗 ∈ ℝ então 𝑎𝑖𝑗 ∈ ℂ.)
Denotaremos por 𝕂 o conjunto (corpo) dos números reais ou o conjunto
(corpo) dos números complexos. Um resultado válido para uma matriz 𝐴
com entradas em 𝕂 vale no caso de 𝐴 ser uma matriz real ou uma matriz
complexa.
Se 𝑚 = 𝑛, dizemos que a matriz 𝐴 é quadrada. Por exemplo, é quadrada
a matriz 3 × 3
⎛2 3 5⎞
𝐵 = ⎜ 7 11 13⎟ .
⎜ ⎟
⎝17 19 23⎠
1.2. MATRIZES 5

Dada uma matriz quadrada

⎛𝛼11 𝛼12 ⋯ 𝛼1𝑛 ⎞


⎜𝛼21 𝛼22 ⋯ 𝛼2𝑛 ⎟
⎜ ⋮ ,
⋮ ⋱ ⋮ ⎟
⎜ ⎟
⎝𝛼𝑛1 𝛼𝑚2 ⋯ 𝛼𝑛𝑛 ⎠
sua diagonal principal é aquela determinada pelas entradas 𝛼11 , 𝛼22 , … , 𝛼𝑛𝑛 .
Uma matriz quadrada é diagonal se forem nulas todas as entradas fora da
diagonal principal. Uma matriz é triangular superior se todas as entradas
abaixo da diagonal principal forem nulas, isto é, 𝑎𝑖𝑗 = 0 se 𝑖 > 𝑗. Analoga-
mente se define matriz triangular inferior: devemos ter 𝑎𝑖𝑗 = 0 se 𝑖 < 𝑗.
Se 𝑚 = 1, temos uma matriz linha e, se 𝑛 = 1, uma matriz coluna.
Assim, as matrizes

⎛2⎞
𝐶 = (1 2 3 5 7 ) e 𝐷 = ⎜4⎟
⎜ ⎟
⎝8⎠
são, respectivamente, uma matriz linha 1 × 5 e uma matriz coluna 3 × 1.
Matrizes 1 × 1 podem ser identificadas com números em 𝕂.
A transposta de uma matriz 𝐴, que será denotada por 𝐴𝒕 , é obtida de
𝐴 ao trocar sua linha por suas colunas. Sendo mais preciso, se 𝐴 = (𝑎𝑖𝑗 ),
então
𝐴𝒕 = (𝑎𝑗𝑖 ).
Assim, a transposta da matriz 𝐵 (definida anteriormente) é a matriz

⎛2 7 17⎞
𝐵 = ⎜3 11 19⎟ ,
𝒕
⎜ ⎟
⎝5 13 23⎠
enquanto a transposta da matriz coluna 𝐷 (também definida anteriormente)
é a matriz linha
𝐷 𝒕 = (2 4 8 ) .
A conjugada 𝐴̄ de uma matriz 𝐴 é obtida ao se tomar o conjugado de
cada entrada da matriz 𝐴. Por exemplo, se

⎛ 5 𝑖 1 − 𝑖⎞
𝐴 = ⎜ −𝑖 3 3𝑖 ⎟
⎜ ⎟
⎝1 + 𝑖 −3𝑖 2 ⎠
então
⎛ 5 −𝑖 1 + 𝑖⎞
𝐴̄ = ⎜ 𝑖 3 −3𝑖 ⎟ .
⎜ ⎟
⎝1 − 𝑖 3𝑖 2 ⎠
É claro, se 𝐴 for uma matriz real, então 𝐴̄ = 𝐴.
Denotaremos por 𝐴∗ a matriz transposta conjugada da matriz 𝐴: 𝐴∗ =
𝒕̄
𝐴 . No caso da matriz 𝐴 dada acima, temos

⎛ 5 𝑖 1 − 𝑖⎞
𝐴∗ = ⎜ −𝑖 3 3𝑖 ⎟ .
⎜ ⎟
⎝1 + 𝑖 −3𝑖 2 ⎠
6 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES

Uma matriz é chamada de autoadjunta se 𝐴 = 𝐴∗ . A matriz 𝐴 dada acima


é autoadjunta. Mais geralmente, se 𝐴 = (𝑎𝑖𝑗 ) for autoadjunta, é fácil ver que
devemos ter 𝑎𝑖𝑗 = 𝑎𝑗𝑖 ̄ , para quaisquer 𝑖, 𝑗 (e, em particular, 𝑎𝑖𝑖 ∈ ℝ). Se a
matriz 𝐴 for real, uma matriz autoadjunta também é chamada simétrica.
Uma submatriz de 𝐴 é uma matriz obtida de 𝐴 ao se omitir alguma(s)
de sua(s) linha(s) e/ou coluna(s). Assim,

2 3 5 ⎛3 5⎞
𝐸= 𝐹 = ⎜11 13⎟ e 𝐺 = (2)
(7 11 13) ⎜ ⎟
⎝19 23⎠

são submatrizes de 𝐵 (dada anteriormente): em 𝐸, a terceira linha de 𝐵 foi


omitida; em 𝐹, a primeira coluna; e, em 𝐺, a segunda e terceira linhas, bem
como a segunda e terceira colunas.

Exercício 1.3 Considerando as matrizes definidas anteriormente,


(𝑖) escreva todas as submatrizes da matriz 𝐵;
(𝑖𝑖) Escreva as transpostas das matrizes 𝐶, 𝐸, 𝐹, 𝐺 e 𝐵 𝒕 .

Mas uma matriz pode ser concebida de duas outras maneiras: como uma
linha de matrizes coluna ou como uma coluna de matrizes linha. Assim, a
matriz 𝐴 que antes definimos pode ser entendida nas formas

⎛ ℓ1 ⎞
𝐴 = (𝒄1 𝒄2 … 𝒄𝑛 ) = ⎜ ⋮ ⎟ , (1.2)
⎜ ⎟
⎝ℓ𝑚 ⎠
em que
⎛ 𝑎1𝑗 ⎞
𝒄𝑗 = ⎜ ⋮ ⎟ e ℓ𝑖 = (𝑎𝑖1 𝑎𝑖2 ⋯ 𝑎𝑖𝑛 ).
⎜ ⎟
⎝𝑎𝑚𝑗 ⎠
(Outra maneira de interpretar uma matriz será apresentada no Capítulo 4.)

Definição 1.5 Sejam 𝐴 = (𝑎𝑖𝑗 ) e 𝐵 = (𝑏𝑖𝑗 ) matrizes 𝑚 × 𝑛. Definimos a


soma de matrizes 𝐴 + 𝐵 e a multiplicação 𝜆𝐴 da matriz 𝐴 pelo escalar 𝜆
por
𝐴 + 𝐵 = (𝑎𝑖𝑗 + 𝑏𝑖𝑗 ) e 𝜆𝐴 = (𝜆𝑎𝑖𝑗 ).

Em palavras, a matriz 𝐴+𝐵 é obtida ao somar as entradas correspondentes


das matrizes 𝐴 e 𝐵 e a matriz 𝜆𝐴 é obtida ao multiplicar cada entrada
de 𝐴 pelo escalar 𝜆. Com essas operações, o conjunto das matrizes 𝑚 ×
𝑛 é denotado por 𝕄𝑚×𝑛 ou, mais detalhadamente, 𝕄𝑚×𝑛 (𝕂). Quando for
importante ressaltar que 𝐴 é uma matriz real ou complexa, escreveremos
𝐴 ∈ 𝕄𝑚×𝑛 (ℝ) ou 𝐴 ∈ 𝕄𝑚×𝑛 (ℂ), respectivamente.

Dizemos que 𝐴 = (𝑎𝑖𝑗 ) ∈ 𝕄𝑚×𝑛 e 𝐵 = (𝑏𝑖𝑗 ) ∈ 𝕄𝑚×𝑛 são iguais se


𝑎𝑖𝑗 = 𝑏𝑖𝑗 para todos 𝑖 ∈ {1, … , 𝑚} e 𝑗 ∈ {1, … , 𝑛}.
1.2. MATRIZES 7

Exercício 1.4 Sejam


⎛1 2 3⎞ ⎛𝑏 2 3⎞
𝐴 = ⎜3 2 1⎟ e 𝐵 = ⎜3 𝑐 𝑑⎟ .
⎜ ⎟ ⎜ ⎟
⎝1 𝑎 7⎠ ⎝1 1 7⎠
Determine os valores de 𝑎, 𝑏, 𝑐, 𝑑 ∈ ℝ de modo que as matrizes 𝐴 e 𝐵 sejam iguais.

Exemplo 1.6 Considere as matrizes 2 × 3

1 𝜋 𝑒3 √5 1 3
𝐴= e 𝐵= .
(2 √2 1 ) ( 1 √2 𝑖 )

Então

1 + √5 1 + 𝜋 3 + 𝑒 3 𝜋 𝜋 2 𝜋𝑒3
𝐴+𝐵 = e 𝜋𝐴 = .
( 3 2 √2 1 + 𝑖 ) (2𝜋 √2𝜋 𝜋 )

Teorema 1.7 Para quaisquer 𝐴, 𝐵, 𝐶 ∈ 𝕄𝑚×𝑛 (𝕂) e 𝜆, 𝜇 ∈ 𝕂, as seguintes


propriedades são satisfeitas

(𝑖) 𝐴 + 𝐵 ∈ 𝕄𝑚×𝑛 (fechamento da soma);

(𝑖𝑖) (𝐴 + 𝐵) + 𝐶 = 𝐴 + (𝐵 + 𝐶) (associatividade da soma);

(𝑖𝑖𝑖) 𝐴 + 𝐵 = 𝐵 + 𝐴 (comutatividade da soma);

(𝑖𝑣) existe 0 ∈ 𝕄𝑚×𝑛 tal que 𝐴 + 0 = 0 + 𝐴 (elemento neutro aditivo);

(𝑣) existe (−𝐴) ∈ 𝕄𝑚×𝑛 tal que 𝐴 + (−𝐴) = 0 (elemento simétrico);

(𝑣𝑖) 𝜆𝐴 ∈ 𝕄𝑚×𝑛 (fechamento da multiplicação por escalar);

(𝑣𝑖𝑖) 𝜇(𝜆𝐴) = (𝜇𝜆)𝐴 (associatividade da multiplicação por escalar);

(𝑣𝑖𝑖𝑖) 𝜆(𝐴 + 𝐵) = 𝜆𝐴 + 𝜆𝐵 (distributividade da multiplicação por escalar);

(𝑖𝑥) (𝜆 + 𝜇)𝐴 = 𝜆𝐴 + 𝜇𝐴 (distributividade da soma de escalares);

(𝑥) 1𝐴 = 𝐴 (regra da unidade).

A verificação de que todas essas propriedades são válidas em 𝕄𝑚×𝑛 é sim-


ples. É claro que 0 ∈ 𝕄𝑚×𝑛 é a matriz nula e (−𝐴) a matriz cujas entradas
são os simétricos das entradas de 𝐴. Denotaremos 𝐴 − 𝐵 = 𝐴 + (−𝐵).
Exercício 1.5 Demonstre o Teorema 1.7.
8 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES

1.3 Multiplicação de Matrizes


Consideremos duas matrizes 𝐴 e 𝐵. Se o número de colunas de 𝐴 for
igual ao número de linhas de 𝐵, é possível definir uma multiplicação de
matrizes. Sendo mais preciso, considere as matrizes 𝐴, 𝑚 × 𝑛, e 𝐵, 𝑛 × 𝑝.
Então seu produto 𝐶 = 𝐴𝐵 é definido como sendo a matriz 𝑚 × 𝑝 cuja
entrada 𝑐𝑖𝑗 satisfaz

𝑐𝑖𝑗 = 𝑎𝑖1 𝑏1𝑗 + 𝑎𝑖2 𝑏2𝑗 + … + 𝑎𝑖𝑛 𝑏𝑛𝑗 , (1.3)


para 𝑖 ∈ {1, … , 𝑚} e 𝑗 ∈ {1, … , 𝑝}.
A igualdade (1.3) pode ser abreviada utilizando a notação de somatório:
𝑛
𝑐𝑖𝑗 = ∑ 𝑎𝑖𝑘 𝑏𝑘𝑗 , (1.4)
𝑘=1

que é lida como somatório com 𝑘 variando de 1 até 𝑛 de 𝑎𝑖𝑘 𝑏𝑘𝑗 . O símbolo
∑𝑛𝑘=1 indica uma soma de 𝑛 parcelas, obtidas ao variar o índice 𝑘 de 1 até
𝑛.
⎛ 𝑎11 𝑎12 … 𝑎1𝑛 ⎞ 𝑏11 … 𝑏1𝑗 … 𝑏1𝑝
⎜ ⋮ ⋮ ⋮ ⎟⎛ ⎞
⎜ 𝑎𝑖1 𝑎12 … 𝑎𝑖𝑛 ⎟ ⎜ ⎜𝑏21 … 𝑏2𝑗 … 𝑏 2𝑝 ⎟
.
⎜ ⎟⎜ ⋮ ⋮ ⋮⎟

⎜ ⋮ ⋮ ⋮ ⎟
⎝𝑏𝑛1 … 𝑏𝑛𝑗 … 𝑏𝑛𝑝 ⎠
𝑎 𝑎
⎝ 𝑚1 𝑚2 … 𝑎 𝑚𝑛 ⎠
Entradas correspondentes da linha 𝑖 de 𝐴 e coluna 𝑗 de 𝐵 são multiplicadas
e todos esses produtos então somados.

Exemplo 1.8 Consideremos as matrizes 𝐴 e 𝐵

⎛1 2 3 4 ⎞
−1 2 √2
𝐴= e 𝐵 = ⎜2 2 2 2 ⎟ .
( 𝜋 1 2 ) ⎜ ⎟
⎝4 3 2 1 ⎠
Como o número de colunas de 𝐴 é igual ao número de linhas de 𝐵, o produto
𝐴𝐵 está definido e resulta em uma matriz 2 × 4:

3 + 4√2 2 + 3√2 1 + 2√2 √2


𝐴𝐵 = .
( 10 + 𝜋 8 + 2𝜋 6 + 3𝜋 4 + 4𝜋 ) ⊲

Note que, no exemplo anterior, o produto 𝐵𝐴 não está definido. Em


casos que 𝐴𝐵 e 𝐵𝐴 estão ambos definidos, não temos, em geral, 𝐴𝐵 = 𝐵𝐴:
Exemplo 1.9 Consideremos as matrizes quadradas

1 1 1 1
𝐴= e 𝐵= .
(1 1) (−1 −1)

Então temos
0 0 2 2
𝐴𝐵 = e 𝐵𝐴 = ,
(0 0) (−2 −2)

mostrando que 𝐴𝐵 ≠ 𝐵𝐴. Note, em particular, que podemos ter 𝐴𝐵 = 0


sem termos 𝐴 = 0 ou 𝐵 = 0. ⊲
1.3. MULTIPLICAÇÃO DE MATRIZES 9

Exercício 1.6 Seja 𝐴 uma matriz 𝑛 × 𝑛. Suponha que estejam definidos os produtos 𝐴𝐵 e 𝐵𝐴.
Justifique: 𝐵 também é uma matriz 𝑛 × 𝑛.

Observação 1.10 O produto de duas matrizes, quando possível, tem uma


definição aparentemente esdrúxula. No Capítulo 4 mostraremos que essa
definição, apesar de sua aparência, é inteiramente natural. ⊲

Definição 1.11 A matriz 𝑛 × 𝑛

⎛1 0 ⋯ 0⎞
⎜0 1 ⋯ 0⎟
I𝑛 = ⎜
⋮ ⋮ ⋱ ⋮⎟
⎜ ⎟
⎝0 0 ⋯ 1⎠

é chamada matriz identidade 𝑛 × 𝑛. Muitas vezes denotaremos I𝑛 simples-


mente por I.

Proposição 1.12 Sejam 𝐴, 𝐵 e 𝐶 matrizes e 𝜆 um escalar. Suponha que as


operações abaixo sejam possíveis. Então vale:
(𝑖) (𝐴 + 𝐵)𝐶 = 𝐴𝐶 + 𝐵𝐶 (distributividade);

(𝑖𝑖) 𝐴(𝐵 + 𝐶) = 𝐴𝐵 + 𝐴𝐶 (distributividade);

(𝑖𝑖𝑖) (𝐴𝐵)𝐶 = 𝐴(𝐵𝐶) (associatividade);

(𝑖𝑣) Seja 𝐴 uma matriz 𝑚 × 𝑛. Então 𝐴I𝑛 = I𝑚 𝐴 = 𝐴 (existência da


identidade);

(𝑣) 𝜆(𝐴𝐵) = (𝜆𝐴)𝐵 = 𝐴(𝜆𝐵).

Demonstração: Suponhamos que 𝐴 e 𝐵 sejam matrizes 𝑚 × 𝑛 e 𝐶 seja uma


matriz 𝑛 × 𝑝. Denotemos por 𝐷 = (𝑑𝑖𝑗 ) a matriz (𝐴 + 𝐵)𝐶. Então1
𝑛
𝑑𝑖𝑗 = ∑(𝐴 + 𝐵)𝑖𝑘 𝑐𝑘𝑖 = (𝐴 + 𝐵)𝑖1 𝑐1𝑗 + (𝐴 + 𝐵)𝑖2 𝑐2𝑗 + … + (𝐴 + 𝐵)𝑖𝑛 𝑐𝑛𝑖
𝑘=1
𝑛
= ∑ (𝑎𝑖𝑘 + 𝑏𝑖𝑘 ) 𝑐𝑘𝑗 = (𝑎𝑖1 + 𝑏𝑖1 ) 𝑐1𝑗 + (𝑎𝑖2 + 𝑏𝑖2 ) 𝑐2𝑗 + … + (𝑎𝑖𝑛 + 𝑏𝑖𝑛 ) 𝑐𝑛𝑗
𝑘=1
𝑛
= ∑ (𝑎𝑖𝑘 𝑐𝑘𝑗 + 𝑏𝑖𝑘 𝑐𝑘𝑗 ) = (𝑎𝑖1 𝑐1𝑗 + 𝑏𝑖1 𝑐1𝑗 ) + … + (𝑎𝑖𝑛 𝑐𝑛𝑗 + 𝑏𝑖𝑛 𝑐𝑛𝑗 )
𝑘=1
𝑛 𝑛
= ∑ 𝑎𝑖𝑘 𝑐𝑘𝑗 + ∑ 𝑏𝑖𝑘 𝑐𝑘𝑗 = (𝑎𝑖1 𝑐1𝑗 + … + 𝑎𝑖𝑛 𝑐𝑛𝑗 ) + (𝑏𝑖1 𝑐1𝑗 + … + 𝑏𝑖𝑛 𝑐𝑛𝑗 )
𝑘=1 𝑘=1
= 𝐴𝐶 + 𝐵𝐶.

A prova da afirmação (𝑖𝑖) é análoga e será deixada como exercício.


1
A primeira igualdade utiliza a notação de somatório; a segunda igualdade escreve esse
somatório por extenso. É possível entender a demonstração sem ler a igualdade envolvendo
o somatório.
10 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES

Suponhamos que as matrizes 𝐴 = (𝑎𝑖𝑗 ), 𝐵 = (𝑏𝑖𝑗 ) e 𝐶 = (𝑐𝑖𝑗 ) sejam,


respectivamente, 𝑚 × 𝑛, 𝑛 × 𝑝 e 𝑝 × 𝑟. Então
𝑝 𝑝 𝑛
((𝐴𝐵)𝐶)𝑖𝑗 = ∑(𝐴𝐵)𝑖𝑘 𝑐𝑘𝑗 = ∑ ∑ 𝑎𝑖ℓ 𝑏ℓ𝑘 𝑐𝑘𝑗
𝑘=1
( 𝑘=1
) ℓ=1
𝑛 𝑝 𝑛
= ∑ 𝑎𝑖ℓ ∑ 𝑏ℓ𝑘 𝑐𝑘𝑗 = ∑ 𝑎𝑖ℓ (𝐵𝐶)ℓ𝑗
ℓ=1
( )
𝑘=1 ℓ=1
= (𝐴(𝐵𝐶))𝑖𝑗 .

Suponhamos que 𝐴 seja uma matriz 𝑚 × 𝑛 qualquer. Então


⎛1 0 ⋯ 0⎞
⎜0 1 ⋯ 0⎟
I𝑚 = ⎜
⋮ ⋮ ⋱ ⋮⎟
⎜ ⎟
⎝0 0 ⋯ 1⎠
satisfaz I𝑚 𝐴 = 𝐴, como verificamos facilmente. A igualdade 𝐴I𝑛 é análoga.
Deixaremos a demonstração de (𝑣) como Exercício. 

Exercício 1.7 Explicite condições para que cada um dos itens da Proposição 1.12 esteja bem de-
finido.
Exercício 1.8 Escreva por extenso (tal qual feito na prova da primeira afirmação da Proposição
1.12) os somatórios envolvidos na demonstração da associatividade da multiplicação de matrizes.
Exercício 1.9 Demonstre a propriedade (𝑣) da Proposição 1.12.

Observação 1.13 Sem uma boa experiência com o uso de somatórios, a


prova da associatividade do produto de matrizes é difícil de acompanhar.
O exercício anterior pode ajudar na compreensão desta prova. Contudo, na
Seção 4.3, justificaremos a definição da multiplicação de matrizes e apre-
sentaremos uma demonstração independente da associatividade do produto
de matrizes. ⊲
Qualquer que seja a matriz 𝐴, 𝑛 × 𝑛, temos I = I𝑛 satisfaz 𝐴I = I𝐴 = 𝐴.
Mas pode existir outra matriz 𝐽 satisfazendo essa propriedade? (Note que,
necessariamente, 𝐽 deve ser uma matriz 𝑛×𝑛.) A resposta é negativa. Sendo
mais preciso, se tivéssemos 𝐴I = I𝐴 = 𝐴 e 𝐴𝐽 = 𝐽 𝐴 = 𝐴 para toda matriz
𝐴 ∈ 𝕄𝑛×𝑛 , então I = 𝐽. De fato, escolhendo 𝐴 = 𝐽 na primeira identidade,
temos
𝐽I = I𝐽 = 𝐽 .
Por outro lado, escolhendo 𝐴 = I na segunda identidade, temos
I𝐽 = 𝐽I = I,
o que nos força a concluir que I = 𝐽.
Definição 1.14 Seja 𝐴 uma matriz 𝑛 × 𝑛. Dizemos que 𝐴 é invertível, se
existir uma matriz 𝐵 tal que
𝐴𝐵 = 𝐵𝐴 = I, (1.5)
em que I denota a matriz identidade. Denotamos 𝐵 = 𝐴−1 e chamamos
𝐴−1 de inversa da matriz 𝐴.
1.4. SISTEMAS LINEARES E O MÉTODO DE GAUSS-JORDAN 11

Supondo 𝐴 invertível, ao denotar 𝐵 = 𝐴−1 , a definição anterior assume


que existe uma única matriz 𝐵 satisfazendo 𝐴𝐵 = 𝐵𝐴 = I. Vamos provar
esse fato. Se tivermos 𝐴𝐵 = 𝐵𝐴 = I e 𝐴𝐶 = 𝐶𝐴 = I, decorre das
igualdades anteriores e da associatividade do produto de matrizes que

𝐵 = 𝐵I = 𝐵(𝐴𝐶) = (𝐵𝐴)𝐶 = I𝐶 = 𝐶,

garantindo a unicidade da inversa de 𝐴. Assim, escrevemos a igualdade


(1.5) na forma
𝐴𝐴−1 = 𝐴−1 𝐴 = I,
−1
que nos diz também que a inversa de 𝐴−1 é igual a 𝐴, isto é, (𝐴−1 ) = 𝐴.

1.4 Sistemas Lineares e o Método de Gauss-Jordan


Para 1 ≤ 𝑖 ≤ 𝑚 e 1 ≤ 𝑗 ≤ 𝑛, suponhamos conhecidos os escalares 𝑎𝑖𝑗 e
os escalares 𝑏𝑖 . Um sistema linear em 𝑚 equações e 𝑛 incógnitas procura a
solução 𝑥1 , … , 𝑥𝑛 que satisfaz

⎧ 𝑎11 𝑥1 + … + 𝑎1𝑛 𝑥𝑛 = 𝑏1
⎪ 𝑎21 𝑥1 + … + 𝑎2𝑛 𝑥𝑛 = 𝑏2
⎨ (1.6)
⋮ ⋮ ⋮

⎩ 𝑎𝑚1 𝑥1 + … + 𝑎𝑚𝑛 𝑥𝑛 = 𝑏𝑚 .

Exemplo 1.15 O sistema

𝑥 + 𝑦 = 1
{ 𝑥 − 𝑦 = 1

tem duas equações e duas incógnitas. Esse sistema está na forma (1.6) com
𝑎11 = 1, 𝑥1 = 𝑥, 𝑎12 = 1, 𝑥2 = 𝑦, 𝑏1 = 1, 𝑎21 = 1, 𝑎22 = −1 e 𝑏2 = 1.
Como as incógnitas 𝑥 e 𝑦 aparecem apenas multiplicadas por constantes, o
sistema é linear. (Esse não seria o caso se o sistema tivesse termos como
sen 𝑦 ou 𝑥2 , por exemplo.) ⊲

Note que, se o número de incógnitas for grande, a utilização de diferen-


tes letras (𝑥, 𝑦, 𝑧, …) para denotá-las passa a ser inviável. Como queremos
estudar sistemas lineares arbitrários e o número 𝑛 de incógnitas pode ser
grande, a notação 𝑥1 , … , 𝑥𝑛 é adequada e sempre será adotada na sequên-
cia.
O produto de matrizes nos permite expressar o sistema (1.6) com nota-
ção matricial:
⎛ 𝑎11 𝑎12 ⋯ 𝑎1𝑛 ⎞ ⎛𝑥1 ⎞ ⎛ 𝑏1 ⎞
⎜ 𝑎21 𝑎22 ⋯ 𝑎2𝑛 ⎟ ⎜𝑥2 ⎟ ⎜ 𝑏2 ⎟
⎜ ⋮ = . (1.7)
⋮ ⋱ ⋮ ⎟⎜ ⋮ ⎟ ⎜ ⋮ ⎟
⎜ ⎟⎜ ⎟ ⎜ ⎟
⎝𝑎𝑚1 𝑎𝑚2 ⋯ 𝑎𝑚𝑛 ⎠ ⎝𝑥𝑛 ⎠ ⎝𝑏𝑚 ⎠

Exercício 1.10 Verifique que (1.7) é equivalente a (1.6).


Escreveremos (1.7) condensadamente como

𝐴𝒙 = 𝒃,
12 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES

em que

⎛ 𝑎11 𝑎12 ⋯ 𝑎1𝑛 ⎞ ⎛𝑥1 ⎞ ⎛ 𝑏1 ⎞


⎜𝑎 𝑎22 ⋯ 𝑎2𝑛 ⎟ ⎜𝑥 ⎟ ⎜𝑏 ⎟
𝐴 = ⎜ 21 , 𝒙 = ⎜ 2⎟ e 𝒃 = ⎜ 2⎟ .
⋮ ⋮ ⋱ ⋮ ⎟ ⋮ ⋮
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝𝑎𝑚1 𝑎𝑚2 ⋯ 𝑎𝑚𝑛 ⎠ ⎝ 𝑥𝑛 ⎠ ⎝𝑏𝑚 ⎠

(A notação em negrito para 𝒙 e 𝒃 será justificada posteriormente, no Capí-


tulo 2.) A matriz coluna 𝒃 é o termo independente.

Exemplo 1.16 O sistema

3𝑥1 + 2𝑥2 − 𝑥3 + 4𝑥4 = 2


{ 𝑥1 − 4𝑥2 + 2𝑥3 − 𝑥4 = 5

possui 4 incógnitas e 2 equações e pode ser escrito matricialmente na forma

𝐴𝒙 = 𝒃,

com
⎛𝑥1 ⎞
3 2 −1 4 ⎜𝑥 ⎟ 2
𝐴= , 𝒙 = ⎜ 2⎟ e 𝒃= .
(1 −4 2 −1) 𝑥 (5)
⎜ 3⎟
⎝𝑥4 ⎠ ⊲

Se a matriz coluna 𝒃 for nula, isto é, se 𝑏𝑖 = 0 para todo 𝑖 ∈ {1, … , 𝑚},


o sistema é chamado homogêneo e essa matriz 𝒃 será denotada por 0; caso
contrário, o sistema é não homogêneo. Como veremos, os sistemas 𝐴𝒙 = 𝒃
e 𝐴𝒙 = 0 relacionam-se de um modo especial, de modo que informações
sobre as soluções de um fornecem dados importantes para a solução do ou-
tro. Por esse motivo, no estudo do sistema 𝐴𝒙 = 𝒃, o sistema 𝐴𝒙 = 0 é
chamado sistema homogêneo associado.
Vamos estudar o sistema 𝐴𝒙 = 𝒃. Para isso, mais sinteticamente do
que em (1.7), representaremos esse sistema por uma única matriz, chamada
matriz aumentada do sistema:

⎛ 𝑎11 𝑎12 ⋯ 𝑎1𝑛 | 𝑏1 ⎞


⎜𝑎 𝑎22 ⋯ 𝑎2𝑛 |𝑏 ⎟
𝑨 = (𝐴 | 𝒃) = ⎜ 21 | 2 ⎟. (1.8)
⋮ ⋮ ⋱ ⋮ | ⋮⎟
⎜ || 𝑏 ⎠
⎝𝑎𝑚1 𝑎𝑚2 ⋯ 𝑎𝑚𝑛 𝑚

Exemplo 1.17 (Continuação do Exemplo 1.16) O sistema apresentado no


Exemplo 1.16 tem matriz aumentada dada por

3 2 −1 4 2
.
(1 −4 2 −15 | 5 ) ⊲

No caso de termos 𝒃 = 0, como veremos, a última coluna não é neces-


sária e o sistema pode ser representado simplesmente pela matriz 𝐴
1.4. SISTEMAS LINEARES E O MÉTODO DE GAUSS-JORDAN 13

Exemplo 1.18 O sistema homogêneo

⎛1 2 3⎞
𝑥 ⎛0⎞
⎜3 2 1⎟ ⎛⎜ 1 ⎞⎟ ⎜0⎟
⎜1 𝑥 =
1 1⎟ ⎜ 2 ⎟ ⎜0⎟
⎜ ⎟ ⎝𝑥3 ⎠ ⎜ ⎟
⎝0 1 2⎠ ⎝0⎠
será representado simplesmente por

⎛1 2 3⎞
⎜3 2 1⎟
⎜1 .
1 1⎟
⎜ ⎟
⎝0 1 2⎠ ⊲

Exercício 1.11 Escreva explicitamente o sistema descrito pela matriz aumentada

⎛1 0 2 1 | 2⎞
⎜𝜋 −4 cos 1 −1 | −5⎟ .
⎜ | ⎟
⎝3 1 2 1 | 3⎠

Observação 1.19 Dada uma matriz 𝐶 com mais de duas colunas, podemos
associar a ela dois sistemas distintos: um sistema homogêneo e também
aquele em que o termo independente é dado pela última coluna de 𝐶. Por
exemplo, a matriz
1 2 1
(2 1 1)
pode ser associada ao sistema homogêneo

𝑥
1 2 1 ⎛⎜ 1 ⎞⎟ 0
𝑥 =
(2 1 1) ⎜ 2 ⎟ (0)
⎝𝑥3 ⎠
ou ao sistema não homogêneo

1 2 𝑥1 1
= .
(2 1) (𝑥2 ) (1)

A utilização da barra separando a última coluna de uma matriz torna claro


que a estamos interpretando como sendo a matriz aumentada de um sistema
não homogêneo. ⊲

Exemplo 1.20 Consideremos o sistema linear

3𝑥1 − 2𝑥2 + 𝑥3 = 5
. (1.9)
{ 𝑥1 + 𝑥 2 − 𝑥 3 = 2

É claro que, se alterarmos a ordem das linhas desse sistema ou se multi-


plicarmos uma de suas linhas por uma constante não nula, não afetaremos
suas soluções: se um terno (𝑥1 , 𝑥2 , 𝑥3 ) for solução do sistema, esse mesmo
terno será solução do sistema alterado e vice-versa. Assim, se um sistema
não possuir solução, o outro também não possuirá.
14 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES

Também podemos somar a uma linha um múltiplo de outra linha. As-


sim, as soluções dos sistemas

3𝑥1 − 2𝑥2 + 𝑥3 = 5 − 5𝑥2 + 4𝑥3 = −1


e
{ 𝑥1 + 𝑥 2 − 𝑥 3 = 2 { 𝑥1 + 𝑥 2 − 𝑥 3 = 2

são as mesmas. (O segundo sistema foi obtido multiplicando a segunda


linha do primeiro sistema por -3 e somando esse resultado à primeira linha.)
Note que, partindo do segundo sistema, multiplicando sua segunda linha por
3 e somando à sua primeira linha, obtemos o primeiro sistema. Quer dizer,
esses procedimentos são todos reversíveis. ⊲

Exemplo 1.21 (Continuação do Exemplo 1.20) Consideremos novamen-


te o sistema (1.9). Multiplicando sua primeira linha por zero, obtemos o
sistema
0𝑥1 + 0𝑥2 + 0𝑥3 = 0
. (1.10)
{ 𝑥1 + 𝑥 2 − 𝑥 3 = 2
Observe que (3, 0, 1) (isto é, 𝑥1 = 3, 𝑥2 = 0 e 𝑥3 = 1) é solução de (1.10),
mas não é uma solução de (1.9). Note também que não podemos recuperar
o sistema (1.9) partindo de (1.10). ⊲

Abandonando a notação completa de um sistema linear e voltando à


notação mais compacta da matriz aumentada do sistema, concluímos que
as seguintes operações sobre as linhas da matriz 𝑨 não alteram o conjunto
de soluções do sistema 𝐴𝒙 = 𝒃:
(𝑎) Transpor as linhas 𝑖 e 𝑗, operação que indicaremos por ℓ𝑖 ↔ ℓ𝑗 ;

(𝑏) Multiplicar a linha 𝑖 por um escalar 𝑐 não nulo, operação que indica-
remos por ℓ𝑖 → 𝑐ℓ𝑖 ;

(𝑐) Substituir a linha 𝑗 por sua soma com um múltiplo 𝑐 da linha 𝑖, ope-
ração que indicaremos por ℓ𝑗 → ℓ𝑗 + 𝑐ℓ𝑖 .
As operações (𝑎), (𝑏) e (𝑐) são as operações elementares sobre as linhas
de uma matriz.
Observação 1.22 Consideremos a operação elementar (𝑐) aplicada à ma-
triz aumentada (1.8). Note que (𝑥1 , 𝑥2 , … , 𝑥𝑛 ) satisfaz

𝑎𝑖1 𝑥1 + … + 𝑎𝑖𝑛 𝑥𝑛 = 𝑏𝑖
𝑎𝑗1 𝑥1 + … + 𝑎𝑗𝑛 𝑥𝑛 = 𝑏𝑗

se, e somente se, satisfizer


𝑎𝑖1 𝑥1 + … + 𝑎𝑖𝑛 𝑥𝑛 = 𝑏𝑖
(𝑎𝑗1 + 𝑐𝑎𝑖1 )𝑥1 + … + (𝑎𝑗𝑛 + 𝑐𝑎𝑖𝑛 )𝑥𝑛 = 𝑏𝑗 + 𝑐𝑏𝑖 . ⊲

Exemplo 1.23 Vamos ilustrar o uso das operações elementares sobre as li-
nhas de uma matriz para resolver um sistema linear. Consideremos o sis-
tema não homogêneo
⎛ 3 1 2 | 1⎞
⎜ 1 1 1 | 2⎟ . (1.11)
⎜ | ⎟
⎝−2 −1 0 | 0 ⎠
1.4. SISTEMAS LINEARES E O MÉTODO DE GAUSS-JORDAN 15

Começamos trocando sua primeira linha pela segunda, operação indicada


por ℓ1 ↔ ℓ2 :

⎛ 3 1 2 | 1⎞ ⎛ 1 1 1 | 2 ⎞ (ℓ1 ↔ ℓ2 )
⎜ 1 1 1 | 2⎟ → ⎜ 3 1 2 | 1⎟ .
⎜ | ⎟ ⎜ | ⎟
⎝−2 −1 0 | 0 ⎠ ⎝−2 −1 0 | 0 ⎠
Como vimos, os sistemas representados por essas duas matrizes aumentadas
possuem as mesmas soluções. Partindo da segunda matriz, substituímos
sua segunda linha pela soma dessa linha com (-3) vezes a primeira linha,
operação indicada por ℓ2 − 3ℓ1 :

⎛ 1 1 1 | 2⎞ ⎛ 1 1 1 | 2⎞
⎜ 3 1 2 | 1⎟ → ⎜ 0 −2 −1 | −5 ⎟ (ℓ2 → ℓ2 − 3ℓ1 ) .
⎜ | ⎟ ⎜ | ⎟
⎝−2 −1 0 | 0 ⎠ ⎝−2 −1 0 | 0⎠

Agora substituímos a terceira linha por ela somada a 2 vezes a primeira


linha:

⎛ 1 1 1 | 2⎞ ⎛1 1 1 | 2⎞
⎜ 0 −2 −1 | −5 ⎟ → ⎜0 −2 −1 | −5 ⎟ .
⎜ | ⎟ ⎜ | ⎟
⎝−2 −1 0 | 0⎠ ⎝0 1 2 | 4 ⎠ (ℓ3 → ℓ3 + 2ℓ1 )

Prosseguimos trocando a terceira pela segunda linha:

⎛1 1 1 | 2⎞ ⎛1 1 1 | 2⎞
⎜0 −2 −1 | −5 ⎟ → ⎜0 1 2 | 4 ⎟ (ℓ ↔ ℓ ) .
⎜ | ⎟ ⎜ | ⎟ 2 3
⎝0 1 2 | 4⎠ ⎝0 −2 −1 | −5 ⎠

Somamos então à terceira linha a segunda linha multiplicada por 2:

⎛1 1 1 | 2⎞ ⎛1 1 1 | 2 ⎞
⎜0 1 2 | 4⎟ → ⎜0 1 2 | 4 ⎟ .
⎜ | ⎟ ⎜ | ⎟
⎝0 −2 −1 | −5 ⎠ ⎝0 0 3 | 3 (ℓ
⎠ 3 → ℓ 3 + 2ℓ 2 )

Finalmente, dividimos a última linha por 3:

⎛1 1 1 | 2 ⎞ ⎛1 1 1 | 2 ⎞
⎜0 1 2 | 4 ⎟ → ⎜0 1 2 | 4 ⎟ .
⎜ | ⎟ ⎜ | ⎟
⎝0 0 3 | 3 ⎠ ⎝0 0 1 | 1 (ℓ
⎠ 3 → ℓ 3 /3)

Agora examinemos o sistema representado pela última matriz obtida. Sua


última equação nos garante que 𝑥3 = 1. Substituindo esse valor em sua
segunda equação (que nos informa que 𝑥2 + 2𝑥3 = 4), concluímos que
𝑥2 = 2. Sua primeira equação é dada por 𝑥1 + 𝑥2 + 𝑥3 = 2. Substituindo
os valores obtidos para 𝑥2 e 𝑥3 , concluímos que 𝑥1 = −1, de forma que
obtemos a única solução do sistema representado pela última matriz:

𝑥1 = −1 𝑥2 = 2 e 𝑥3 = 1.

Como vimos, as soluções desse sistema são as mesmas do sistema inicial,


de modo que obtivemos a (única) solução do sistema (1.11).
16 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES

O método utilizado neste exemplo é conhecido como eliminação gaussi-


2
ana e a matriz final, que nos possibilitou a obtenção da solução do sistema,
está na forma escalonada, isto é, em forma de escada. ⊲

Agora deve ser claro que, se estivermos tratando de um sistema homo-


gêneo 𝐴𝒙 = 0, não há necessidade de trabalhar com a matriz aumentada do
sistema: operações elementares não afetam uma coluna cujos termos são
todos iguais a zero.

Exercício 1.12 Escreva, para cada matriz aumentada do Exemplo 1.23, a forma completa do sis-
tema linear, isto é, o sistema na forma (1.6).
Passemos à definição formal:
Definição 1.24 Dizemos que uma matriz 𝐵 está na forma escalonada se:
(𝑖) o primeiro elemento não nulo de cada linha (chamado pivô) for igual
a 1;
(𝑖𝑖) se o pivô da linha 𝑖 ocorre na coluna 𝑗 então, se existir o pivô da linha
𝑖 + ℓ, com ℓ ∈ ℕ, esse ocorre numa coluna 𝑘, com 𝑘 > 𝑗;
(𝑖𝑖𝑖) linhas nulas (isto é, cujas entradas são iguais a zero) ocorrem abaixo
de linhas não nulas.
Uma sucessão de operações elementares utilizadas para levar uma matriz
𝐵 até uma matriz na forma escalonada é um escalonamento da matriz 𝐵.
A rigor, exigirmos que o pivô de cada linha seja igual a 1 não é ne-
cessário para obtermos a solução de um sistema. Observe que a condição
(𝑖𝑖) garante que, na coluna do pivô da linha 𝑖, são nulos todos os elementos
abaixo do pivô.
Exemplo 1.25 A matriz

⎛1 4 7 3⎞
⎜0 0 1 5⎟
𝐵=⎜
0 0 0 1⎟
⎜ ⎟
⎝0 0 0 0⎠
está na forma escalonada: o pivô de uma linha ocorre à esquerda dos pivôs
da linhas seguintes, linhas nulas (se existentes) são as últimas, são nulas as
entradas que estão abaixo de cada pivô, na mesma coluna.
Por outro lado, as matrizes

⎛1 4 7 3⎞
⎜0 1 1 5⎟ 0 1 0
⎜0 e
1 0 1⎟ (1 0 0)
⎜ ⎟
⎝0 0 0 0⎠
não estão na forma escalonada: na primeira delas, existe um elemento não
nulo abaixo do pivô da segunda linha; na segunda, o pivô da segunda linha
ocorre à esquerda do pivô da primeira linha. ⊲
2
Em homenagem a Johann Carl Friedrich Gauss, que nasceu na cidade alemã de Braun-
schweig, em 30 de abril de 1777, e morreu na cidade alemã de Göttingen, em 23 de fevereiro
de 1855, é conhecido como princeps mathematicorum: o príncipe da matemática, em latim.
1.4. SISTEMAS LINEARES E O MÉTODO DE GAUSS-JORDAN 17

Dada uma matriz arbitrária 𝐴 = (𝑎𝑖𝑗 ), a sucessiva aplicação de ope-


rações elementares (sobre suas linhas) pode levá-la até uma forma escalo-
nada. De fato, se existir algum elemento não nulo na primeira coluna de 𝐴,
ao aplicarmos as operações elementares (𝑎) e (𝑏) obtemos uma nova ma-
triz 𝐴′ = (𝑎′𝑖𝑗 ), com 𝑎′11 = 1. A aplicação da operação elementar (𝑐) torna
possível transformar em zero todas as outras entradas na mesma coluna do
pivô e abaixo dele. Considerando então a submatriz obtida de 𝐴′ ao se eli-
minar a sua primeira linha e primeira coluna, aplicando sucessivamente o
mesmo procedimento, chegamos à forma escalonada da matriz 𝐴. (Uma
prova formal é obtida por indução).
Contudo, dada uma matriz 𝐴, a sucessiva aplicação de operações ele-
mentares pode conduzir a diferentes formas escalonadas para essa matriz.
É o que veremos no próximo exemplo.

Exemplo 1.26 Considere a matriz

1 2 3
.
(1 1 1)

Subtraindo da segunda linha a primeira e então dividindo a linha resul-


tante por (−1), obtemos uma matriz escalonada:

1 2 3
.
(0 1 2) (ℓ2 → (ℓ2 − ℓ1 )/(−1))

Por outro lado, trocando as duas linhas da matriz original e então sub-
traindo a primeira linha da segunda linha, chegamos a

1 1 1 (ℓ1 ↔ ℓ2 ) 1 1 1
→ ,
(1 2 3) (0 1 2) (ℓ2 → ℓ2 − ℓ1 )

matriz que também está na forma escalonada.


Assim, a uma mesma matriz podem corresponder diferentes formas es-
calonadas! Mas, como sabemos as soluções dos sistemas lineares dados
por essa formas escalonadas são iguais às soluções do sistema original e,
portanto, todas iguais. C

Examinando a solução do sistema apresentado no Exemplo 1.23, ve-


mos que, depois de atingida a forma escalonada, ainda precisamos efetuar
alguns cálculos para obter a solução do sistema. Esses cálculos são sim-
ples, é claro. Mas queremos produzir um algoritmo que permita que um
computador nos forneça diretamente essa solução. (No Exemplo 1.23, o
sistema tem solução. Por outro lado, a forma escalonada de um sistema já
nos informa quando o sistema não tem solução.)
Para isso, suponhamos que uma matriz 𝐸 esteja na forma escalonada.
Se cada pivô for o único elemento não nulo de sua coluna, dizemos que
a matriz está em sua forma escalonada reduzida por linhas. Aplicando a
operação elementar (𝑐), podemos fazer com que uma matriz na forma esca-
lonada atinja sua forma reduzida por linhas. De fato, consideremos o pivô
da última linha não-nula de 𝐸. A aplicação da operação elementar (𝑐) torna
possível zerar os elementos que estão acima do pivô, mantendo ainda a ma-
triz na forma escalonada. A demonstração agora segue-se daí por indução,
18 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES

aplicando o mesmo procedimento ao pivô da penúltima linha não-nula de


𝐸 e assim sucessivamente.
A forma escalonada reduzida por linhas de uma matriz é única. Mos-
traremos esse resultado no Teorema 1.32.
Exemplo 1.27 Consideremos o sistema 𝐴𝒙 = 𝒃, cuja matriz aumentada é
dada por
2 0 0 3
.
(0 3 2 | 6 )
Sua forma escalonada reduzida por linhas é obtida ao dividirmos a primeira
linha por 2 e a segunda linha por 3:
1 0 0 3
(ℓ1 /2)
2 .
(0 1 2 | 2 ) (ℓ2 /3)
3
(Estamos simplificando a notação antes empregada para denotar operações
elementares.)
Voltando a expressar o sistema na forma (1.6), percebemos que os pivôs
correspondem às variáveis 𝑥1 e 𝑥2 . A variável 𝑥3 , que não corresponde a
um pivô, é chamada variável livre:

𝑥1 + 0𝑥2 + 0𝑥3 = 32
.
0𝑥1 + 𝑥2 + 23 𝑥3 = 2
Essa forma escalonada reduzida por linhas nos dá diretamente a solução do
sistema e, em particular, a expressão de 𝑥1 e 𝑥2 . Vamos explicitar 𝑥1 , 𝑥2 , 𝑥3
escrevendo essa solução na forma de uma matriz coluna:
3
⎛𝑥1 ⎞ ⎛ 2 ⎞
⎜𝑥2 ⎟ = ⎜2 − 2 𝑥 ⎟ .
⎜ ⎟ ⎜ 3 3⎟
⎝𝑥3 ⎠ ⎝ 𝑥3 ⎠
Note que expressamos os pivôs em função das variáveis livres e termo
independente. (Nesse caso, o pivô 𝑥1 independe da variável livre 𝑥3 .) Po-
demos escrever essa resposta de uma maneira que se mostrará bastante útil,
ao isolarmos o termo independente e a variável livre:
3
⎛𝑥1 ⎞ ⎛ 2 ⎞ ⎛ 0⎞
⎜𝑥2 ⎟ = ⎜ 2 ⎟ + 𝑥3 ⎜− 2 ⎟ .
⎜ ⎟ ⎜ ⎟ ⎜ 3⎟
⎝𝑥3 ⎠ ⎝ 0 ⎠ ⎝ 1⎠
Essa maneira de escrever a solução nos mostra que todas as soluções do
𝒕
sistema são obtidas somando-se à matriz coluna ( 32 2 0) um múltiplo
𝒕
(dado pela variável livre 𝑥3 ) da matriz coluna (0 − 23 1) . Assim, o sis-
tema tem infinitas soluções, obtidas ao escolhermos diferentes valores para
a variável livre 𝑥3 . C
A solução de um sistema linear levando sua matriz aumentada à forma
escalonada reduzida por linhas é conhecida como método de Gauss-Jordan.3
3
Wilhelm Jordan foi um geodesista e matemático, que nasceu na pequena cidade alemã
de Ellwangen, em 1 de março de 1842, e faleceu na cidade alemã de Hannover, em 17 de
abril de 1899. Não deve ser confundido com Camille Jordan.
1.4. SISTEMAS LINEARES E O MÉTODO DE GAUSS-JORDAN 19

Definição 1.28 Seja 𝑅 uma matriz na forma escalonada reduzida por li-
nhas. No sistema (𝑅, 𝒄) são chamadas variáveis livres todas aquelas variá-
veis que não correspondam a pivôs.

Exercício 1.13 Escreva a solução do sistema como no Exemplo 1.27, sabendo que sua forma es-
calonada reduzida por linhas é dada por

⎛1 0 0 2 | 8⎞
⎜0 1 0 3 | 2⎟ .
⎜ | ⎟
⎝0 0 1 0 | 0⎠

Exemplo 1.29 Consideremos o sistema 𝐴𝒙 = 𝒃, cuja matriz aumentada é


dada por
⎛−3 6 8 | −5 ⎞
⎜ 1 −3 −2 | 6 ⎟ .
⎜ | ⎟
⎝ 2 −4 −3 | 8 ⎠
Trocando a primeira pela segunda linha, obtemos um pivô na primeira
linha evitando frações:

⎛−3 6 8 | −5 ⎞ ⎛ 1 −3 −2 | 6 ⎞ (ℓ1 ↔ ℓ2 )
⎜ 1 −3 −2 | 6 ⎟ → ⎜−3 6 8 | −5 ⎟ .
⎜ | ⎟ ⎜ | ⎟
⎝ 2 −4 −3 | 8 ⎠ ⎝ 2 −4 −3 | 8⎠

Multiplicando a primeira linha por 3 e somando à segunda e multiplicando


a primeira linha por −2 e somando à terceira, obtemos

⎛ 1 −3 −2 | 6 ⎞ ⎛ 1 −3 −2 | 6 ⎞
⎜−3 6 8 | −5 ⎟ → ⎜ 0 −3 2 | 13 ⎟ (3ℓ1 + ℓ2 ) .
⎜ | ⎟ ⎜ | ⎟
⎝ 2 −4 −3 | 8⎠ ⎝ 0 2 1 | −4 ⎠ (−2ℓ1 + ℓ3 )

Obtemos um pivô na segunda linha ao multiplicá-la por − 13 :

|
⎛ 1 −3 −2 | 6 ⎞ ⎛ 1 −3 −2 | 6⎞
⎜ 0 −3 |
2 13 ⎟ → ⎜ 0 1 − 3 | − 13
2 ⎟ (− 1 ℓ2 ) .
⎜ | ⎟ ⎜ 3 ⎟ 3
⎝ 0 2 1 | −4 ⎠ ⎝ 0 2 1 || −4 ⎠

Multiplicando a segunda linha por −2 e somando à terceira linha:

| | 6
⎛ 1 −3 −2 | 13
6 ⎞ ⎛ 1 −3 −22 | 13 ⎞⎟
⎜ 0 1 − 23 | −3 ⎟→⎜ 0 1 −3 | −3 .
⎜ || −4 ⎟ ⎜ 7 || 14 ⎟ (−2ℓ2 + ℓ3 )
⎝ 0 2 1 ⎠ ⎝ 0 0 3 3 ⎠

Chegamos a uma forma escalonada ao multiplicar a terceira linha por 37 :

⎛ 1 −3 −2 | 6 ⎞ ⎛ 1 −3 −2 || 6⎞
| 13
⎜ 0 1 − 23 | −3 ⎟→⎜ 0 1 − 23 | − 13 ⎟ .
⎜ 7 || 14 ⎟ ⎜ |
3 ⎟ 3
⎝ 0 0 3 3 ⎠ ⎝ 0 0 1 | 2 ⎠ ( 7 ℓ3 )
20 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES

Agora transformamos em zero as entradas acima do último pivô:

|
⎛ 1 −3 −2 6
| 13 ⎞ ⎛
1 −3 0 | 10 ⎞ (2ℓ3 + ℓ1 )
⎜ 0 1 − 23 | − 3 ⎟⎟ → ⎜⎜ 0 1 0 | −3 ⎟ ( 23 ℓ3 + ℓ2 ) .
⎜ | ⎟
⎝ 0 0 1 || 2⎠ ⎝ 0 0 1 | 2⎠

Finalmente, chegamos à forma escalonada reduzida por linhas:

⎛ 1 −3 0 | 10 ⎞ ⎛ 1 0 0 | 1 ⎞ (3ℓ2 + ℓ1 )
⎜ 0 1 0 | −3 ⎟ → ⎜ 0 1 0 | −3 ⎟ ,
⎜ | ⎟ ⎜ | ⎟
⎝ 0 0 1 | 2⎠ ⎝ 0 0 1 | 2⎠

que nos informa que todas as variáveis correspondem a pivôs e que a única
solução do sistema é dada por 𝑥1 = 1, 𝑥2 = −3 e 𝑥3 = 2:

⎛𝑥1 ⎞ ⎛ 1 ⎞
⎜𝑥2 ⎟ = ⎜−3 ⎟ .
⎜ ⎟ ⎜ ⎟
⎝𝑥3 ⎠ ⎝ 2 ⎠ C

Exemplo 1.30 Consideremos o sistema 𝐴𝒙 = 𝒃, cuja matriz aumentada é


dada por
⎛ 1 0 0 0 0 0 | 𝑏1 ⎞
⎜−1 0 0 0 0 0 | 𝑏2 ⎟
⎜ 0 1 0 0 0 |
0 | 𝑏3 ⎟
⎜ ⎟
⎜ 1 1 1 1 0 0 | 𝑏4 ⎟
|
⎝ 0 0 0 0 1 −3 | 𝑏5 ⎠
Queremos determinar para quais valores de 𝑏1 , … , 𝑏5 o sistema tem solução.
Levando a matriz aumentada do sistema à forma escalonada reduzida
por linhas, obtemos (confira!)

⎛1 0 0 0 0 0 | 𝑏1 ⎞
⎜0 1 0 0 0 0 | 𝑏3 ⎟
⎜0 |
0 1 1 0 0 | 𝑏4 − 𝑏1 − 𝑏3 ⎟ . (1.12)
⎜ ⎟
⎜0 0 0 0 1 −3 | 𝑏5 ⎟
|
⎝0 0 0 0 0 0 | 𝑏1 + 𝑏 2 ⎠

A última linha nos mostra que, se tivermos 𝑏1 + 𝑏2 ≠ 0, o sistema não tem


solução.
Se tivermos 𝑏1 + 𝑏2 = 0, podemos determinar as soluções do sistema.4
Escrevemos as variáveis correspondentes aos pivôs (isto é, 𝑥1 , 𝑥2 , 𝑥3 e 𝑥5 )
em termos das variáveis livres 𝑥4 e 𝑥6 e do termo independente:

𝑥1 = 𝑏1
𝑥2 = 𝑏3
𝑥3 = (𝑏4 − 𝑏1 − 𝑏3 ) − 𝑥4
𝑥4 = 𝑥4
𝑥5 = 𝑏5 + 3𝑥6
𝑥6 = 𝑥6
4
Sendo mais incisivo, estou dizendo que a denominação “sistema indeterminado”, utili-
zada no ensino médio, é inadequada.
1.4. SISTEMAS LINEARES E O MÉTODO DE GAUSS-JORDAN 21

Escrevemos essa solução em forma de uma matriz coluna, como no


Exemplo 1.27:

⎛ 𝑥1 ⎞ ⎛ 𝑏1 ⎞ ⎛ 0⎞ ⎛0⎞
⎜ 𝑥2 ⎟ ⎜ 𝑏3 ⎟ ⎜ 0⎟ ⎜0⎟
⎜ 𝑥 ⎟ ⎜𝑏 − 𝑏 − 𝑏 ⎟ ⎜−1 ⎟ ⎜0⎟
⎜ 3⎟ = ⎜ 4 1 3⎟ + 𝑥 ⎜
4
⎟ + 𝑥 ⎜ ⎟
6 0 . (1.13)
⎜ 𝑥4 ⎟ ⎜ 0 ⎟ ⎜ 1⎟ ⎜ ⎟
⎜𝑥 ⎟ ⎜ 𝑏 ⎟ ⎜ 0⎟ ⎜3⎟
⎜ 5⎟ ⎜ 5 ⎟ ⎜ ⎟ ⎜ ⎟
⎝ 𝑥6 ⎠ ⎝ 0 ⎠ ⎝ 0⎠ ⎝1⎠

Quer dizer, para quaisquer valores de 𝑏1 , 𝑏3 , 𝑏4 e 𝑏5 , e para quaisquer


valores escolhidos para as variáveis livres 𝑥4 e 𝑥6 , a solução do sistema
𝐴𝒙 = 𝒃 (com a igualdade 𝑏1 +𝑏2 = 0 sendo satisfeita) é dada pela expressão
anterior. O sistema tem infinitas soluções, resultantes de escolhas arbitrárias
de valores para 𝑥4 e 𝑥6 .
Se tomarmos 𝑏1 = 𝑏2 = 𝑏3 = 𝑏4 = 𝑏5 = 𝑏6 = 0, a solução apre-
sentada nos dá a solução geral do sistema homogêneo associado a 𝐴𝒙 = 𝒃
apresentado neste exemplo. C

Observação 1.31 Os exemplos anteriores deixam claro que a existência de


soluções para um sistema 𝐴𝒙 = 𝒃, sendo 𝐴 uma matriz 𝑚 × 𝑛, não depende
diretamente de 𝑚 e 𝑛. Esse sistema não possuirá solução se, na forma es-
calonada reduzida por linhas de (𝐴|𝒃), não tivermos uma linha no formato
(0|𝑐), com 𝑐 ≠ 0. (Esse é o formato da última linha no sistema anterior,
se tivermos 𝑏1 + 𝑏2 ≠ 0; veja a equação (1.12).) Se esse não for o caso, o
sistema sempre possuirá solução: se existirem variáveis livres (quer dizer,
o número de pivôs não for igual a 𝑛), então o sistema possuirá infinitas so-
luções, resultantes das infinitas escolhas de valores para as variáveis livres.
Se não existirem variáveis livres, o sistema possuirá uma única solução. C

Exercício 1.14 Escreva o sistema considerado no Exemplo 1.30 na forma (1.6).


Exercício 1.15 Dê um exemplo de um sistema com uma equação e duas incógnitas que possua as
mesmas soluções de um sistema com duas equações e duas incógnitas.
Exercício 1.16 Dê um exemplo de um sistema com duas equações e duas incógnitas que não pos-
sua solução.

Teorema 1.32 Qualquer que seja a matriz 𝐴, ela possui uma única forma
escalonada reduzida por linhas.

Demonstração: Faremos indução no número de colunas da matriz 𝐴. Se


𝐴 possuir uma única coluna, sua forma escalonada reduzida por linhas é

⎛1⎞ ⎛0⎞
⎜0⎟ ⎜0⎟
⎜⋮⎟ ou ⎜⋮⎟,
⎜ ⎟ ⎜ ⎟
⎝0⎠ ⎝0⎠

a primeira possibilidade ocorrendo se 𝐴 possuir um elemento não nulo.


22 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES

Suponhamos, portanto, o resultado válido para qualquer matriz com


𝑛 − 1 colunas e consideremos uma matriz 𝐴 com 𝑛 colunas, 𝑛 ≥ 2. Su-
ponhamos que 𝑅1 e 𝑅2 sejam formas escalonadas reduzidas por linhas da
matriz 𝐴. Interpretando essas matrizes como matrizes aumentadas de um
sistema, então 𝑅1 = (𝑅|𝒂) e 𝑅2 = (𝑅|𝒃), já que nossa hipótese de indução
aplica-se às colunas de 𝑅. Agora consideramos duas opções para a coluna
𝒂: se ela possuir um pivô, então o sistema 𝑅𝒙 = 𝒂 não possui solução, pois
a linha de 𝑅 correspondente à posição desse pivô seria identicamente nula,
já que 𝑅1 está na forma escalonada reduzida por linhas. Como as soluções
de 𝑅𝒙 = 𝒂 e 𝑅𝒙 = 𝒃 são as mesmas, 𝒃 também possui um pivô e, portanto,
𝒂 = 𝒃, já que 𝑅1 e 𝑅2 estão na forma escalonada reduzida por linhas. Se
em 𝒂 não existir um pivô, então o sistema 𝑅𝒙 = 𝒂 possui uma solução 𝒙0 .
Mas então 𝒂 = 𝑅𝒙0 = 𝒃, provando que 𝒂 = 𝒃 e que 𝑅1 = 𝑅2 . 

Vamos agora explicitar a relação entre o sistema 𝐴𝒙 = 𝒃 e seu sistema


homogêneo associado, 𝐴𝒙 = 0. Partimos de uma observação muito sim-
ples: o sistema homogêneo sempre tem solução! De fato, se tomarmos o
valor de todas as incógnitas como sendo igual a zero, obtemos uma solução
do sistema, chamada solução trivial.
A solução trivial será única, se não existirem variáveis livres. Isso im-
plica, em particular, que a forma escalonada reduzida por linhas do sistema
possui o mesmo número de pivôs e de incógnitas. Assim, desprezadas as
possíveis linhas identicamente nulas da forma escalonada reduzida por li-
nhas, o que resta é a matriz identidade.

Exercício 1.17 Justifique a afirmação feita no parágrafo anterior.


Se existir ao menos uma variável livre, o sistema 𝐴𝒙 = 0 possuirá infi-
nitas soluções, obtidas ao se atribuir diferentes valores à cada variável livre.
É o que garante o próximo resultado:
Teorema 1.33 Considere um sistema homogêneo 𝐴𝒙 = 0. Se 𝐴 for uma
matriz 𝑚 × 𝑛, com 𝑚 < 𝑛, então 𝐴𝒙 = 0 possui infinitas soluções. Ou seja,
qualquer sistema homogêneo com mais incógnitas do que equações possui
infinitas soluções.
Demonstração: A forma escalonada reduzida por linhas de 𝐴 possui um
número 𝑟 de pivôs que é, no máximo, igual ao número de equações. Assim,
ela possui 𝑛 − 𝑟 de variáveis livres e, portanto, infinitas soluções. 

Definição 1.34 Sejam 𝐴 uma matriz 𝑚 × 𝑛. Definimos o núcleo de 𝐴, de-


notado ker 𝐴,5 como sendo o conjunto de soluções 𝒙 do sistema 𝐴𝒙 = 0.

Teorema 1.35 Suponha que 𝒙0 seja uma solução do sistema 𝐴𝒙 = 𝒃, isto


é, 𝐴𝒙0 = 𝒃. Se 𝒙1 também for uma solução do sistema 𝐴𝒙 = 𝒃, então
𝒙1 = 𝒙0 + 𝒛, em que 𝒛 ∈ ker 𝐴.

Demonstração: Suponhamos que 𝒛 ∈ ker 𝐴. Então 𝒙0 + 𝒛 é solução do


sistema 𝐴𝒙 = 𝒃, pois 𝐴(𝒙0 + 𝒛) = 𝐴𝒙0 + 𝐴𝒛 = 𝒃 + 0 = 𝒃. Quer dizer,
𝒙0 + 𝒛 é solução de 𝐴𝒙 = 𝒃, para todo 𝒛 ∈ ker 𝐴.
5
A notação ker vem do inglês: kernel quer dizer núcleo.
1.5. MATRIZES ELEMENTARES 23

Suponhamos agora que 𝐴𝒙1 = 𝒃, ou seja, que 𝒙1 seja também solução


de 𝐴𝒙 = 𝒃. Consideremos 𝒙1 − 𝒙0 . Então 𝐴(𝒙1 − 𝒙0 ) = 𝐴𝒙1 − 𝐴𝒙0 =
𝒃 − 𝒃 = 0, que dizer, (𝒙1 − 𝒙0 ) ∈ ker 𝐴. Denotando 𝒛 = 𝒙1 − 𝒙0 , temos
𝒙1 = 𝒙0 + (𝒙1 − 𝒙0 ) = 𝒙0 + 𝒛, o que completa a demonstração. 

Exercício 1.18 Podemos concluir do Teorema 1.35 que,


(𝑖) se 𝐴𝒙 = 0 só possuir a solução trivial, então a solução de 𝐴𝒙 = 𝒃 será única?
(𝑖𝑖) se 𝐴𝒙 = 𝒃 possuir solução e 𝐴𝒙 = 0 possuir infinitas soluções, então 𝐴𝒙 = 𝒃 possuirá
infinitas soluções?

Exemplo 1.36 [Continuação do Exemplo 1.30] Voltando ao Exemplo 1.30,


podemos agora interpretar a equação (1.13). O primeiro termo do lado di-
reito (correspondente ao termo independente) é uma solução particular de
𝐴𝒙 = 𝒃 (no caso em que a igualdade 𝑏1 + 𝑏2 = 0 é satisfeita). Os termos
seguintes (correspondentes às variáveis livres 𝑥4 e 𝑥6 nos fornecem todas
as soluções do sistema homogêneo associado. Observe que isso é imediato,
pois corresponde à escolha 𝑏1 = ⋯ = 𝑏6 = 0. ⊲

Exercício 1.19 Considere o sistema

⎧ 3𝑥 + 2𝑥2 = 5
⎪ 1
⎨ 1𝑥 + 𝑥 2 + 𝑥 3 = 3
⎪ 2𝑥
⎩ 1 + 𝑥 2 − 𝑥 3 = 2.

(𝑎) Resolva o sistema, levando sua matriz aumentada à forma escalonada reduzida por linhas;
(𝑏) Resolva o sistema homogêneo associado;
(𝑐) Sabendo que (1, 1, 1) é solução do sistema não homogêneo, encontre todas as suas soluções
aplicando o Teorema 1.35;
(𝑑) Compare as soluções encontradas em (𝑎) e (𝑐).
Exercício 1.20 Considere o sistema

⎧ 3𝑥 + 2𝑥2 + 3𝑥3 = 8
⎪ 1
⎨ 𝑥1 + 𝑥 2 + 𝑥 3 = 3

⎩ 2𝑥1 + 𝑥2 − 𝑥3 = 2.

Sabendo que (1, 1, 1) é uma de suas soluções, ache todas as soluções do sistema aplicando o
Teorema 1.35.

1.5 Matrizes Elementares


Uma matriz 𝐸 é elementar se puder ser obtida da matriz identidade 𝑚×𝑚
por meio da aplicação de uma operação elementar sobre linhas, conforme
definido na p. 14.
24 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES

Exemplo 1.37 Consideremos as operações elementares 𝑒1 ∶ ℓ1 → ℓ1 /2,


𝑒2 ∶ ℓ1 ↔ ℓ2 e 𝑒3 ∶ ℓ2 → ℓ2 + ℓ1 . Se aplicarmos essas operações à matriz
identidade 2 × 2 obtemos matrizes elementares:

1 0
𝐼= ,
(0 1)

obtemos, respectivamente, as matrizes


1
0 0 1
𝐸1 = 𝑒1 (𝐼) = 2 , 𝐸2 = 𝑒2 (𝐼) = ,
( 0 1) (1 0)

e
1 0
𝐸3 = 𝑒3 (𝐼) = . ⊲
(1 1)

Exercício 1.21 Considere a matriz


2 4 6
𝐴=
(2 3 3)
e as operações elementares 𝑒1 , 𝑒2 e 𝑒3 definidas no Exemplo 1.37. Obtenha as matrizes 𝑒1 (𝐴), 𝑒2 (𝐴)
e 𝑒3 (𝐴), resultantes da aplicação dessas operações elementares sobre a matriz 𝐴. Em seguida, sendo
𝐸1 , 𝐸2 e 𝐸3 as matrizes obtidas naquele exemplo, verifique que os produtos 𝐸1 𝐴, 𝐸2 𝐴 e 𝐸3 𝐴 são
iguais, respectivamente, às matrizes 𝑒1 (𝐴), 𝑒2 (𝐴) e 𝑒3 (𝐴).
Exercício 1.22 Mostre que toda matriz elementar possui inversa. Em seguida, mostre que a inversa
de uma matriz elementar é uma matriz elementar.

O próximo resultado mostra que o que aconteceu no Exercício 1.21 é um


fato geral: a aplicação de uma operação elementar sobre as linhas da matriz
𝐴, 𝑚 × 𝑛, é equivalente à multiplicação dessa matriz pela matriz elementar
𝑚 × 𝑚 resultante da mesma operação elementar.

Proposição 1.38 Sejam 𝑒 uma operação elementar sobre as linhas da ma-


triz 𝐴 ∈ 𝕄𝑚×𝑛 e 𝐸 a matriz elementar 𝑒(I), sendo I a matriz identidade
𝑚 × 𝑚. Então 𝑒(𝐴) = 𝐸𝐴.

Demonstração: A demonstração deve ser feita para todos os tipos de ope-


ração elementar. Consideraremos apenas a aplicação de uma operação ele-
mentar (𝑐): a linha 𝑗 será substituída pela soma da linha 𝑗 com 𝜆 vezes a
linha 𝑖. Como a matriz 𝐴 é 𝑚 × 𝑛, obtemos a matriz elementar que nos
interessa ao aplicar essa operação à matriz identidade 𝑚 × 𝑚:

⎛1 0 … 0⎞
⎜⋮ ⋮⎟
𝐸 = ⎜0 … 𝜆 … 1 … 0⎟ ← linha 𝑗
⎜ ⎟
⎜⋮ ⋮⎟
⎝0 0 … 1⎠


coluna 𝑗
1.5. MATRIZES ELEMENTARES 25

Então

⎛1 0 … 0⎞ ⎛ 𝑎11 𝑎12 … 𝑎1𝑛 ⎞


⎜⋮ ⋮⎟ ⎜ ⋮ ⋮ ⎟
𝐸𝐴 = ⎜0 … 𝜆 … 1 … 0⎟ ⎜ 𝑎𝑗1 𝑎𝑗2 … 𝑎𝑗𝑛 ⎟
⎜ ⎟⎜ ⎟
⎜⋮ ⋮⎟ ⎜ ⋮ ⋮ ⎟
⎝0 0 … 1⎠ ⎝𝑎𝑚1 𝑎𝑚2 … 𝑎𝑚𝑛 ⎠
⎛ 𝑎11 𝑎12 … 𝑎1𝑛 ⎞
⎜ ⋮ ⋮ ⎟
= ⎜𝑎𝑗1 + 𝜆𝑎𝑖1 𝑎𝑗2 + 𝜆𝑎𝑖2 … 𝑎𝑗𝑛 + 𝜆𝑎𝑖𝑛 ⎟ ,
⎜ ⎟
⎜ ⋮ ⋮ ⎟
⎝ 𝑎𝑚1 𝑎𝑚2 … 𝑎𝑚𝑛 ⎠

que é igual 𝑒(𝐴). 

Lema 1.39 Suponhamos que 𝐴, 𝐵 ∈ 𝕄𝑛×𝑛 sejam matrizes invertíveis. En-


tão 𝐴𝐵 é invertível e (𝐴𝐵)−1 = 𝐵 −1 𝐴−1 .

Demonstração: Basta notar que (𝐴𝐵)(𝐵 −1 𝐴−1 ) = 𝐼 = (𝐵 −1 𝐴−1 )(𝐴𝐵). 

A demonstração simples do lema anterior não deixa transparecer como


se encontrou a expressão para (𝐴𝐵)−1 . Mas, supondo 𝐴𝐵 invertível, te-
mos (𝐴𝐵)(𝐴𝐵)−1 = 𝐼. Multiplicando essa expressão por 𝐴−1 pelo lado
esquerdo, obtemos 𝐵(𝐴𝐵)−1 = 𝐴−1 . Multiplicando então por 𝐵 −1 pela
esquerda, chegamos ao resultado.

Lema 1.40 Se a matriz 𝐴 ∈ 𝕄𝑛×𝑛 for invertível, então o sistema 𝐴𝒙 = 𝒃


possui solução única 𝒙 = 𝐴−1 𝒃. Em particular, o sistema 𝐴𝒙 = 0 só possui
a solução trivial 𝒙 = 0.

Demonstração: Basta multiplicar a igualdade 𝐴𝒙 = 𝒃 por 𝐴−1 . 

O Lema 1.40 nos mostra como é importante saber se uma matriz é inver-
tível. Os próximos resultados simplificam a verificação de que uma matriz
é a inversa da outra e nos ensinam como obter a inversa de uma matriz in-
vertível.

Proposição 1.41 Seja 𝐴 ∈ 𝕄𝑛×𝑛 . São equivalentes as seguintes afirma-


ções:

(𝑖) existe uma matriz 𝐵, 𝑛 × 𝑛, tal que 𝐴𝐵 = I;

(𝑖𝑖) a matriz 𝐴 é equivalente por linhas à matriz identidade 𝐼;

(𝑖𝑖𝑖) 𝐴 é um produto de matrizes elementares.

(𝑖𝑣) a matriz 𝐴 é invertível;

Demonstração: Seja 𝑅 a forma escalonada reduzida por linhas de 𝐴. Con-


sidere uma sequência de operações elementares 𝑒𝑖 tal que

𝑒𝑗 𝑒𝑗−1 … 𝑒1 𝐴 = 𝑅.
26 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES

Pela Proposição 1.38 temos que

𝐸𝑗 𝐸𝑗−1 … 𝐸1 𝐴 = 𝑅

para matrizes elementares 𝐸𝑖 . Multiplicando essa igualdade por 𝐵 pelo lado


direito, obtemos

𝐸𝑗 𝐸𝑗−1 … 𝐸1 𝐴𝐵 = 𝑅𝐵 ⇒ 𝐸𝑗 𝐸𝑗−1 … 𝐸1 = 𝑅𝐵.

Como cada matriz elementar 𝐸𝑖 possui inversa (de acordo com o Exercício
1.22), decorre do Lema 1.39 que o lado esquerdo dessa igualdade possui
inversa. Como 𝑅 é uma matriz quadrada, se tivéssemos 𝑅 ≠ 𝐼, então a úl-
tima linha de 𝑅 seria identicamente nula. Em consequência, a última linha
de 𝑅𝐵 seria nula. Isso implica que 𝑅𝐵 não possuiria inversa, uma contra-
dição. Logo, 𝑅 = I e (𝑖) implica (𝑖𝑖).
Se (𝑖𝑖) for válido, temos que 𝐸𝑗 𝐸𝑗−1 … 𝐸1 𝐴 = I e, portanto, 𝐴 =
−1 −1 −1
𝐸1 … 𝐸𝑗−1 𝐸𝑗 , de acordo com o Lema 1.39. Assim, 𝐴 é um produto
de matrizes elementares, pelo Exercício 1.22. Isso mostra que (𝑖𝑖) implica
(𝑖𝑖𝑖).
Como cada matriz elementar possui inversa e o produto de matrizes
invertíveis é invertível (pelo Lema 1.39), temos que (𝑖𝑖𝑖) implica (𝑖𝑣).
É claro que (𝑖𝑣) implica (𝑖). 

Exercício 1.23 Justifique as afirmações feitas na demonstração anterior:


(a) se 𝑅 ≠ 𝐼, então 𝑅 possui uma linha nula;
(b) se 𝑅 possui uma linha nula e se existe o produto 𝑅𝐵, então 𝑅𝐵 possui uma linha nula;
(c) uma matriz que possui uma linha nula não possui inversa.

Corolário 1.42 Seja 𝐴 ∈ 𝕄𝑛×𝑛 . Se existe uma matriz 𝐵, 𝑛 × 𝑛, tal que


𝐵𝐴 = I, então 𝐵 = 𝐴−1 .

Demonstração: Se aplicarmos o Teorema 1.41 com os papéis de 𝐴 e 𝐵


trocados, concluímos que 𝐵 tem inversa. Multiplicando 𝐵𝐴 = I por 𝐵 −1
pelo lado esquerdo, obtemos 𝐴 = 𝐵 −1 . Daí decorre que 𝐴−1 = (𝐵 −1 ) −1 =
𝐵. 

Decorre do Teorema 1.41 e do Corolário 1.42 que, para verificar que


uma matriz 𝐵 ∈ 𝕄𝑛×𝑛 é a inversa da matriz 𝐴 ∈, não precisamos verificar
que 𝐴𝐵 = 𝐼 e 𝐵𝐴 = 𝐼; basta uma dessas igualdades!

Corolário 1.43 (Cálculo da Inversa) Seja 𝐴 ∈ 𝕄𝑛×𝑛 . Monte a matriz


𝐶 = (𝐴|𝐼 ), em que 𝐼 é a matriz identidade 𝑛 × 𝑛. Aplique as mesmas
operações elementares sobre linha à matriz 𝐴 e à matriz 𝐼, de forma a ob-
ter a matriz 𝐶 ′ = (𝑅, 𝐷), em que 𝑅 é a forma escalonada reduzida por
linhas de 𝐴. Se 𝑅 = 𝐼, então 𝐷 = 𝐴−1 . Se 𝑅 ≠ 𝐼, 𝐴 não possui inversa.
1.6. EXERCÍCIOS 27

Demonstração: Se 𝑅 = 𝐼, como 𝐸𝑗 𝐸𝑗−1 … 𝐸1 𝐴 = 𝐼, temos que 𝐷𝐴 = 𝐼,


para 𝐷 = 𝐸𝑗 𝐸𝑗−1 … 𝐸1 = 𝐸𝑗 𝐸𝑗−1 … 𝐸1 𝐼. Pelo Corolário 1.42, temos
𝐷 = 𝐴−1 . 

Exemplo 1.44 Para obter a inversa da matriz

⎛ 1 1 1 0 ⎞
⎜ 2 1 4 0 ⎟
𝐴=⎜ ⎟,
2 3 5 0
⎜ ⎟
⎝ 0 0 0 1 ⎠

consideramos (𝐴| I), em que I é a matriz identidade 4 × 4 e levamos a matriz


𝐴 à sua forma escalonada reduzida por linhas:

⎛1 1 1 0 | 1 0 0 0 ⎞ ⎛ 1 1 1 0 | 1 0 0 0⎞
⎜2 1 4 0 | 0 1 0 0 ⎟ ⎜ 0 1 −2 0 | 2 −1 0 0⎟
⎜2 3 5 0 0 0 1 0 ⎟ → ⎜ 0 1 3 0 1 0 ⎟⎟

⎜ | ⎟ ⎜ | −2 0
⎝0 0 0 1 | 0 0 0 1 ⎠ ⎝ 0 0 0 1 | 0 0 0 1⎠

⎛1 0 3 0 | −1 1 0 0⎞ ⎛1 0 3 0 | −1 1 0 0⎞
⎜0 1 −2 0 | 2 −1 0 0 ⎟ ⎜0 1 −2 0 | 2 −1 0 0⎟
⎜0 ⎟ → ⎜ →
0 5 0 | −4 1 1 0⎟ 0 0 1 0 | −5
4 1 1
0⎟
⎜ ⎜ 5 5 ⎟
⎝0 0 0 1 | 0 0 0 1⎠ ⎝0 0 0 1 | 0 0 0 1⎠

7 2
⎛1 0 0 0 | 5 5
− 35 0⎞
⎜ 2

⎜0 1 0 0 | − 35 2
0⎟
→⎜ 5 5 ⎟
⎜0 0 1 0 − 45 1 1
0⎟
⎜ | 5 5 ⎟
⎜0 0 0 1 0 0 0 1 ⎟⎠
⎝ |

A matriz do lado direito é a inversa da matriz 𝐴. C

1.6 Exercícios
1. Sejam 𝑧1 = 2 + 3𝑖 e 𝑧2 = 5 − 4𝑖. Calcule 𝑧1 + 𝑧2 , 𝑧1 − 𝑧2 , 𝑧1 𝑧2 e 𝑧1 /𝑧2 .
2. Simplifique as expressões: 𝑖25 , 𝑖26 , 𝑖27 e 𝑖28 .
2+5𝑖
3. Simplifique 5+3𝑖
.
4. Considere as matrizes

1 5 𝜋 𝜋 7 11
𝐴= e 𝐵= .
(2 4 6) (8 10 12)

Calcule as matrizes 𝐴 − 𝐵 e 3𝐴 + 5𝐵.


5. Obtenha os valores de 𝑎, 𝑏, 𝑐 e 𝑑 tais que

𝑎 𝑏 3𝑎 2 2 𝑎 + 3𝑏
= + .
( 𝑐 𝑑) ( 2 2𝑑) (𝑑 − 𝑐 2𝑑 + 1)
28 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES

6. Calcule as transpostas das matrizes

1 𝜋 2 ⎛𝜋 1 2⎞
𝐴= e 𝐵 = ⎜1 3 4⎟ .
(2 3 𝜋) ⎜ ⎟
⎝ 2 4 𝜋⎠
7. Calcule, se possível, os produtos

⎛𝜋⎞ 1 2 3 ⎛⎜
2 1 0 5⎞
(1 3 5) ⎜2⎟ e 1 3 5 7⎟ .
⎜ ⎟ (1 𝜋 5) ⎜ ⎟
⎝1⎠ ⎝4 8 2 6⎠
8. Considere as matrizes

2+𝑖 1 2−𝑖 ⎛2 1 0 2⎞
𝐴= e 𝐵 = ⎜3 4 5 1⎟ .
(4 − 2𝑖 2 − 𝑖 3 + 𝑖) ⎜ ⎟
⎝1 2 2 3⎠
Calcule a matriz 𝐴𝐵.
9. Para as matrizes
⎛2 0 0⎞ ⎛1 0 0⎞
𝐴 = ⎜0 3 0⎟ e 𝐵 = ⎜0 7 0⎟ ,
⎜ ⎟ ⎜ ⎟
⎝0 0 5⎠ ⎝0 0 1⎠
calcule as matrizes 𝐴𝐵, 𝐵𝐴, 𝐴2 e 𝐵 2 .
10. Dê exemplo de duas matrizes 𝐴, 𝐵, ambas 2×2, com todas as entradas não nulas, mas 𝐴𝐵 = 0.
11. Suponha que o produto 𝐴𝐵 das matrizes 𝐴 e 𝐵 esteja definido. Mostre que (𝐴𝐵)𝒕 = 𝐵 𝒕 𝐴𝒕 .
12. Ache a matriz 𝐴∗ , se
3 − 5𝑖 2 + 4𝑖
𝐴= .
(2 − 2𝑖 1 + 2𝑖)
13. Seja 𝐴 ∈ 𝕄𝑚×𝑛 e 0 a matrix 𝑛 × 𝑝 com todas as entradas iguais a zero. Verifique que 𝐴0 = 0.
14. Considere números 𝑎1 , … , 𝑎𝑛 ∈ ℝ. Expandindo os dois lados da igualdade, verifique que
𝑛 𝑛

∑ 𝑎𝑖 = ∑ 𝑎𝑗 .
𝑖=1 𝑗=1

15. Mostre que


𝑛 𝑛 𝑛

∑(𝑎𝑖 + 𝑏𝑖 ) = ∑ 𝑎𝑖 + ∑ 𝑏𝑖 ,
𝑖=1 𝑖=1 𝑖=1
em que 𝑎𝑖 , 𝑏𝑖 ∈ ℝ para 𝑖 ∈ {1, … , 𝑛}.
16. Seja 𝑏𝑘 ∈ ℝ arbitrário e 𝑎1 … , 𝑎𝑛 ∈ ℝ. Mostre que
𝑛 𝑛

∑ 𝑎𝑖 𝑏𝑘 = 𝑏𝑘 ∑ 𝑎𝑖 .
𝑖=1 𝑖=1

17. Considere números 𝑎𝑖𝑗 ∈ ℝ, com 𝑖 ∈ {1, … , 𝑚} e 𝑗 ∈ {1, … , 𝑛}. Verifique que
𝑚 𝑛 𝑛 𝑚

∑ ∑ 𝑎𝑖𝑗 = ∑ ∑ 𝑎𝑖𝑗 .
𝑖=1 𝑗=1 𝑗=1 𝑖=1
1.6. EXERCÍCIOS 29

18. Considere o sistema de equações

𝑥1 + 5𝑥2 + 7𝑥1 𝑥3 = 2
{ 2𝑥1 − 𝑥2 + 𝑥3 = 0

Esse sistema é linear?


19. Dê exemplo de um sistema com duas equações e duas incógnitas que não possui solução.
20. Dê exemplo de um sistema com três equações e duas incógnitas que possui apenas uma so-
lução.
21. Nos seguintes sistemas, determine pivôs, variáveis livres e termos independentes.
𝑥1 + 4𝑥2 − 5𝑥3 + 2𝑥4 − 𝑥5 = 7
(a)
{ 𝑥3 − 𝑥4 + 𝑥5 = 2;
𝑥1 − 𝑥 2 = 3
(b) .
{ 𝑥2 = 0.
22. Utilizando o método de Gauss-Jordan, resolva o sistema

⎧ 𝑥 + 2𝑥2 − 3𝑥3 − 2𝑥4 + 4𝑥5 = 1


⎪ 1
⎨ 1 + 5𝑥2 − 8𝑥3 − 𝑥4 + 6𝑥5 = 4
2𝑥

⎩ 𝑥1 + 4𝑥2 − 7𝑥3 + 5𝑥4 + 2𝑥5 = 8

Escreva suas soluções, se existirem, na forma utilizada no Exemplo 1.27.


23. Considere a matriz
⎛0 0 2⎞
𝐴 = ⎜0 0 3⎟ .
⎜ ⎟
⎝0 0 2⎠
Obtenha as soluções do sistema 𝐴𝒙 = 0.
24. Considere a matriz
⎛ 1 −2 1 ⎞
𝐴 = ⎜ 2 −5 1 ⎟ .
⎜ ⎟
⎝ 3 −7 2 ⎠
Considere o sistema 𝐴𝒙 = 𝒃, sendo 𝒃 igual a
⎛𝑏1 ⎞
(a) ⎜𝑏2 ⎟;
⎜ ⎟
⎝𝑏3 ⎠
⎛ 1⎞
(b) ⎜ −2 ⎟;
⎜ ⎟
⎝ −1 ⎠
⎛ 2⎞
(c) ⎜ −1 ⎟;
⎜ ⎟
⎝ 2⎠
⎛1⎞
(d) ⎜1⎟.
⎜ ⎟
⎝1⎠
Encontre, em cada caso, todas as soluções do sistema 𝐴𝒙 = 𝒃, se existirem. Em (a), imponha
condições sobre 𝒃 para que a solução exista.
30 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES

25. Considere o sistema cuja matriz aumentada é

⎛0 0 0 3 −9 | 6⎞
⎜ 0 5 15 −10 40 | − 45⎟ .
⎜ ⎟
⎝ 0 1 3 −1 5 | − 7⎠
Determine todas soluções desse sistema.
26. Encontre condições sobre o termo independente 𝒃 de modo que o sistema 𝐴𝒙 = 𝒃 tenha
solução, se sua matriz aumentada for

⎛ 1 −2 5 | 𝑏1 ⎞
⎜ 4 −5 8 | 𝑏 ⎟.
⎜ | 2⎟
⎝−3 3 −3 | 𝑏3 ⎠
Satisfeita essa condição, escreva as soluções do sistema utilizando a forma utilizada no Exem-
plo 1.27.
27. Determine os valores de 𝑎 de modo que o sistema

⎧ 𝑥 + 𝑦 − 𝑧 = 1

⎨ 2𝑥 + 3𝑦 + 𝑎𝑧 = 3

⎩ 𝑥 + 𝑎𝑦 + 3𝑧 = 2
possua:
(a) solução única;
(b) infinitas soluções;
(c) nenhuma solução.
Determine, quando existirem, as soluções deste sistema.
28. Dizemos que a matriz 𝐴 é equivalente por linhas à matriz 𝐵 se existirem operações elementa-
res sobre linhas 𝑒1 , 𝑒2 , … , 𝑒𝑗 de modo que 𝑒𝑗 … 𝑒2 𝑒1 (𝐴) = 𝐵. Mostre que essa é uma relação
de equivalência, isto é, que as seguintes propriedades são satisfeitas:
(a) a matriz 𝐴 é equivalente por linhas à matriz 𝐴 (reflexividade);
(b) se a matriz 𝐴 for equivalente por linhas à matriz 𝐵, então 𝐵 é equivalente por linhas à
matriz 𝐴 (simetria);
(c) se a matriz 𝐴 for equivalente por linhas à matriz 𝐵 e a matriz 𝐵 for equivalente por linhas
à matriz 𝐶, então 𝐴 é equivalente por linhas à matriz 𝐶.
29. Sejam 𝒙0 e 𝒙1 soluções do sistema homogêneo 𝐴𝒙 = 0. Mostre que, para qualquer 𝑐 ∈ ℝ,
𝒚 =0 +𝑐𝒙1 também é solução desse sistema.
30. Seja 𝐴 uma matriz 𝑚 × 𝑛, com 𝑚 ≠ 𝑛. Mostre que não pode existir uma matriz 𝐵, 𝑛 × 𝑚, tal
que 𝐵𝐴 = I𝑛 e 𝐴𝐵 = I𝑚 .
31. Sejam 𝐴1 , 𝐴2 , 𝐴3 ∈ 𝕄𝑛×𝑛 matrizes invertíveis. Mostre que
(𝐴1 𝐴2 𝐴3 )−1 = 𝐴−1 −1 −1
3 𝐴2 𝐴1 .

Conclua que o produto de matrizes invertíveis é uma matriz invertível.


32. Considere a matriz
⎛ 1 −2 5 1⎞

𝐴 = 4 −5 8 −1 ⎟ .
⎜ ⎟
⎝−3 3 −3 2⎠
Seja 𝑅 sua forma escalonada reduzida por linhas. Encontre matrizes elementares 𝐸1 , … , 𝐸𝑗
de modo que
𝐸𝑗 … 𝐸2 𝐸1 𝐴 = 𝑅.
1.6. EXERCÍCIOS 31

33. Calcule as inversas das matrizes

⎛1 0 2⎞ ⎛ 1 −1 2⎞
𝐴 = ⎜2 −1 3⎟ e 𝐵 = ⎜ 2 −1 7⎟ .
⎜ ⎟ ⎜ ⎟
⎝4 1 8⎠ ⎝−4 5 −3⎠

34. Encontre todos os valores de 𝑎 para os quais a matriz

⎛ 1 1 0 ⎞
𝐴=⎜ 1 0 0 ⎟
⎜ ⎟
⎝ 1 2 𝑎 ⎠
possui inversa.
Capítulo 2

Espaços Vetoriais

Objetivos: No final do capítulo o aluno deverá:


1. saber operar com a definição abstrata de espaço vetorial e subespaço;
2. saber operar com os conceitos de combinação linear, espaço gerado,
conjunto linearmente independente, base e dimensão;
3. entender como esses conceitos traduzem-se no caso do espaço veto-
rial 𝕂𝑛 .

2.1 O espaço ℝ𝑛
Fixe 𝑛 ∈ ℕ = {1, 2, …}. Definimos o conjunto ℝ𝑛 por
ℝ𝑛 = {𝒙 = (𝑥1 , 𝑥2 , … , 𝑥𝑛 ) ∶ 𝑥𝑖 ∈ ℝ} .

Nesse conjunto, definimos duas operações: para 𝒙 = (𝑥1 , … , 𝑥𝑛 ) ∈ ℝ𝑛 ,


𝒚 = (𝑦1 , … , 𝑦𝑛 ) ∈ ℝ𝑛 e 𝛼 ∈ ℝ, definimos:
𝒙 + 𝒚 = (𝑥1 + 𝑦1 , … , 𝑥𝑛 + 𝑦𝑛 ) (2.1)
𝛼𝒙 = (𝛼𝑥1 , … , 𝛼𝑥𝑛 ). (2.2)
Com essas operações, o conjunto ℝ𝑛 é chamado espaço vetorial e seus ele-
mentos são chamados de vetores ou pontos. Por outro lado, números reais
são chamados escalares. Observe que, quando 𝑛 = 1, podemos considerar
𝑥 ∈ ℝ tanto como um vetor quanto como um escalar.
Em geral, denotaremos escalares por letras minúsculas, gregas ou lati-
nas (𝛼, 𝛽, 𝑥, 𝑦 etc) e vetores por letras latinas minúsculas em negrito (𝒙,
𝒚, 𝒖, 𝒗, 𝒘 etc). Dado 𝒙 = (𝑥1 , … , 𝑥𝑛 ) ∈ ℝ𝑛 , os escalares 𝑥𝑖 são as coorde-
nadas de 𝒙. O número de coordenadas do ponto 𝒙 dependerá do problema
considerado; mas ele pode ser associado ao número de incógnitas 𝑛 em um
sistema linear, veja o Exemplo 2.4. Os casos 𝑛 = 1, 𝑛 = 2 e 𝑛 = 3 corres-
pondem a pontos da reta real, do plano e do espaço, respectivamente. Ao
mostrarmos que algum resultado é válido para o ℝ𝑛 (com 𝑛 fixo, mas arbi-
trário), esse resultado será verdadeiro para qualquer valor de 𝑛 ∈ {1, 2, …}.
A denominação de vetor para os elementos do ℝ𝑛 tem por base o se-
guinte resultado, que resulta imediatamente da maneira que as operações
no ℝ𝑛 foram definidas.

32
2.1. O ESPAÇO ℝ𝑁 33

Teorema 2.1 Para quaisquer 𝒙, 𝒚, 𝒛 ∈ ℝ𝑛 e 𝛼, 𝛽 ∈ ℝ, as seguintes propri-


edades são satisfeitas

(𝑖) 𝒙 + 𝒚 ∈ ℝ𝑛 (fechamento);

(𝑖𝑖) (𝒙 + 𝒚) + 𝒛 = 𝒙 + (𝒚 + 𝒛) (associatividade);

(𝑖𝑖𝑖) 𝒙 + 𝒚 = 𝒚 + 𝒙 (comutatividade);

(𝑖𝑣) existe 0 ∈ ℝ𝑛 tal que 𝒙 + 0 = 𝒙 (elemento neutro);

(𝑣) existe (−𝒙) ∈ ℝ𝑛 tal que 𝒙 + (−𝒙) = 0 (inverso aditivo);

(𝑣𝑖) 𝛼𝒙 ∈ ℝ𝑛 (fechamento);

(𝑣𝑖𝑖) 𝛽(𝛼𝒙) = (𝛽𝛼)𝒙 (associatividade);

(𝑣𝑖𝑖𝑖) 𝛼(𝒙 + 𝒚) = 𝛼𝒙 + 𝛼𝒚 (distributividade);

(𝑖𝑥) (𝛼 + 𝛽)𝒙 = 𝛼𝒙 + 𝛽𝒙 (distributividade);

(𝑥) 1𝒙 = 𝒙 (regra da unidade).

A verificação de que todas essas propriedades são válidas no espaço ℝ𝑛 é


muito simples e será deixada como exercício. (Se você tiver dificuldades,
fixe 𝑛 = 3 - por exemplo - e então as verifique.) É claro que 0 = (0, … , 0).
Assim, as propriedades (𝑖𝑣) e (𝑥) parecem óbvias e, portanto, supérfluas;
isso é verdade no caso do espaço ℝ𝑛 , mas não em um contexto mais geral,
como veremos na Seção 2.3.

Exemplo 2.2 Afirmamos que vale

0𝒙 = 0, para todo 𝒙 ∈ ℝ𝑛 . (2.3)

A verificação de (2.3) decorre imediatamente da definição de multipli-


cação de um vetor por um escalar: se 𝒙 = (𝑥1 , 𝑥2 , … , 𝑥𝑛 ) ∈ ℝ𝑛 é um vetor
qualquer, então

0𝒙 = 0(𝑥1 , 𝑥2 … , 𝑥𝑛 ) = (0𝑥1 , 0𝑥2 , … , 0𝑥𝑛 ) = (0, 0, … , 0) = 0. ⊲


Sinteticamente, dizemos que ℝ𝑛 possui uma adição (de vetores) e uma
multiplicação (de vetor) por escalar. Utilizaremos corriqueiramente a iden-
tificação
⎛ 𝑥1 ⎞
⎜𝑥 ⎟
(𝑥1 , … , 𝑥𝑛 ) ∈ ℝ𝑛 ↔ ⎜ 2 ⎟ ∈ 𝕄𝑛×1 (ℝ), (2.4)

⎜ ⎟
⎝ 𝑥𝑛 ⎠
que permite interpretar um ponto do ℝ𝑛 como uma matriz coluna e que faz
corresponder as operações definidas no ℝ𝑛 às operações de soma de matri-
zes coluna e multiplicação de matriz coluna por escalar.1 Mais geralmente,
muitas vezes identificaremos pontos do ℝ𝑛 com colunas de uma matriz com
𝑛 linhas!
1
Essa identificação será justificada no Capítulo 4.
34 CAPÍTULO 2. ESPAÇOS VETORIAIS

Observação 2.3 Note que a identificação (2.4) está de acordo com a nota-
ção utilizada no Capítulo 1: em um sistema linear 𝐴𝒙 = 𝒃, tanto 𝒙 como 𝒃
estão sendo interpretados como vetores. ⊲
Exemplo 2.4 Considere o sistema de 3 equações nas 4 incógnitas 𝛼, 𝛽, 𝛾 e
𝛿:
3𝛼 + 2𝛽 + 3𝛾 + 𝛿 = 8
𝛼 + 𝛽 + 𝛾 − 𝛿 = 3
2𝛼 + 𝛽 − 𝛾 + 3𝛿 = 2.
Esse sistema pode ser escrito utilizando matrizes:
𝛼
⎛3 2 3 1 ⎞ ⎛ ⎞ ⎛8⎞
⎜1 1 ⎜𝛽⎟
1 −1 ⎟ ⎜ ⎟ = ⎜3⎟ ,
⎜ ⎟ ⎜𝛾⎟ ⎜ ⎟
⎝ 2 1 −1 3⎠
⎝𝛿⎠ ⎝ ⎠
2

Nessa forma matricial, as incógnitas 𝛼, 𝛽, 𝛾 e 𝛿 são dadas por uma matriz


coluna, que pode ser identificada - de acordo com (2.4) - com um vetor do
ℝ4 . Assim, procurar as soluções do sistema dado é o mesmo que encontrar
quais pontos do ℝ4 satisfazem a equação matricial.
O mesmo acontece com um sistema com escalares reais e 𝑛 incógnitas:
essas incógnitas podem ser identificadas com as coordenadas do vetor 𝒙 =
(𝑥1 , … , 𝑥𝑛 ) ∈ ℝ𝑛 .
Este exemplo, generalizado para um sistema linear qualquer com 𝑛 in-
cógnitas, nos mostra que sempre podemos interpretar o ℝ𝑛 como o conjunto
das 𝑛 incógnitas desse sistema, se todos os escalares forem reais. Como exis-
tem sistemas com números de incógnitas arbitrariamente grande, é melhor
não fixar um valor máximo para 𝑛 e estudarmos ℝ𝑛 com 𝑛 ∈ ℕ fixo, mas
arbitrário. ⊲

Exercício 2.1 Encontre todas as soluções do Exemplo 2.4. Interprete geometricamente sua res-
posta.

2.2 O espaço ℂ𝑛
De maneira semelhante à definição do espaço ℝ𝑛 , definimos o conjunto
ℂ𝑛 por
ℂ𝑛 = {𝒛 = (𝑧1 , 𝑧2 , … , 𝑧𝑛 ) ∶ 𝑧𝑖 ∈ ℂ} .

Nesse conjunto, definimos duas operações: para 𝒛 = (𝑧1 , … , 𝑧𝑛 ) ∈ ℂ𝑛 ,


𝒘 = (𝑤1 , … , 𝑤𝑛 ) ∈ ℂ𝑛 e 𝛽 ∈ ℂ, definimos:
𝒛 + 𝒘 = (𝑧1 + 𝑤1 , … , 𝑧𝑛 + 𝑤𝑛 ) (2.5)
𝛽𝒛 = (𝛽𝑧1 , … , 𝛽𝑧𝑛 ). (2.6)
Com essas operações, o conjunto ℂ𝑛 é chamado espaço vetorial e seus ele-
mentos são chamados de vetores ou pontos. Por outro lado, números com-
plexos são chamados escalares.
No Teorema 2.1, se substituirmos os vetores 𝒙, 𝒚, 𝒛 ∈ ℝ𝑛 por vetores
𝒖, 𝒗, 𝒘 ∈ ℂ𝑛 e os escalares 𝛼, 𝛽 ∈ ℝ por escalares 𝛼, 𝛽 ∈ ℂ, é fácil verificar
o mesmo resultado permanece válido. (Também esse resultado justifica a
denominação de espaço vetorial para ℂ𝑛 .)
2.3. ESPAÇOS VETORIAIS ABSTRATOS 35

Exercício 2.2 Mostre que tomando vetores em ℂ𝑛 e escalares em ℂ, todas as propriedades listadas
no Teorema 2.1 continuam válidas.
Sintetizando, um vetor no ℝ𝑛 ou no ℂ𝑛 é uma 𝑛-upla 𝒖 = (𝑢1 , 𝑢2 , … , 𝑢𝑛 ),
com 𝑢𝑖 ∈ ℝ ou 𝑢𝑖 ∈ ℂ, respectivamente. Como antes, o escalar 𝑢𝑖 é a 𝑖-
ésima coordenada do vetor 𝒖; a adição de vetores é feita somando-se as
coordenadas correspondentes; a multiplicação de um vetor por escalar (isto
é, um elemento do corpo 𝕂) é feita multiplicando-se o escalar por cada
coordenada do vetor.
Para nos referirmos indistintamente aos espaços vetoriais ℝ𝑛 e ℂ𝑛 , de-
notaremos esses espaços por 𝕂𝑛 , conforme os escalares considerados este-
jam em 𝕂 = ℝ ou 𝕂 = ℂ, respectivamente. A nossa ênfase sempre será o
espaço ℝ𝑛 , mas algumas propriedades importantes dependerão de lidarmos
com escalares no corpo ℂ. Resultados mostrados para o 𝕂𝑛 serão válidos
tanto para o ℝ𝑛 quanto para o ℂ𝑛 .
Como no caso do ℝ𝑛 , identificaremos vetores 𝒙 ∈ ℂ𝑛 com matrizes
coluna 𝕄𝑛×1 (ℂ).

2.3 Espaços Vetoriais Abstratos


Considerando as propriedades satisfeitas pelo ℝ𝑛 (Teorema 2.1) e pelo
𝑛
ℂ (análogo do Teorema 2.1), podemos definir abstratamente um espaço
vetorial. Lembramos que 𝕂 denota tanto o corpo dos reais como o corpo
dos complexos.
Definição 2.5 Um espaço vetorial 𝑋 sobre o corpo 𝕂 é um conjunto cu-
jos elementos (chamados vetores) podem ser somados e multiplicados por
escalares, isto é, elementos2 do corpo 𝕂. Para quaisquer 𝒙, 𝒚, 𝒛 ∈ 𝑋 e
𝛼, 𝛽 ∈ 𝕂, as seguintes propriedades devem ser satisfeitas pela adição e
multiplicação por escalar:
(𝑖) 𝒙 + 𝒚 ∈ 𝑋 (fechamento);
(𝑖𝑖) (𝒙 + 𝒚) + 𝒛 = 𝒙 + (𝒚 + 𝒛) (associatividade);
(𝑖𝑖𝑖) 𝒙 + 𝒚 = 𝒚 + 𝒙 (comutatividade);
(𝑖𝑣) existe 0 ∈ 𝑋 tal que 𝒙 + 0 = 𝒙 (elemento neutro);
(𝑣) para cada 𝑥 ∈ 𝑋, existe (−𝒙) ∈ 𝑋 tal que 𝒙 + (−𝒙) = 0 (inverso
aditivo);
(𝑣𝑖) 𝛼𝒙 ∈ 𝑋 (fechamento);
(𝑣𝑖𝑖) 𝛽(𝛼𝒙) = (𝛽𝛼)𝒙 (associatividade);
(𝑣𝑖𝑖𝑖) 𝛼(𝒙 + 𝒚) = 𝛼𝒙 + 𝛼𝒚 (distributividade);
(𝑖𝑥) (𝛼 + 𝛽)𝒙 = 𝛼𝒙 + 𝛽𝒙 (distributividade);
(𝑥) 1𝒙 = 𝒙 (regra da unidade).
2
Mais geralmente, se você conhece o conceito abstrato de corpo, podemos tomar os
escalares em um corpo qualquer.
36 CAPÍTULO 2. ESPAÇOS VETORIAIS

Observação 2.6 Repetindo, um conjunto 𝑋 é um espaço vetorial apenas se


nele estiverem definidas operações de adição de vetores e multiplicação por
escalar satisfazendo as propriedades listadas no Teorema 2.5.
Se o corpo considerado no espaço vetorial 𝑋 for o corpo 𝕂 = ℝ, te-
mos um espaço vetorial real; se tivermos 𝕂 = ℂ, temos um espaço vetorial
complexo. Ao escrevermos que 𝑋 é um espaço vetorial, deixaremos suben-
tendido que 𝑋 é um espaço vetorial sobre o corpo 𝕂, em que 𝕂 = ℝ ou
𝕂 = ℂ. ⊲

Note que a definição anterior apenas relaciona propriedades das opera-


ções definidas no conjunto 𝑋, mas detalhes do conjunto 𝑋 não são conheci-
dos. Assim, em particular, não podemos assumir que um vetor em 𝑋 possua
“coordenadas” semelhantes às de um vetor no ℝ𝑛 ou ℂ𝑛 . Veja o Exemplo
2.11, que apresentaremos posteriormente.
Em todos a sequência, se isso facilitar a compreensão, você pode assu-
mir que 𝕂 = ℝ.
Exemplo 2.7 Seja 𝒫𝑛 (𝑡) = {𝑎0 + 𝑎1 𝑡 + … + 𝑎𝑛−1 𝑡𝑛−1 } o conjunto de po-
linômios em 𝑡 com coeficientes 𝑎𝑖 ∈ 𝕂 e grau menor do que ou igual a
𝑛 − 1, em que 𝑛 ∈ ℕ = {1, 2, …} está fixo. (Estamos considerando que
o polinômio identicamente nulo tem grau −∞, de modo que ele faz parte
desse conjunto.) Por exemplo, se 𝑛 = 3, então 𝒫3 (𝑡) é o conjunto de todos
os polinômios cujo grau é menor do que ou igual a 2: se 𝒑 ∈ 𝒫3 (𝑡), então
𝒑(𝑡) = 𝑎0 + 𝑎1 𝑡 + 𝑎2 𝑡2 para certos escalares 𝑎0 , 𝑎1 , 𝑎2 ∈ 𝕂.
Com a adição usual de polinômios e a multiplicação de polinômio por
um escalar em 𝕂, 𝒫𝑛 (𝑡) é um espaço vetorial, pois as operações mencionadas
satisfazem todas as propriedades listadas na Definição 2.5. ⊲

Exercício 2.3 Verifique a afirmação do Exemplo 2.7.

Exemplo 2.8 Seja 𝕄𝑚×𝑛 o conjunto de todas as matrizes 𝑚 × 𝑛 tendo como


entradas escalares no corpo 𝕂. Com a adição de matrizes e multiplicação
de uma matriz por um escalar 𝛽 ∈ 𝕂 usuais, 𝕄𝑚×𝑛 é um espaço vetorial, de
acordo com o Teorema 1.7. ⊲

De certa forma, o Exemplo 2.7 é “semelhante” ao 𝕂𝑛 . Conhecendo


todos os coeficientes associados aos monômios 𝑡𝑘 (0 ≤ 𝑘 ≤ 𝑛 − 1) de um
polinômio em 𝒫𝑛 (𝑡), temos este polinômio; assim, podemos identificar cada
polinômio com um ponto do 𝕂𝑛 :

𝑎0 + 𝑎1 𝑡 + 𝑎2 𝑡2 + … + 𝑎𝑛−1 𝑡𝑛−1 ⟷ (𝑎0 , 𝑎1 , … , 𝑎𝑛−1 ) ∈ 𝕂𝑛 .

Como a adição de polinômios é feita adicionando os coeficientes corres-


pondentes aos termos de mesmo grau, essa identificação é coerente com a
operação de soma em 𝕂𝑛 . Da mesma forma para a multiplicação por escalar.
Exemplo 2.9 Os polinômios 𝒑(𝑡) = −7+3𝑡+𝑡2 e 𝒒(𝑡) = 3−𝑡+5𝑡2 em 𝒫3 (𝑡)
podem ser identificados com os pontos (−7, 3, 1) e (3, −1, 5) no espaço ℝ3 .
A soma (𝒑+𝒒)(𝑡) = −4+2𝑡+6𝑡2 corresponde à soma (−7, 3, 1)+(3, −1, 5) =
(−4, 2, 6). Essa identificação entre 𝒫3 (𝑡) e ℝ3 também é compatível com a
multiplicação de um polinômio por um escalar. (Verifique!) ⊲
2.3. ESPAÇOS VETORIAIS ABSTRATOS 37

Exercício 2.4 Você consegue sugerir outra forma de associar polinômios em 𝒫𝑛 (𝑡) a pontos do
𝕂𝑛 ?
O mesmo procedimento também pode ser usado no Exemplo 2.8, para
matrizes com entradas no corpo 𝕂:

⎛ 𝑎11 𝑎12 … 𝑎1𝑛 ⎞


⎜ 𝑎21 𝑎22 … 𝑎2𝑛 ⎟ 𝑚𝑛
⎜ ⋮ ⋮ ⋱ ⋮ ⎟ ⟷ (𝑎11 , … , 𝑎1𝑛 , … , 𝑎𝑚1 , … , 𝑎𝑚𝑛 ) ∈ 𝕂 .
⎜ ⎟
⎝ 𝑎𝑚1 𝑎𝑚2 … 𝑎𝑚𝑛 ⎠
(2.7)

Note que, também nesse caso, as operações de soma e multiplicação por


escalar em 𝕄𝑚×𝑛 correspondem às operações em 𝕂𝑚𝑛 .

Exercício 2.5 Seja 𝒫 (𝑡) o conjunto de todos os polinômios na variável 𝑡 com coeficientes no corpo
𝕂. (Esse conjunto possui polinômios de qualquer grau, enquanto 𝒫𝑛 (𝑡) possui apenas os polinô-
mios de grau menor do que 𝑛, para 𝑛 ∈ ℕ fixo.) Considere, nesse conjunto, as operações usuais de
adição de polinômios e multiplicação de um polinômio por um escalar real. Verifique que 𝒫 (𝑡) é
um espaço vetorial.
Exercício 2.6 Considere o conjunto

𝕂∞ = {(𝑥1 , … , 𝑥𝑛 , …) ∶ 𝑥𝑖 ∈ 𝕂, ∀𝑖 ∈ ℕ}.

Verifique que 𝕂∞ é um espaço vetorial com a adição de vetores e multiplicação por escalar definidas
analogamente às operações no 𝕂𝑛 , isto é, “coordenada à coordenada”. O espaço 𝕂∞ pode ser
identificado com o conjunto das sequências no corpo 𝕂.
Exercício 2.7 Seja 𝒫 (𝑡) o espaço de todos os polinômios na variável 𝑡 com coeficientes no corpo
𝕂. (Veja o Exercício 2.5.) Continua válida a afirmação que, conhecendo todos os coeficientes
de um polinômio, então conhecemos o polinômio? Podemos identificar vetores em 𝒫 (𝑡) (isto é,
polinômios) com vetores em 𝕂∞ (isto é, sequências numéricas)?

Observação 2.10 No contexto abstrato de espaço vetorial, é mais fácil en-


tender o significado da propriedade (𝑥) na Definição 2.5. Consideremos
𝑋 = ℝ2 , com as seguintes operações: a adição de vetores usual

(𝑥1 , 𝑥2 ) + (𝑦1 , 𝑦2 ) = (𝑥1 + 𝑦1 , 𝑥2 + 𝑦2 )

e a multiplicação por escalar definida por

𝛽(𝑥1 , 𝑥2 ) = (0, 0),

para todo (𝑥1 , 𝑥2 ) ∈ ℝ2 . (Você pode achar estranha essa definição, mas
certamente ela define uma multiplicação de vetor por escalar com a propri-
edade que 𝛽𝒙 ∈ 𝑋 para todos 𝒙 ∈ ℝ2 e 𝛽 ∈ ℝ)
Verifique então que, com exceção da propriedade (𝑥), todas as outras
propriedades da Definição 2.5 são satisfeitas. Quer dizer, a propriedade (𝑥)
é indispensável se queremos ter uma multiplicação por escalar que evite
o que aconteceu neste caso: todos os escalares atuam da mesma maneira
38 CAPÍTULO 2. ESPAÇOS VETORIAIS

sobre os vetores. (Um análogo a isso seria definir, no conjunto dos números
complexos, a multiplicação 𝑧1 𝑧2 = (𝛼1 +𝑖𝛽1 )(𝛼2 +𝑖𝛽2 ) = 𝛼1 𝛼2 , que reduz-se
à multiplicação usual de números reais.) ⊲

O Exercício 2 apresenta um espaço vetorial real 𝑋 no qual 0 ∈ 𝑋 foge


completamente à nossa intuição sobre esse vetor.
Ao definirmos abstratamente a noção de espaço vetorial, obtemos con-
juntos que satisfazem todas as propriedades da Definição 2.5, mas que não se
assemelham ao 𝕂𝑛 . Por exemplo, consideremos o conjunto 𝑋 = {0} ⊂ 𝕂.
Utilizando a adição e a multiplicação por escalar definidas em 𝕂, verifica-
mos que esse é um espaço vetorial. Note que, para todo 𝛼 ∈ 𝕂 e todo vetor
𝒙 ∈ 𝑋, então
𝛼𝒙 = 0,
o que está relacionado com a Observação 2.10. Mas esse caso não assusta,
pois se 𝒙 ∈ 𝑋, então 𝒙 = 0! Mas o próximo exemplo já difere completa-
mente de nossa intuição do 𝕂𝑛 :

Exemplo 2.11 Seja 𝐴 ≠ ∅ um conjunto qualquer. (Se você quiser, pense


que 𝐴 = ℝ.) Considere então o conjunto 𝑋 de todas as funções 𝒇 ∶ 𝐴 → 𝕂:

𝑋 = {𝒇 ∶ 𝐴 → 𝕂},

no qual definimos as operações de adição e multiplicação por escalar:

𝒇 + 𝒈∶ 𝐴 → 𝕂 dada por (𝒇 + 𝒈)(𝑥) = 𝑓 (𝑥) + 𝑔(𝑥)

e
𝛼𝒇 ∶ 𝐴 → 𝕂 dada por 𝛼𝒇 (𝑥) = 𝛽𝑓 (𝑥).
(Note que uma função fica definida quando são dadas seu domínio, contra-
domínio e a “regra” que a define em cada ponto de seu domínio. Assim,
𝒇 + 𝒈 e 𝛽𝒇 estão definidas e pertencem ao conjunto 𝑋.)
Com essas operações, 𝑋 é um espaço vetorial. Note que, se tomarmos
𝐴 = ℝ, não existe maneira de falar em coordenadas de um vetor 𝒇 ∈ 𝑋! ⊲

Exercício 2.8 Tome 𝐴 = {1, 2, 3} e 𝒇 , 𝒈 ∶ 𝐴 → ℝ definidas por 𝒇 (𝑘) = 3𝑘 + 5 e 𝒈(𝑘) = 7/𝑘, para
𝑘 ∈ 𝐴. Obtenha 𝒇 + 𝒈 e 5𝒈.
Exercício 2.9 Mostre que o conjunto 𝑋 do Exemplo 2.11 é um espaço vetorial.

Os próximos três exercícios são mais difíceis.


Exercício 2.10 Considere, no Exemplo 2.11, que 𝐴 = {1, … , 𝑛}. É possível identificar 𝑋 com o
espaço 𝕂𝑛 ? Se sim, como?
Exercício 2.11 Considere, no Exemplo 2.11, que 𝐴 = ℕ = {1, 2, … , 𝑛, …}. É possível identificar
𝑋 com o espaço 𝕂∞ ? Se sim, como?
Exercício 2.12 Considere, no Exemplo 2.11, que 𝐴 = ℝ. É possível identificar 𝑋 e 𝕂∞ ?

Exemplo 2.12 Seja 𝑋 um espaço vetorial qualquer sobre o corpo 𝕂. Con-


sideremos o escalar 0 ∈ 𝕂 e um vetor qualquer 𝒙 ∈ 𝑋. Então vale

0𝒙 = 0, (2.8)
2.4. SUBESPAÇOS 39

resultado que foi provado apenas no caso 𝑋 = ℝ𝑛 .


Para verificarmos a igualdade (2.8), podemos utilizar apenas as propri-
edades descritas na Definição 2.5. Assim,

0𝒙 = (0 + 0)𝒙 = 0𝒙 + 0𝒙. (2.9)

Na primeira igualdade, utilizamos uma propriedade de números no corpo 𝕂:


0 = 0+0; na segunda igualdade, utilizamos a propriedade (𝑖𝑥) da Definição
2.5.
Como 0𝒙 é um vetor, a propriedade (𝑣) da definição de espaço vetorial
garante então a existência do vetor −0𝒙, que somamos aos dois lados da
igualdade (2.9) e então aplicamos a propriedade (𝑖𝑖):

0𝒙 + (−0𝒙) = (0𝒙 + 0𝒙) + (−0𝒙)


= 0𝒙 + [0𝒙 + (−0𝒙)],

isto é,
0 = 0𝒙 + 0 = 0𝒙,
como queríamos mostrar. ⊲

Exercício 2.13 Compare os Exemplos 2.2 e 2.12. O que justifica a diferença de tratamento entre
esses exemplos?
Qual é o objetivo de estudarmos espaços vetoriais? A resposta é que,
ao trabalharmos abstratamente com espaços vetoriais e obtermos resultados
baseados na Definição 2.5 e suas consequências (tal qual fizemos no Exem-
plo 2.12), estamos ganhando conhecimento válido para qualquer exemplo
específico de espaço vetorial, o que inclui o ℝ𝑛 , ℂ𝑛 e aqueles apresentados
nos Exemplos 2.7, 2.8 e 2.11.
Neste texto, apesar de enunciarmos os resultados em espaços vetoriais
abstratos 𝑋, grande parte de nossos exemplos serão apresentados nos es-
paços ℝ𝑛 e ℂ𝑛 . Em geral, salvo quando explicitamos um espaço vetorial
distinto do 𝕂𝑛 , você pode admitir que o espaço vetorial 𝑋 é o 𝕂𝑛 .

2.4 Subespaços
Nosso objetivo é definir subconjuntos de um espaço vetorial 𝑋 que se
comportem de maneira semelhante àquela de retas e planos passando pela
origem do ℝ3 : vemos que, considerando apenas elementos desses subcon-
juntos, a adição de dois vetores quaisquer e a multiplicação de um vetor por
um escalar permanecem nesses subconjuntos.

Exercício 2.14 Considere os planos 𝜋1 ∶ 𝑥 + 𝑦 + 𝑧 = 0 e 𝜋2 ∶ 𝑥 + 𝑦 + 𝑧 = 1, ambos no espaço


ℝ3 . Verifique que os vetores 𝒖1 = (1, 0, −1) e 𝒗1 = (1, −1, 0) pertencem ao plano 𝜋1 , enquanto os
vetores 𝒖2 = (1, 0, 0) e 𝒗2 = (0, 1, 0) pertencem a 𝜋2 . Verifique então que 𝒖1 + 𝒗1 pertence a 𝜋1 ,
enquanto 𝒖2 + 𝒗2 não pertence a 𝜋2 . Mostre também que 𝛼𝒖1 ∈ 𝜋1 para todo 𝛼 ∈ ℝ, enquanto
𝛼𝒖2 ∉ 𝜋2 , para todo 1 ≠ 𝛼 ∈ ℝ.
Assim, de acordo com o nosso objetivo, 𝜋2 não se comporta da maneira
que queremos. (Note que 𝜋2 não é um plano passando pela origem.)
40 CAPÍTULO 2. ESPAÇOS VETORIAIS

Definição 2.13 Sejam 𝑋 um espaço vetorial e 𝑊 ⊂ 𝑋 um subconjunto não


vazio. Dizemos que 𝑊 é um subespaço de 𝑋 se, para quaisquer 𝒙, 𝒚 ∈ 𝑊
e, para qualquer 𝛼 ∈ 𝕂, tivermos

(1) 𝒙 + 𝒚 ∈ 𝑊;

(2) 𝛼𝒙 ∈ 𝑊.

Uma vez que 0𝒙 = 0 para qualquer 𝒙 ∈ 𝑋, vemos que 0 ∈ 𝑋 é um ele-


mento de qualquer subespaço do 𝑊 ⊂ 𝕂𝑛 . No Exercício 2.14, observe que
0 = (0, 0, 0) ∈ 𝜋1 , enquanto 0 ∉ 𝜋2 . (Desse modo, temos uma verificação
rápida que 𝜋2 não é um subespaço do ℝ3 .)
A definição de subespaço implica que, restringindo as operações de 𝑋
aos elementos do subespaço 𝑊, esse subconjunto é, em si, um espaço ve-
torial. De fato, se o subconjunto 𝑊 satisfizer (1) e (2), todas as proprieda-
des da Definição 2.5 são automaticamente satisfeitas quando consideradas
apenas em elementos de 𝑊, com exceção da propriedade (𝑣). De fato, as
propriedades (𝑖𝑖)-(𝑖𝑖𝑖) e (𝑣𝑖𝑖)-(𝑣𝑖𝑖𝑖)-(𝑖𝑥)-(𝑥) são válidas para todos os ele-
mentos do 𝑋 e, em particular, para os elementos de 𝑊; as propriedades (1)
e (2) do subespaço asseguram a validade de (𝑖) e (𝑣𝑖); como já vimos que
0𝒙 = 0, vemos que 0 ∈ 𝑋, de modo que (𝑖𝑣) vale. Finalmente, uma vez
que (−𝒖) = (−1)𝒖 (veja o Exercício 3 no final do capítulo), vemos que (2)
implica que (𝑣) também se verifica.

Exercício 2.15 Seja 𝑊 ⊂ 𝑋 um subespaço. Mostre que, se existir 𝒘 ∈ 𝑊 tal que 𝒘 ≠ 0, então
𝑊 possui infinitos elementos.

Exemplo 2.14 Seja 𝑋 um espaço vetorial. Considere o subconjunto 𝑊 =


{0} ⊂ 𝑋. Então 𝑊 é um subespaço de 𝑋, pois 0+0 = 0 ∈ 𝑊 e 𝛽0 = 0 ∈ 𝑊,
para todo 𝛽 ∈ 𝕂. Considere também o subconjunto 𝑌 = 𝑋. Claramente
𝑌 é um subespaço de 𝑋. Os subespaços 𝑊 = {0} e 𝑌 = 𝑋 são chamados
subespaços triviais de 𝑋. ⊲

Exemplo 2.15 Sejam 0 ≠ 𝒗 um vetor fixo do espaço 𝑋 e

𝑊 = {𝑡𝒗 ∶ 𝑡 ∈ 𝕂}.

(No caso 𝑋 = ℝ2 ou 𝑋 = ℝ3 , sabemos que 𝑊 descreve uma reta passando


pela origem.)
Então 𝑊 é um subespaço de 𝑋. De fato, se 𝒘1 , 𝒘2 ∈ 𝑊, então 𝒘1 = 𝑡1 𝒗
e 𝒘2 = 𝑡2 𝒗, para certos escalares 𝑡1 , 𝑡2 . Logo, 𝒘1 + 𝒘2 = 𝑡1 𝒗 + 𝑡2 𝒗 =
(𝑡1 + 𝑡2 )𝒗 é um elemento de 𝑊. Também, se 𝛼 ∈ 𝕂, então 𝛼𝒘1 = 𝛼(𝑡1 𝒗) =
(𝛼𝑡1 )𝒗 ∈ 𝑊. Isso mostra o afirmado. Generalizando os casos de ℝ2 e ℝ3 ,
dizemos então que 𝑊 descreve uma reta passando pela origem do espaço 𝑋
e que quaisquer vetores de 𝑊 são colineares. Note que o vetor 𝒗 gera um
sistema de coordenadas em que os pontos da reta 𝑊 são descritos por um
único parâmetro: o valor de 𝑡 ∈ 𝕂. Quer dizer, se temos 𝑡, conhecemos o
elemento 𝑡𝒗 ∈ 𝑊. ⊲
2.4. SUBESPAÇOS 41

De agora em diante, usualmente identificaremos pontos do 𝕂𝑛 com ma-


trizes coluna 𝑛×1. Essa identificação já nos foi útil ao tratarmos de sistemas
lineares; outra aplicação será mostrada no Capítulo 4.
Dois tipos de subespaços merecem especial atenção, pois eles nos per-
mitem uma verificação indireta de que certos subconjuntos do 𝕂𝑛 são su-
bespaços. Começamos mostrando que o conjunto de soluções de qualquer
sistema linear homogêneo com 𝑚 equações e 𝑛 incógnitas é um subespaço
do 𝕂𝑛 . Para isso, lembramos que tais sistemas podem ser escritos na forma
𝐴𝒙 = 0, em que 𝐴 é uma matriz 𝑚 × 𝑛 e 𝒙 ∈ 𝕂𝑛 está sendo interpretados
como uma matriz coluna.

Proposição 2.16 Seja 𝐴 uma matriz 𝑚 × 𝑛 com entradas no corpo 𝕂. O


conjunto
ker 𝐴 = {𝒙 ∈ 𝕂𝑛 ∶ 𝐴𝒙 = 0}
é um subespaço do 𝕂𝑛 , chamado núcleo de 𝐴.

Demonstração: Sejam 𝒙, 𝒚 ∈ ker 𝐴. Como sabemos, propriedades básicas


da multiplicação de matrizes mostram que

𝐴(𝒙 + 𝒚) = 𝐴𝒙 + 𝐴𝒚 = 0 + 0 = 0 e 𝐴(𝛽𝒙) = 𝛽𝐴𝒙 = 𝛽0 = 0,

provando o afirmado. 

Exemplo 2.17 O subconjunto

𝑊 = {𝑥1 + 2𝑥2 − 5𝑥3 + 4𝑥4 − 7𝑥5 = 0 ∶ 𝑥𝑖 ∈ ℝ, 1 ≤ 𝑖 ≤ 5}

é um subespaço do ℝ5 . De fato, definindo a matriz 1 × 5

𝐴 = ( 1 2 −5 4 −7 ) ,

temos que 𝒙 = (𝑥1 , 𝑥2 , 𝑥3 , 𝑥4 , 𝑥5 ) ∈ ℝ5 pertence a 𝑊 se, e somente se,3


𝐴𝒙 = 0. ⊲

Exercício 2.16 Aplicando diretamente a Definição 2.13, mostre que o conjunto 𝑊 do Exemplo
2.17 é um subespaço.
Exercício 2.17 Mostre que o conjunto

𝑈 = {(1 + 2𝑖)𝑧1 − 2𝑧2 − (1 + 3𝑖)𝑧3 = 0 ∶ 𝑧𝑖 ∈ ℂ, 1 ≤ 𝑖 ≤ 3}

é um espaço vetorial.
Exercício 2.18 Sejam 𝐴 uma matriz 𝑚 × 𝑛 e 0 ≠ 𝒃 ∈ 𝕂𝑚 . Mostre que as soluções do sistema
𝐴𝒙 = 𝒃 não formam um subespaço do 𝕂𝑛 . Compare com o plano 𝜋2 do Exercício 2.14.

Um segundo tipo importante de subespaço é dado pela


3
Note que o produto 𝐴𝒙 só faz sentido se 𝒙 for uma matriz 5 × 1.
42 CAPÍTULO 2. ESPAÇOS VETORIAIS

Proposição 2.18 Para 𝑗 ∈ ℕ fixo, sejam 𝒗1 , … , 𝒗𝑗 vetores quaisquer do


espaço vetorial 𝑋. Então

𝑊 = {𝛼1 𝒗1 + 𝛼2 𝒗2 + … + 𝛼𝑗 𝒗𝑗 ∶ 𝛼𝑖 ∈ 𝕂, 1 ≤ 𝑖 ≤ 𝑗}

é um subespaço de 𝑋. O subespaço 𝑊 é chamado espaço gerado por 𝑆 =


{𝒗1 , … , 𝒗𝑗 } e usualmente denotado por < 𝒗1 , … , 𝒗𝑗 > ou < 𝑆 >.

Demonstração: Sejam 𝒖, 𝒗 ∈ 𝑊. Então, pela definição de 𝑊, existem


escalares 𝛼1 , … , 𝛼𝑗 e 𝛽1 , … , 𝛽𝑗 tais que

𝒖 = 𝛼1 𝒗1 + … + 𝛼𝑗 𝒗𝑗 e 𝒗 = 𝛽1 𝒗1 + … + 𝛽𝑗 𝒗𝑗 .

Assim, temos

𝒖 + 𝒗 = (𝛼1 + 𝛽1 )𝒗1 + … + (𝛼𝑘 + 𝛽𝑘 )𝒗𝑗


𝛾𝒖 = (𝛾𝛼1 )𝒗1 + … + (𝛾𝛼𝑗 )𝒗𝑗 ,

que também são elementos de 𝑊, se 𝛾 ∈ 𝕂. Isso prova o afirmado. 

Exemplo 2.19 Consideremos o conjunto

𝑊 = {(3𝛼 + 2𝛽 + 7𝛾, 𝛼 − 𝛽 + 𝛾, 𝛼 + 𝛽, 𝛾 − 𝛼) ∶ 𝛼, 𝛽, 𝛾 ∈ 𝕂}.

Escrevendo os elementos de 𝑊 como matrizes 4 × 1, temos

⎛3𝛼 + 2𝛽 + 7𝛾⎞ ⎛ 3⎞ ⎛ 2⎞ ⎛7 ⎞
⎜ 𝛼−𝛽+𝛾 ⎟ ⎜ 1⎟ ⎜−1 ⎟ ⎜1 ⎟
⎜ 𝛼+𝛽 ⎟ = 𝛼 ⎜ 1 ⎟ + 𝛽 ⎜ 1 ⎟ + 𝛾 ⎜0 ⎟ .
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝ 𝛾 −𝛼 ⎠ ⎝−1 ⎠ ⎝ 0⎠ ⎝1 ⎠

Assim, vemos que 𝑊 pode ser interpretado como o espaço gerado pelos
vetores
⎛ 3⎞ ⎛ 2⎞ ⎛7⎞
⎜ 1⎟ ⎜−1 ⎟ ⎜1⎟
𝒗1 = ⎜ ⎟ , 𝒗 2 = ⎜ ⎟ e 𝒗3 = ⎜ ⎟ .
1 1 0
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
−1
⎝ ⎠ ⎝ ⎠0 ⎝1⎠
Qualquer ponto 𝒘 ∈ 𝑊 fica determinado (em termos dos vetores 𝒗1 , 𝒗2 e
𝒗3 ) se conhecermos os escalares 𝛼, 𝛽 e 𝛾. Ao definirmos base, veremos que
os vetores 𝒗1 , 𝒗2 e 𝒗3 geram um sistema de coordenadas (isto é, uma base),
de modo que pontos de 𝑊 serão descritos em termos das três coordenadas
𝛼, 𝛽 e 𝛾. ⊲

Exemplo 2.20 (Continuação do Exemplo 2.17) Podemos descrever o su-


bespaço 𝑊, do Exemplo 2.17, de maneira semelhante à do Exemplo 2.19.
De fato, a definição de 𝑊 nos informa que

𝑥1 = −2𝑥2 + 5𝑥3 − 4𝑥4 + 7𝑥5 .


2.4. SUBESPAÇOS 43

Assim, um vetor 𝒙 = (𝑥1 , 𝑥2 , 𝑥3 , 𝑥4 , 𝑥5 ) ∈ ℝ5 está em 𝑊 se, e somente se,

⎛𝑥1 ⎞ ⎛−2𝑥2 + 5𝑥3 − 4𝑥4 + 7𝑥5 ⎞


⎜𝑥2 ⎟ ⎜ 𝑥2 ⎟
⎜𝑥3 ⎟ = ⎜ 𝑥3 ⎟
⎜ ⎟ ⎜ ⎟
⎜𝑥4 ⎟ ⎜ 𝑥4 ⎟
⎝𝑥5 ⎠ ⎝ 𝑥5 ⎠
⎛ −2 ⎞ ⎛5⎞ ⎛ −4 ⎞ ⎛7⎞
⎜ 1⎟ ⎜0⎟ ⎜ 0⎟ ⎜0⎟
= 𝑥2 ⎜ 0 ⎟ + 𝑥3 ⎜ 1 ⎟ + 𝑥4 ⎜ 0 ⎟ + 𝑥5 ⎜ 0 ⎟ .
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎜ 0⎟ ⎜0⎟ ⎜ 1⎟ ⎜0⎟
⎝ ⎠0 0
⎝ ⎠ ⎝ ⎠ 0 ⎝1⎠
Mostramos assim que 𝑊 é o espaço gerado pelos vetores

⎛ −2 ⎞ ⎛5⎞ ⎛ −4 ⎞ ⎛7⎞
⎜ 1⎟ ⎜0⎟ ⎜ 0⎟ ⎜0⎟
⎜ 0⎟ , ⎜1⎟, ⎜ 0⎟ e ⎜0⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎜ 0⎟ ⎜0⎟ ⎜ 1⎟ ⎜0⎟
⎝ 0⎠ ⎝0⎠ ⎝ 0⎠ ⎝1⎠
Observe que esse procedimento nada mais é do que explicitar o núcleo
da matriz 𝐴 definida no Exemplo 2.17. ⊲

Exercício 2.19 Aplicando diretamente a Definição 2.13, mostre que o conjunto 𝑊 do Exemplo
2.19 é um subespaço.
Exercício 2.20 Sejam 𝒗1 = (1, 2, 1, 1), 𝒗2 = (2, 1, 1, 1), 𝒗3 = (1, 1, 1, 1), 𝒗4 = (0, 1, 0, 1) e 𝒗5 =
(0, 0, 1, 0) vetores do espaço ℝ4 . Descreva o espaço < 𝒗1 , … , 𝒗5 > de maneira semelhante àquela
utilizada no Exemplo 2.19 para descrever 𝑊 .
Os exercícios anteriores deixam claro que existem diferentes maneiras
de mostrar que um subconjunto 𝑊 ⊂ 𝑋 é um subespaço de 𝑋. Mas a
utilização da Proposição 2.18 no Exemplo 2.19 é vantajosa, pois toda a in-
formação sobre aquele subespaço 𝑊 está sintetizada nos vetores 𝒗1 , 𝒗2 e 𝒗3 :
conhecendo esses vetores, o subespaço 𝑊 está determinado.

Definição 2.21 Seja 𝑘 um número natural fixo e 𝑋 um espaço vetorial. Um


vetor 𝒗 é combinação linear dos vetores 𝒗1 , … , 𝒗𝑘 ∈ 𝑋 se existirem esca-
lares 𝑥1 , … , 𝑥𝑘 ∈ 𝕂 tais que

𝑥1 𝒗1 + … + 𝑥𝑘 𝒗𝑘 = 𝒗. (2.10)

Quer dizer, 𝒗 ∈ < 𝒗1 , … , 𝒗𝑘 > é o mesmo que 𝒗 ser combinação linear


dos vetores 𝒗1 , … , 𝒗𝑘 . Veja a Figura 2.1
Assim, o que fizemos no Exemplo 2.19 nada mais foi do que mostrar
que o espaço 𝑊 é dado como combinação linear dos vetores 𝒗1 , 𝒗2 e 𝒗3 lá
definidos. Observação análoga é válida para o Exemplo 2.20.

Exemplo 2.22 O vetor 𝒖 = (3, 2, 1) ∈ ℝ3 não é combinação linear dos


vetores 𝒗1 = (1, 1, 1) e 𝒗2 = (1, 1, 0). De fato, consideremos a equação

𝛼1 𝒗1 + 𝛼2 𝒗2 = 𝒖.
44 CAPÍTULO 2. ESPAÇOS VETORIAIS

𝒘



  
  
  - 
 𝒗 
 
 
 < 𝒗 1 , … , 𝒗𝑘 > 
 

Figura 2.1: Se representarmos o subespaço < 𝒗1 , … , 𝒗𝑘 > ⊂ ℝ𝑛 como um


plano, então 𝒗 ∈ < 𝒗1 , … , 𝒗𝑘 >, enquanto 𝒘 ∉ < 𝒗1 , … , 𝒗𝑘 >.

O vetor 𝒖 é combinação linear dos vetores 𝒗1 e 𝒗2 se, e somente se, essa


equação tiver solução. Essa equação é equivalente a

𝛼1 (1, 1, 1) + 𝛼2 (1, 1, 0) = (3, 2, 1),

que produz o sistema

𝛼1 + 𝛼2 = 3, 𝛼1 + 𝛼2 = 2, 𝛼1 = 1,

que não possui solução.


É interessante escrever o sistema obtido em forma matricial. Fazendo
isso, obtemos o sistema não homogêneo

⎛1 1⎞ 𝛼 ⎛3⎞
⎜1 1⎟ 1 = ⎜2⎟ .
⎜ ⎟ (𝛼 2 ) ⎜ ⎟
⎝1 0⎠ ⎝1⎠

Note que os vetores 𝒗1 e 𝒗2 aparecem como colunas da matriz

⎛1 1⎞
𝐴 = ⎜1 1⎟ .
⎜ ⎟
⎝1 0⎠ ⊲

Exercício 2.21 Considere os vetores 𝒗1 = (1, 2, 1, 1), 𝒗2 = (2, 1, 1, 1), 𝒗3 = (1, 1, 1, 1), 𝒗4 =
(0, 1, 0, 1) e 𝒗5 = (0, 0, 1, 0) no espaço 𝕂4 . O vetor (5, 2, 3, −1) ∈ 𝕂4 é combinação linear desses
vetores?
Exercício 2.22 Sejam

𝒗1 = (2, 3, 1, 1), 𝒗2 = (−2, −2, 2, 1), e 𝒗3 = (1, 0, −2, −1)

vetores em 𝕂4 . O vetor 𝒗 = (1, 1, 1, 1) pertence a < 𝒗1 , 𝒗2 , 𝒗3 >?

Definição 2.23 Sejam 𝑊 ⊂ 𝑋 um subespaço e 𝑘 um número natural fixo.


Dizemos que o conjunto 𝑆 = {𝒗1 , … , 𝒗𝑘 } ⊂ 𝑊 gera o subespaço 𝑊 se
qualquer vetor 𝒘 ∈ 𝑊 for combinação linear desses vetores.
2.4. SUBESPAÇOS 45

Note que essa definição está completamente relacionada com a Propo-


sição 2.18.
Se o problema que estivermos considerando tratar do subespaço 𝑊, o
fato de 𝑆 gerar 𝑊 garante que esse conjunto contém todas as informações
relevantes sobre 𝑊, pois todos os vetores em 𝑊 podem ser descritos utili-
zando apenas os elementos de 𝑆.
Exemplo 2.24 Consideremos os vetores

𝒆1 = (1, 0, … , 0), 𝒆2 = (0, 1, 0, … , 0), … , 𝒆𝑛 = (0, 0, … , 0, 1) ∈ 𝕂𝑛 .

Esses vetores geram o 𝕂𝑛 , pois se 𝒙 = (𝑥1 , … , 𝑥𝑛 ) ∈ 𝕂𝑛 , então

𝒙 = 𝑥1 (1, 0, … , 0) + 𝑥2 (0, 1, 0, …) + … + 𝑥𝑛 (0, … , 0, 𝑥𝑛 )


= 𝑥1 𝒆1 + … + 𝑥𝑛 𝒆𝑛 .

Note que as coordenadas 𝑥1 , 𝑥2 , … , 𝑥𝑛 do vetor 𝒙 são justamente os


escalares que tornam 𝒙 combinação linear dos vetores 𝒆1 , 𝒆2 , … , 𝒆𝑛 . ⊲

De acordo com o Exemplo 2.17, se 𝑎1 , … , 𝑎𝑛 forem quaisquer escalares,


então

𝑊 = {𝒙 = (𝑥1 , … , 𝑥𝑛 ) ∈ 𝕂𝑛 ∶ 𝑎1 𝑥1 + … + 𝑎𝑛 𝑥𝑛 = 0}

é um subespaço do 𝕂𝑛 . Mas, se 𝑎1 ≠ 0, por exemplo, os vetores 𝒆1 , … , 𝒆𝑛


não geram o subespaço 𝑊, pois 𝒆1 ∉ 𝑊.

Exemplo 2.25 (Continuação do Exemplo 2.19) Podemos descrever o su-


bespaço 𝑊 do Exemplo 2.19 utilizando matrizes. De fato,

𝒚 = (𝑦1 , 𝑦2 , 𝑦3 , 𝑦4 ) ∈ 𝕂4

pertence a 𝑊 se, e somente se, existirem escalares 𝛼, 𝛽 e 𝛾 tais que

⎛ 3 2 7⎞

𝑦
𝛼⎞ ⎛ 1 ⎞
⎜ 1 −1 1 ⎟ ⎜ ⎟ ⎜𝑦2 ⎟
⎜ 1 𝛽 = . (2.11)
1 0 ⎟ ⎜ ⎟ ⎜𝑦3 ⎟
⎜ ⎟ ⎝𝛾⎠ ⎜ ⎟
⎝−1 0 1⎠ ⎝𝑦4 ⎠
Note que os vetores 𝒗1 , 𝒗2 e 𝒗3 , obtidos no Exemplo 2.19, geram o es-
paço 𝑊 e correspondem às colunas da matriz

⎛ 3 2 7⎞
⎜ 1 −1 1 ⎟
𝐴=⎜ . (2.12)
1 1 0⎟
⎜ ⎟
⎝−1 0 1⎠
Note também que (2.11) é um sistema não homogêneo. ⊲

Generalizando o Exemplo 2.25, a verificação de que um vetor 𝒃 ∈ 𝕂𝑛


pertence ao subespaço 𝑊 = < 𝒗1 , 𝒗2 , … , 𝒗𝑘 > (com 𝒗𝑖 ∈ 𝕂𝑛 resume-se a
resolver o sistema não homogêneo

𝐴𝒙 = 𝒃

em que a matriz 𝐴 tem como colunas os vetores 𝒗1 , 𝒗2 , … , 𝒗𝑘 .


46 CAPÍTULO 2. ESPAÇOS VETORIAIS

Definição 2.26 Sejam 𝑋 um espaço vetorial e 𝑘 um número natural fixo.


Um conjunto 𝑆 = {𝒗1 , … , 𝒗𝑘 } ⊂ 𝑋 é linearmente independente se

𝑥1 𝒗 1 + … + 𝑥 𝑘 𝒗 𝑘 = 0 (2.13)

só tem a solução trivial 𝑥1 = … = 𝑥𝑘 = 0. Caso contrário, dizemos que 𝑆


é linearmente dependente.

Se 𝑋 = 𝕂𝑛 , substituindo as coordenadas dos vetores 𝒗1 , … , 𝒗𝑘 , a equa-


ção (2.13) dá origem a um sistema homogêneo. Assim, para verificar se os
vetores 𝒗1 , … , 𝒗𝑘 ∈ 𝕂𝑛 são linearmente independentes, formamos a matriz
𝐴 = (𝒗1 … 𝒗𝑘 ), que tem os vetores 𝒗1 , … , 𝒗𝑘 como colunas, e conside-
ramos o sistema 𝐴𝒙 = 0. Se esse sistema tiver apenas a solução trivial
𝒙 = 0, então {𝒗1 , … , 𝒗𝑘 } é linearmente independente; caso contrário, é
linearmente dependente.

Exemplo 2.27 Consideremos os vetores 𝒆1 = (1, 0, 0), 𝒆2 = (0, 1, 0) e


𝒗 = (1, 1, 0) do espaço ℝ3 . Queremos verificar se esses vetores são linear-
mente independentes ou linearmente dependentes. Para isso, examinamos
a igualdade vetorial
𝛼1 𝒆1 + 𝛼2 𝒆2 + 𝛼3 𝒗 = 0, (2.14)
em que 𝛼1 , 𝛼2 , 𝛼3 ∈ ℕ. Ou seja,

𝛼1 (1, 0, 0) + 𝛼2 (0, 1, 0) + 𝛼3 (1, 1, 0) = (0, 0, 0).

Essa última igualdade dá origem ao sistema homogêneo

⎛1 0 1⎞ ⎛𝛼1 ⎞ ⎛0⎞
⎜0 1 1⎟ ⎜𝛼2 ⎟ = ⎜0⎟ .
⎜ ⎟⎜ ⎟ ⎜ ⎟
⎝0 0 0⎠ ⎝𝛼3 ⎠ ⎝0⎠
(Repetimos: os vetores 𝒆1 , 𝒆2 e 𝒗 constituem as colunas da matriz 3 × 3.)
A solução do sistema homogêneo é dada por

⎛𝛼1 ⎞ ⎛ −1 ⎞
⎜𝛼2 ⎟ = 𝛼3 ⎜ −1 ⎟ .
⎜ ⎟ ⎜ ⎟
⎝𝛼3 ⎠ ⎝ 1⎠
Como o sistema homogêneo possui solução não trivial, concluímos que
os vetores 𝑒1 , 𝑒2 e 𝑣 são linearmente dependentes.
Substituindo a solução (𝛼1 , 𝛼2 , 𝛼3 ) = (−1, −1, 1) em (2.14), obtemos

−𝒆1 − 𝒆2 + 𝒗 = 0,

ou, o que é o mesmo,


𝒗 = 𝒆 1 + 𝒆2 . (2.15)
Essa equação garante que 𝒗 é combinação linear dos vetores 𝒆1 e 𝒆2 .
Geometricamente, isso significa que 𝒗 pertence ao plano 𝜋 gerado pelos
vetores 𝒆1 e 𝒆2 . Quer dizer, se tivermos os vetores 𝒆1 e 𝒆2 , então duas coor-
denadas bastarão para descrever todos os pontos do plano gerado por esses
vetores e o vetor 𝒗 não é necessário, sendo uma informação supérflua. Veja
a Figura 2.2. ⊲
2.4. SUBESPAÇOS 47

Figura 2.2: O vetor 𝒗 é combinação linear dos vetores 𝒆1 e 𝒆2 , pois per-


tence ao plano 𝜋 gerado por estes vetores. Todos os pontos do plano 𝜋 são
combinações lineares dos vetores 𝒆1 e 𝒆2 .

É claro que, no Exemplo 2.27, também podemos escrever 𝒆1 (ou 𝒆2 )


como combinação linear dos vetores restantes. Nesse caso, 𝒆1 (ou, respec-
tivamente, 𝒆2 ) seria a informação supérflua.

Exercício 2.23 Verifique se os vetores do ℝ3

𝒗1 = (1, 1, 1), 𝒗2 = (1, 1, 0) e 𝒗3 = (1, 0, 0)

são linearmente dependentes. E se considerarmos esses vetores no espaço ℂ3 ?


Exercício 2.24 Sejam 𝑋 um espaço vetorial e 𝑊 = {𝑡𝒗 ∶ 𝑡 ∈ 𝕂}, em que 0 ≠ 𝒗 ∈ 𝑋. Mostre
que quaisquer vetores em 𝑊 são linearmente dependentes.

Observação 2.28 Enfatizamos: dado um conjunto de vetores

𝑆 = {𝒗1 , 𝒗2 , … , 𝒗𝑘 } ⊂ 𝕂𝑛

e um vetor 𝒖 ∈ 𝕂𝑛 , o sistema que verifica se 𝑆 é linearmente independente


é o sistema homogêneo associado àquele que verifica se 𝒖 é combinação
linear dos vetores de 𝑆. ⊲

Podemos formular de maneira geral o que aconteceu no Exemplo 2.27.


Por lidar com um espaço abstrato 𝑋, a Proposição 2.29 trata a equação (2.13)
sem considerar coordenadas para os vetores do conjunto 𝑆!
Proposição 2.29 Seja 𝑋 um espaço vetorial e 𝑆 = {𝒗1 , … , 𝒗𝑘 } ⊂ 𝑋. En-
tão 𝑆 é linearmente dependente se, e somente se, algum dos vetores de 𝑆
for combinação linear dos vetores restantes.
Demonstração: Suponhamos que 𝑆 seja linearmente dependente. Então
existem escalares 𝛼1 , … , 𝛼𝑘 , nem todos nulos, tais que

𝛼1 𝒗1 + … + 𝛼𝑘 𝒗𝑘 = 0.

Para simplificar a notação, vamos supor que 𝛼1 ≠ 0. Nesse caso, temos

𝛼1 𝒗1 = −𝛼2 𝒗2 − … − 𝛼𝑘 𝒗𝑘 , (2.16)
48 CAPÍTULO 2. ESPAÇOS VETORIAIS

ou seja,
𝒗1 = 𝛽 2 𝒗2 + … + 𝛽 𝑘 𝒗𝑘 ,
em que 𝛽𝑖 = −𝛼𝑖 /𝛼1 para 𝑖 = 2, … , 𝑘. Assim, 𝒗1 é combinação linear dos
vetores {𝒗2 , … , 𝒗𝑘 }.
Reciprocamente, se (por exemplo) 𝒗1 = 𝛼2 𝒗2 + … + 𝛼𝑘 𝒗𝑘 , então

1𝒗1 − 𝛼2 𝒗2 − … − 𝛼𝑘 𝒗𝑘 = 0

e ao menos um dos escalares (qual seja, o coeficiente de 𝒗1 ) é não nulo,


mostrando que esse conjunto é linearmente dependente. 

Note que, se tivermos 𝛼1 𝒗1 +…+𝛼𝑘 𝒗𝑘 = 0, podemos escrever qualquer


vetor relacionado a um coeficiente 𝛼𝑖 ≠ 0 como combinação linear dos
vetores restantes: na demonstração anterior, esse fato é usado ao dividirmos
a equação (2.16) pelo escalar 𝛼1 ≠ 0.
O significado da Proposição 2.29 pode ser resumido em palavras: con-
sideremos o conjunto 𝑆 = {𝒗1 , … , 𝒗𝑘 } e o espaço < 𝑆 > . Se 𝑆 for linear-
mente dependente, então ele possui informação supérflua, isto é, um de seus
vetores pode ser retirado de 𝑆 sem afetar o espaço < 𝑆 >. Por outro lado,
se 𝑆 for linearmente independente, todos os vetores de 𝑆 são essenciais: a
retirada de um desses vetores altera o subespaço < 𝑆 >.

Observação 2.30 A Proposição 2.29 garante que podemos retirar um vetor


de um conjunto linearmente dependente. Retirado esse vetor supérfluo, não
podemos garantir que o conjunto restante seja formado apenas por vetores
essenciais. Isto é, pode ser que o conjunto restante ainda seja linearmente
dependente. Veremos, no Exemplo 2.48, um método para retirar de uma
vez todos os vetores supérfluos de um conjunto linearmente dependente de
vetores do 𝕂𝑛 . Compare com a Observação 4.39. ⊲

Exercício 2.25 Verifique se o conjunto 𝑆 = {(1, 1, 2, 1), (1, 1, 1, 1), (2, 1, 1, 1), (2, 1, 2, 1)} ⊂ 𝕂4 é
linearmente dependente ou linearmente independente. Se for linearmente dependente, escreva um
dos vetores como combinação linear dos vetores restantes.
Exercício 2.26 Suponha que o vetor 𝒗 pertença ao espaço < 𝒗1 , … , 𝒗𝑘 >. Mostre que o conjunto
{𝒗, 𝒗1 , … , 𝒗𝑘 } é linearmente dependente.

Exemplo 2.31 Sejam 𝒗2 , … , 𝒗𝑘 vetores quaisquer do espaço vetorial 𝑋.


Então o conjunto {0, 𝒗2 , … , 𝒗𝑘 } é linearmente dependente. Assim, qual-
quer conjunto que contém o vetor nulo é linearmente dependente.
De fato, temos que

𝛼1 0 + 𝛼2 𝒗2 + … + 𝛼𝑘 𝒗𝑘 = 0

possui a solução não trivial 𝛼1 = 1, 𝛼2 = … = 𝛼𝑛 = 0. ⊲

Exercício 2.27 Seja 𝑋 um espaço vetorial. Suponha que o conjunto {𝒗1 , … , 𝒗𝑘 } ⊂ 𝑋 seja linear-
mente dependente. Mostre que {𝒗1 , … , 𝒗𝑘 , 𝒗} ⊂ 𝑋 é linearmente dependente, qualquer que seja
o vetor 𝒗 ∈ 𝑋.
2.5. BASE E DIMENSÃO 49

Observação 2.32 Seja 𝑋 um espaço vetorial. Se 𝑆 = {𝒗1 , … , 𝒗𝑘 } ⊂ 𝑋


for linearmente independente e se 𝒗 ∉ < 𝑆 >, então {𝒗1 , … , 𝒗𝑘 , 𝒗} é line-
armente independente. Esse resultado é consequência da Proposição 2.29
(justifique!), mas vamos apresentar uma outra demonstração desse fato: su-
ponhamos que
𝛼1 𝒗1 + … + 𝛼𝑘 𝒗𝑘 + 𝛽𝒗 = 0. (2.17)
Então 𝛽 = 0 pois, caso contrário, 𝒗 seria combinação linear dos vetores
𝒗1 , … , 𝒗𝑘 . Mas então temos
𝛼1 𝒗1 + … + 𝛼𝑘 𝒗𝑘 = 0
e, como esses vetores são linearmente independentes, 𝛼𝑖 = 0 para 𝑖 ∈
{1, … , 𝑘}. Assim, todos os escalares em (2.17) são nulos, mostrando nossa
afirmação.
Suponhamos agora que 𝒗 ∉ < 𝑆 >, sem supor que 𝑆 seja linearmente
independente. Com a linguagem pictórica introduzida anteriormente, isso
quer dizer que o vetor 𝒗 traz uma informação que não está contida no su-
bespaço < 𝑆 >.
Mas não podemos garantir que o conjunto {𝒗1 , … , 𝒗𝑘 , 𝒗} ⊂ ℝ𝑛 seja
linearmente independente, pois não sabemos se seu subconjunto 𝑆 é linear-
mente independente, conforme o Exercício 2.27. ⊲

Exercício 2.28 Seja 𝒗 ≠ 0 um vetor do espaço vetorial 𝑋. Mostre que o conjunto {𝒗} é linear-
mente independente.
Exercício 2.29 Sejam 𝑋 um espaço vetorial e ℬ = {𝒗1 , 𝒗2 , … , 𝒗𝑘 } ⊂ 𝑋 um conjunto linearmente
independente. Mostre que 𝒗𝑘 ∉ < 𝒗1 , … , 𝒗𝑘−1 >.

2.5 Base e Dimensão


Dado um subespaço 𝑊 e vetores 𝒗1 , … , 𝒗𝑘 ∈ 𝑊, estão definidos dois
conceitos fundamentais: se 𝑆 = {𝒗1 , … , 𝒗𝑘 } gerar 𝑊, todas as informa-
ções essenciais sobre o subespaço 𝑊 estão contidas no conjunto 𝑆; por ou-
tro lado, se 𝑆 for linearmente independente, então não existe informação
supérflua nesse conjunto. Assim, um conjunto 𝑆 que satisfaz essas duas
condições é especial...
Definição 2.33 Seja 𝑋 um espaço vetorial. Uma base ℬ = {𝒗1 , … , 𝒗𝑘 }
de um subespaço 𝑊 ⊂ 𝑋 é um conjunto ordenado de vetores de 𝑊 que gera
esse subespaço e é linearmente independente.
Por conjunto ordenado queremos dizer que a ordem dos elementos é
importante. Quer dizer, os conjuntos ordenados
{𝒖, 𝒗, 𝒘}, {𝒖, 𝒘, 𝒗} e {𝒘, 𝒖, 𝒗}
são distintos! Posteriormente explicaremos a razão de definirmos uma base
como um conjunto ordenado. (Veja a Observação 2.54.)
Observação 2.34 A definição de base como um conjunto ordenado não é
necessária, mas adequada ao nosso propósito de concentrar nosso estudo em
espaços de dimensão finita, conceito que definiremos na sequência. Veja, a
esse respeito, a Observação 2.54. ⊲
50 CAPÍTULO 2. ESPAÇOS VETORIAIS

Assim, para verificar que um conjunto ℬ é uma base do subespaço 𝑊,


precisamos verificar três afirmações independentes:

(1) os elementos de ℬ pertencem a 𝑊;

(2) todo elemento de 𝑊 é combinação linear dos elementos de ℬ (isto é,


ℬ gera 𝑊);

(3) o conjunto ℬ é linearmente independente.

No caso específico 𝑋 = 𝕂𝑛 , apesar das condições (2) e (3) serem inde-


pendentes, elas estão relacionadas: montamos a matriz 𝐴 que tem os vetores
𝒗1 , … , 𝒗𝑘 como colunas:

𝐴 = ( 𝒗1 𝒗2 … 𝒗 𝑘 )
↑ ↑ ↑
colunas
Sendo 𝒘 ∈ 𝑊 um vetor qualquer em 𝑊, consideramos o sistema

𝐴𝒙 = 𝒘.

Se esse sistema tiver solução para todo 𝒘 ∈ 𝑊, então ℬ = {𝒗1 , … , 𝒗𝑘 }


gera 𝑊; se o sistema homogêneo associado tiver apenas a solução trivial
𝒙 = 0, então ℬ é linearmente independente.

Exemplo 2.35 Os vetores 𝒆1 , 𝒆2 , … , 𝒆𝑛 ∈ 𝕂𝑛 do Exemplo 2.24 formam


uma base do espaço 𝕂𝑛 . De fato, já vimos naquele exemplo que eles geram
o ℝ𝑛 . Além disso,

0 = 𝛼 1 𝒆1 + … + 𝛼 𝑛 𝒆𝑛
= (𝛼1 , 0, … , 0) + (0, 𝛼2 , 0, … , 0) + … + (0, … , 0, 𝛼𝑛 )
= (𝛼1 , … , 𝛼𝑛 ),

o que implica que 𝛼1 = … = 𝛼𝑛 = 0.


A base ℰ = {𝒆1 , … , 𝒆𝑛 } é chamada base canônica do 𝕂𝑛 . ⊲

Exercício 2.30 Verifique se {𝒗1 , 𝒗2 , 𝒗3 } é uma base do 𝕂3 , sendo

𝒗1 = (1, 3, 3), 𝒗2 = (2, 1, 1) e 𝒗3 = (1, 1, 1).

Exercício 2.31 Mostre que o conjunto {(1, 1, 1, 1), (1, 1, 1, 0), (1, 1, 0, 0), (1, 0, 0, 0)} é uma base
do espaço 𝕂4 .
Exercício 2.32 Apresente uma base do espaço 𝕄𝑚×𝑛 .

Exemplo 2.36 Se 𝒗 ≠ 0, o conjunto {𝒗} é uma base do subespaço

𝑊 = {𝑡𝒗 ∶ 𝑡 ∈ ℝ}

do Exemplo 2.15. De fato, 𝒗 = 1𝒗 ∈ 𝑊 e {𝒗} é linearmente independente,


de acordo com o Exercício 2.28. Além disso, se 𝒗1 for um elemento de 𝑊,
então 𝒗1 = 𝑡𝒗 para algum 𝑡 ∈ ℝ, de modo que {𝒗} gera 𝑊. ⊲
2.5. BASE E DIMENSÃO 51

A base canônica ℰ introduz no 𝕂𝑛 um sistema de coordenadas seme-


lhante ao sistema com eixos 𝑥, 𝑦 e 𝑧 do ℝ3 . Assim, a base canônica ℰ produz
um sistema de coordenadas completamente natural: se 𝒙 = (𝑥1 , 𝑥2 , … , 𝑥𝑛 ),
então
𝒙 = 𝑥1 𝒆1 + … + 𝑥𝑛 𝒆𝑛 .
Para que estudar outras bases no 𝕂𝑛 ? A resposta é simples: a base
canônica produz um sistema de coordenadas que pode não ser o mais ade-
quado ao problema que estamos tratando. Com um sistema de eixos mais
adequado, o nosso problema pode se tornar bem mais simples. (Veremos
exemplos dessa situação com o decorrer do curso.)
Além disso, muitas vezes estamos interessados em um subespaço parti-
cular do 𝕂𝑛 , subespaço esse que pode funcionar como um plano ou uma reta,
por exemplo. Pode acontecer que nenhum dos vetores da base canônica per-
tença a esse subespaço. Além disso, os pontos desse subespaço podem ser
caracterizados por um número menor de coordenadas do que as 𝑛 coorde-
nadas utilizadas para determinar um ponto do 𝕂𝑛 . Voltemos aos Exemplos
2.15 e 2.36 para ilustrar essa afirmação: ao invés de precisarmos conhecer
as 𝑛 coordenadas de cada vetor 𝒘 ∈ 𝑊, basta conhecermos o vetor 𝒗 e o
valor do parâmetro 𝑡, pois se 𝒘 ∈ 𝑊, então 𝒘 = 𝑡𝒗 para algum 𝑡 ∈ ℝ.
Exemplo 2.37 Seja ℬ = {𝒗1 , … , 𝒗𝑘 } um conjunto linearmente indepen-
dente de vetores do espaço vetorial 𝑋. Então o subespaço < ℬ > ⊂ 𝑋 (de
todas as combinações lineares de elementos em ℬ) tem ℬ como base. De
fato, notamos inicialmente que, para todo 𝑖 ∈ {1, … , 𝑗} vale
𝒗𝑖 = 0𝒗1 + … + 0𝒗𝑖−1 + 1𝒗𝑖 + 0𝒗𝑖+1 + … + 0𝒗𝑘 ,
de modo que os vetores de ℬ estão em < ℬ >. Por definição, todo elemento
de < ℬ > é uma combinação linear de elementos de ℬ, de modo que esse
conjunto gera < ℬ >; como, por hipótese, ℬ é linearmente independente,
nossa prova está completa. ⊲

Exercício 2.33 Se os vetores 𝒖, 𝒗 ∈ ℝ𝑛 não forem colineares (isto é, se não estiverem na mesma
reta), mostre que {𝒖, 𝒗} é uma base do subespaço < 𝒖, 𝒗 >.

Proposição 2.38 Seja 𝑋 um espaço vetorial. Se ℬ = {𝒗1 , … , 𝒗𝑘 } for uma


base de um subespaço 𝑉 ⊂ 𝑋, então cada vetor 𝒗 ∈ 𝑉 é escrito de maneira
única como combinação linear dos elementos de ℬ.
Demonstração: Seja 𝒗 ∈ 𝑉 tal que
𝛼1 𝒗1 + 𝛼2 𝒗2 + … + 𝛼𝑘 𝒗𝑘 = 𝒗 = 𝛽1 𝒗1 + 𝛽2 𝒗2 + … + 𝛽𝑘 𝒗𝑘 .
Queremos mostrar que 𝛼𝑖 = 𝛽𝑖 para 𝑖 ∈ {1, … , 𝑘}. Ora, da igualdade
anterior deduzimos que
(𝛼1 − 𝛽1 )𝒗1 + (𝛼2 − 𝛽2 )𝒗2 + … + (𝛼𝑘 − 𝛽𝑘 )𝒗𝑘 = 0.
Como ℬ é linearmente independente, devemos ter 𝛼𝑖 − 𝛽𝑖 = 0 para todo
𝑖 ∈ {1, … , 𝑘}, o que prova nosso resultado. 

Veja também o Exercício 29, no final do capítulo.


Agora passamos a considerar o conceito de dimensão de um subespaço.
52 CAPÍTULO 2. ESPAÇOS VETORIAIS

Definição 2.39 Dizemos que um espaço vetorial 𝑋 tem dimensão finita se


𝑋 = {0} ou se 𝑋 tiver uma base com um número finito de elementos. Caso
contrário, 𝑋 tem dimensão infinita.

Exemplo 2.40 Consideremos os vetores 𝒖 = (1, 0, 0) e 𝒗 = (0, 1, 0). De


acordo com o Exercício 2.33, {𝒖, 𝒗} é uma base do subespaço

𝑍 = < 𝒖, 𝒗 > = {𝛼𝒖 + 𝛽𝒗 ∶ 𝛼, 𝛽 ∈ 𝕂} ⊂ 𝕂3 .

Seja 𝒘 = 𝒖 + 𝒗 = (1, 1, 0). Afirmamos que {𝒖, 𝒘} é outra base de 𝑍.


Temos que 𝒘 ∈ 𝑍, pois 𝒘 = 1𝒖 + 1𝒗. Assim, {𝒖, 𝒘} ⊂ 𝑍. Se 𝒛 ∈ 𝑍,
então
𝒛 = 𝛼𝒖 + 𝛽𝒗 = 𝛼(1, 0, 0) + 𝛽(0, 1, 0) = (𝛼, 𝛽, 0).
Afirmamos que 𝒛 é combinação linear de 𝒖 e 𝒘. De fato,

(𝛼, 𝛽, 0) = 𝛽1 𝒖 + 𝛽2 𝒘 ⇔ (𝛼, 𝛽, 0) = (𝛾1 + 𝛾2 , 𝛾2 , 0).

É claro então que 𝛾2 = 𝛽 e 𝛾1 + 𝛾2 = 𝛼, o que implica 𝛾1 = 𝛼 − 𝛾2 =


𝛼 − 𝛽. Mostramos assim que qualquer elemento de 𝑍 é combinação linear
dos elementos 𝒖 e 𝒘: se 𝒘 ∈ 𝑍, então 𝒘 = (𝛼, 𝛽, 0) = (𝛼 − 𝛽)𝒖 + 𝛽𝒗.
Mas o conjunto {𝒖, 𝒘} é linearmente independente, pois

(0, 0, 0) = 𝛾1 𝒖 + 𝛾2 𝒘 ⇔ (0, 0, 0) = (𝛾1 + 𝛾2 , 𝛾2 , 0).

Assim, 𝛾1 = 𝛾2 = 0 é a única solução de 0 = 𝛾1 𝒖 + 𝛾2 𝒘. ⊲

Uma generalização simples do exemplo anterior nos permite concluir


que um mesmo subespaço do 𝕂𝑛 possui diferentes bases. (Se considerar-
mos diferentes ordenamentos dos vetores de uma base, isso já era óbvio.)
Todas essas bases possuem algo em comum: o número de elementos. Uti-
lizaremos, para mostrar esse fato, o seguinte resultado:
Teorema 2.41 Sejam 𝑋 um espaço vetorial e ℬ = {𝒗1 , … , 𝒗𝑘 } uma base
do subespaço 𝑊 ⊂ 𝑋. Então qualquer conjunto 𝒞 ⊂ 𝑊 com mais que 𝑘
elementos é linearmente dependente.
Demonstração: Mostraremos esse resultado em uma situação particular,
com uma notação mais simples. Para isso, suponhamos que ℬ = {𝒗1 , 𝒗2 }
seja uma base de 𝑊. Consideremos um conjunto qualquer

𝑆 = {𝒖1 , 𝒖2 , 𝒖3 } ⊂ 𝑊 .

Vamos mostrar que 𝑆 é linearmente dependente.


Para isso, consideremos a equação

𝛽1 𝒖1 + 𝛽2 𝒖2 + 𝛽3 𝒖3 = 0. (2.18)

Como ℬ é uma base de 𝑊, cada elemento de 𝑆 é combinação linear dos


elementos em ℬ. Assim,

𝒖1 = 𝛼11 𝒗1 + 𝛼21 𝒗2
𝒖2 = 𝛼12 𝒗1 + 𝛼22 𝒗2
𝒖3 = 𝛼13 𝒗1 + 𝛼23 𝒗2
2.5. BASE E DIMENSÃO 53

para determinados escalares 𝛼𝑖𝑗 , com 𝑖 ∈ {1, 2} e 𝑗 ∈ {1, 2, 3}. Note bem:
como pouco sabemos sobre os vetores 𝒗1 , 𝒗2 , não podemos determinar esses
escalares 𝛼𝑖𝑗 , mas eles certamente existem!
Substituindo essas expressões de 𝒖1 , 𝒖2 e 𝒖3 em (2.18), obtemos

𝛽1 (𝛼11 𝒗1 + 𝛼21 𝒗2 ) + 𝛽2 (𝛼12 𝒗1 + 𝛼22 𝒗2 ) + 𝛽3 (𝛼13 𝒗1 + 𝛼23 𝒗2 ) = 0,

ou seja,

(𝛽1 𝛼11 + 𝛽2 𝛼12 + 𝛽3 𝛼13 )𝒗1 + (𝛽1 𝛼21 + 𝛽2 𝛼22 + 𝛽3 𝛼23 )𝒗2 = 0.

Como ℬ é um conjunto linearmente independente, devemos ter

𝛽1 𝛼11 + 𝛽2 𝛼12 + 𝛽3 𝛼13 = 0


𝛽1 𝛼21 + 𝛽2 𝛼22 + 𝛽3 𝛼23 = 0,

isto é,
𝛽 0
𝛼11 𝛼12 𝛼13 ⎛⎜ 1 ⎞⎟ ⎛⎜ ⎞⎟
𝛽2 = 0 .
(𝛼21 𝛼22 𝛼23 ) ⎜ ⎟ ⎜ ⎟
⎝𝛽3 ⎠ ⎝0⎠
Como o número de equações nesse sistema homogêneo é menor do que
o número de incógnitas, decorre do Teorema 1.33 que esse sistema possui
solução (𝛽1 𝛽2 𝛽3 )𝒕 ≠ 0, mostrando que 𝒞 é linearmente dependente. 

Exercício 2.34 Verifique se os conjuntos são linearmente dependentes ou linearmente indepen-


dentes:
(𝑎) 𝑆 = {(1, 1), (2, 1), (1, 0)} ⊂ 𝕂2 ;
(𝑏) 𝑅 = {(1, 1, 1, 1), (0, 0, 0, 0), (1, 2, 1, 1)} ⊂ 𝕂4
(𝑐) 𝑃 = {(1, 1, 2), (1, 0, 1), (1, 2, 1), (0, 0, 1)} ⊂ 𝕂3 .
Exercício 2.35 Com a notação do Teorema 2.41, sejam

ℬ = {𝒗1 , … , 𝒗𝑘 } e 𝒞 = {𝒖1 , … , 𝒖𝑘 , 𝒖𝑘+1 }.

Prove o Teorema 2.41 adaptando a demonstração já apresentada. Deduza daí então o caso 𝒞 =
{𝒖1 , … , 𝒖𝑘 , 𝒖𝑘+1 , … , 𝒖𝑘+𝑟 }, em que 𝑟 ≥ 1.

Exemplo 2.42 Considere o espaço 𝕂∞ , definido no Exercício 2.6. Su-


ponhamos que 𝕂∞ possua uma base com 𝑘 elementos. Definindo 𝒆𝑖 =
(0, … , 0, 1, 0, …) como o vetor (isto é, sequência) cuja 𝑖-ésima coordenada
é igual a 1, as outras sendo nulas, é fácil verificar que ℬ = {𝑒𝑖 ∶ 𝑖 ∈ ℕ} é
linearmente independente, o que contradiz o Teorema 2.41. Portanto, 𝕂∞
tem dimensão infinita. (É fácil verificar que ℬ é uma base de 𝕂∞ .) ⊲

Corolário 2.43 Seja 𝑊 ≠ {0} um subespaço de um espaço vetorial de


dimensão finita. Então todas as bases de 𝑊 possuem o mesmo número de
elementos.
54 CAPÍTULO 2. ESPAÇOS VETORIAIS

Demonstração: Suponhamos que existam bases ℬ e ℬ ′ , com ℬ tendo me-


nos elementos do que ℬ ′ . De acordo com o Teorema 2.41, o conjunto ℬ ′
seria linearmente dependente. Mas isso é impossível, pois ℬ ′ é uma base
de 𝑆 e, consequentemente, um conjunto linearmente independente. Chega-
mos a uma contradição que mostra que todas as bases devem ter o mesmo
número de elementos. 

Definição 2.44 Seja 𝑊 um subespaço de um espaço vetorial de dimensão


finita. Se 𝑊 ≠ {0}, definimos a dimensão de 𝑊 como o número de elemen-
tos de uma de suas bases. Escrevemos dim 𝑊 = 𝑘, se existir uma base de
𝑊 com 𝑘 elementos. Se 𝑊 = {0}, dizemos que 𝑊 tem dimensão igual a 0.

Como todas as bases de um subespaço tem o mesmo número de elemen-


tos, está bem definida a dimensão do subespaço 𝑊.
Qualquer que seja o espaço vetorial 𝑋, observe que o subespaço {0} ⊂
𝑋 não possui base.

Exemplo 2.45 Seja 𝑋 um espaço vetorial de dimensão 𝑛 ∈ ℕ. (Por exem-


plo, 𝑋 = 𝕂𝑛 .) Já vimos que o 𝑋 tem dois subespaços triviais: o espaço
{0}, de dimensão igual a 0, e o próprio 𝑋, de dimensão igual a 𝑛. Agora
podemos caracterizar todos os subespaços do 𝑋. Além desses, existem to-
das as retas passando pela origem (que são os subespaços de dimensão 1),
todos os planos passando pela origem (que são os subespaços de dimensão
2), todos os subespaços de dimensão 3 passando pela origem e assim por
diante, até chegarmos a todos os subespaços de dimensão 𝑛 − 1. O próprio
𝑋 é seu único subespaço com dimensão 𝑛. (Note que, por falta de nomes
adequados, mudamos a maneira de nos referir aos subespaços do 𝑋: come-
çamos com retas e planos e passamos a falar de subespaços de dimensão 3
etc.) ⊲

Agora mostraremos que, se tivermos um conjunto 𝒮 que gera o subes-


paço 𝑊, sempre podemos retirar de 𝒮 vetores supérfluos, de modo a obter
uma base:
Proposição 2.46 Suponha que o conjunto 𝒮 = {𝒗1 , … , 𝒗𝑘 } ⊂ 𝑊 gere o
subespaço 𝑊 ≠ {0}. Então existe um subconjunto de 𝑆 que é uma base de
𝑊.
Demonstração: Podemos supor que todos os vetores 𝒗𝑖 ∈ 𝒮 não sejam nu-
los, pois 𝑊 ≠ {0} e vetores nulos podem ser retirados de 𝑆 sem afetar o fato
de 𝒮 gerar 𝑊. Se 𝒮 for linearmente independente, temos uma base de 𝑊.
Caso contrário, um dos vetores desse conjunto é combinação linear dos ve-
tores restantes. Retirando esse vetor, o conjunto restante continua gerando
𝑊. Continuamos retirando vetores que são combinação linear dos elemen-
tos restantes até obter um conjunto linearmente independente que continua
gerando 𝑊. Este conjunto linearmente independente sempre existe, pois
um conjunto composto por um único vetor não nulo é sempre linearmente
independente. 

Se já sabemos qual a dimensão do subespaço 𝑊 ⊂ 𝑋, então a verifica-


ção de que um conjunto é uma base de 𝑊 pode ser simplificada.
2.6. OBTENÇÃO DE BASES 55

Teorema 2.47 Sejam 𝑊 ⊂ 𝑋 um subespaço de dimensão 𝑘 e

ℬ = {𝒗1 , … , 𝒗𝑘 } ⊂ 𝑊 .

Então, se uma das condições seguintes for satisfeita, ℬ é uma base de 𝑊:


(𝑖) o conjunto ℬ gera 𝑊;

(𝑖𝑖) o conjunto ℬ é linearmente independente.


Demonstração: Suponhamos inicialmente que ℬ gere 𝑊. Se esse conjunto
fosse linearmente dependente, aplicando a Proposição 2.46 obteríamos en-
tão um subconjunto de ℬ, com menos que 𝑘 elementos, que seria uma base
de 𝑊. Mas isso contradiz a hipótese de 𝑊 ter dimensão 𝑘.
Por outro lado, se ℬ fosse linearmente independente e não gerasse 𝑊,
existiria 𝒗𝑘+1 ∈ 𝑊 que não é combinação linear dos vetores de ℬ. De
acordo com a Proposição 2.29 (ou a Observação 2.32), seria linearmente
independente o conjunto {𝒗1 , … , 𝒗𝑘 , 𝒗𝑘+1 } . Mas isso contradiz o Teorema
2.41, pois existiria um conjunto linearmente independente com mais vetores
do que a dimensão do espaço. 

2.6 Obtenção de Bases


A demonstração da Proposição 2.46 mostra como obter uma base à par-
tir de um conjunto que gera um subespaço. Contudo, esse processo é muito
trabalhoso: se o conjunto for linearmente dependente, precisamos obter um
de seus vetores como combinação linear dos vetores restantes, retirar esse
vetor do conjunto e novamente verificar se o conjunto restante é linearmente
dependente, repetindo o processo até obter um conjunto linearmente inde-
pendente. Em cada etapa, retiramos apenas um vetor supérfluo. No caso
de vetores no 𝕂𝑛 , podemos retirar todos os vetores supérfluos de uma única
vez:
Exemplo 2.48 Consideremos os vetores 𝒖1 = (1, 1, 1, 1), 𝒖2 = (1, 2, 3, 2),
𝒖3 = (2, 5, 6, 4) e 𝒖4 = (2, 6, 8, 4) do espaço 𝕂4 . Queremos achar uma base
para o subespaço do ℝ4 gerado por esses vetores.
Para isso, vamos formar a matriz 𝐴 que tem esses vetores como linhas
e obter uma forma escalonada por linhas 𝐸 de 𝐴:

⎛1 1 1 1⎞ ⎛1 1 1 1⎞
⎜1 2 3 2⎟ ⎜0 1 2 1⎟
𝐴=⎜ → 𝐸=⎜ .
2 5 6 4⎟ 0 0 2 1⎟
⎜ ⎟ ⎜ ⎟
⎝2 6 8 4⎠ ⎝0 0 0 0⎠
Notamos que cada operação elementar sobre as linhas de uma matriz pro-
duz uma nova linha que é combinação linear das linhas envolvidas nessa
operação elementar. Ou seja, operações elementares sobre as linhas de uma
matriz produzem vetores linhas que são combinações lineares dos vetores
linha originais. (Posteriormente vamos dizer que operações elementares so-
bre as linhas de uma matriz não alteram seu espaço linha.) Portanto, vemos
que o espaço gerado pelos vetores 𝒖1 , 𝒖2 , 𝒖3 e 𝒖4 tem dimensão 3 e é gerado
pelos vetores 𝒗1 = (1, 1, 1, 1), 𝒗2 = (0, 1, 2, 1) e 𝒗3 = (0, 0, 2, 1). ⊲
56 CAPÍTULO 2. ESPAÇOS VETORIAIS

No Exemplo 2.48, se fizermos corresponder a primeira linha de 𝐸 à pri-


meira linha de 𝐴 e assim sucessivamente, podemos concluir que {𝒖1 , 𝒖2 , 𝒖3 }
é uma base do espaço gerado por {𝒖1 , 𝒖2 , 𝒖3 , 𝒖4 }. (Uma maneira simples de
verificar isso é considerar a matriz formada apenas por essas linhas e ve-
rificar que seu escalonamento produz as linhas não nulas de 𝐸. Mas nem
sempre uma conclusão como essa é imediata:

Exercício 2.36 Considere os vetores 𝒖1 = (1, 1, 0), 𝒖2 = (0, 0, 1), 𝒖3 = (0, 0, 2) e 𝒖4 = (0, 1, 0).
Escalone a matriz 𝐴 que tem os vetores dados como linha. Obtenha uma base para o subespaço
gerado pelos vetores dados. As linhas de 𝐴 correspondentes aos vetores não nulos de sua forma
escalonada formam uma base desse subespaço?
Assim, o método utilizado no Exemplo 2.48 certamente produz uma
base à partir de um conjunto que gera um subespaço, mas tem um inconve-
niente: os vetores da base obtida não estão todos no conjunto gerador origi-
nal. No Exemplo 2.48, apenas o primeiro vetor da base obtida faz parte do
conjunto original. Mostraremos posteriormente um método alternativo que
reduz um conjunto gerador a uma base sem alterar os vetores envolvidos.
Note que a a Proposição 2.46 garante que qualquer subespaço 𝑊 ge-
rado por um número finito de vetores em 𝑊 possui base, mas não garante
que qualquer subespaço 𝑊 de um espaço de dimensão finita 𝑋 possui base.
(Talvez a questão fique mais clara em um contexto concreto: um subespaço
𝑊 de 𝕂𝑛 possui base? Lembre-se que vetores de uma base do 𝕂𝑛 não pre-
cisam estar em 𝑊.)
O próximo resultado mostra que todo subespaço 𝑊 de um espaço veto-
rial 𝑥 de dimensão finita possui uma base:

Teorema 2.49 Seja 𝒞 = {𝒖1 , … , 𝒖𝑗 } ⊂ 𝑊 um subconjunto linearmente


independente do subespaço 𝑊 do espaço 𝑋 de dimensão 𝑛. Então existem
vetores 𝒖𝑗+1 , … , 𝒖𝑗+𝑘 em 𝑊 de modo que

ℬ = {𝒖1 , … , 𝒖𝑗 , 𝒖𝑗+1 , … , 𝒖𝑗+𝑘 }

seja uma base de 𝑊.

Demonstração: Como 𝑊 é um subespaço e 𝒞 ⊂ 𝑊, toda combinação


linear de elementos de 𝒞 pertence a 𝑊. Assim,

<𝒞 >⊂𝑊.

Se < 𝒞 > = 𝑊, então 𝒞 é uma base de 𝑊, de acordo com o Exemplo 2.37.


Caso contrário, existiria 𝒖𝑗+1 ∈ 𝑊 tal que 𝒖𝑗+1 ∉ < 𝒞 >. De acordo com a
Observação 2.32, o conjunto {𝒖1 , … , 𝒖𝑗 , 𝒖𝑗+1 } é linearmente independente.
Agora repetimos o raciocínio. Se < 𝒖1 , … , 𝒖𝑗 , 𝒖𝑗+1 > = 𝑊, então o
conjunto {𝒖1 , … , 𝒖𝑗+1 } é uma base de 𝑊. Caso contrário, existiria 𝒖𝑗+2 ∈
𝑊 tal que 𝒖𝑗+2 ∉ < 𝒖1 , … , 𝒖𝑗 , 𝒖𝑗+1 >. Nesse caso, o conjunto

{𝒖1 , … , 𝒖𝑗 , 𝒖𝑗+1 , 𝒖𝑗+2 }

é linearmente independente.
2.7. REPRESENTAÇÃO DE UM VETOR EM UMA BASE 57

Esse processo tem fim, pois estamos supondo que 𝑋 tenha dimensão
finita e sabemos que qualquer conjunto com 𝑛 + 1 elementos em 𝑋 é line-
armente dependente, de acordo com o Teorema 2.41. Ou seja, temos

< 𝒖1 , … , 𝒖𝑗 , … , 𝒖𝑗+𝑘 > = 𝑊

para algum 𝑘 ∈ {0, 1, … , 𝑛 − 𝑗}. 

Corolário 2.50 Todo subespaço 𝑊 ≠ {0} do espaço 𝑋 de dimensão 𝑛


possui uma base.
Demonstração: De fato, basta tomar um vetor 0 ≠ 𝒗1 ∈ 𝑊 e aplicar o
Teorema 2.49 ao conjunto linearmente independente 𝒞 = {𝒗1 }. 

A demonstração do Corolário 2.50 garante a existência de uma infini-


dade de bases para qualquer subespaço 𝑊 ≠ {0} de um espaço vetorial 𝑋
de dimensão 𝑛.

Exemplo 2.51 Consideremos o conjunto linearmente independente 𝒞 =


{(1, 2, 1, 2), (2, 1, 2, 1)} ⊂ ℝ4 . Vamos obter vetores 𝒗1 , 𝒗2 de modo que

{(1, 2, 1, 2), (2, 1, 2, 1), 𝒗1 , 𝒗2 } = 𝒞 ∪ {𝒗1 , 𝒗2 }

seja uma base do ℝ4 .


Para isso, vamos adaptar o método utilizado no Exemplo 2.48. Monta-
mos a matriz que temos os vetores dados como linha e escalonamos (não
precisamos que cada pivô seja igual a 1):

1 2 1 2 1 2 1 2
→ .
(2 1 2 1) (0 −3 0 −3)

Agora obtemos dois vetores que não estão no espaço gerado pelos vetores
𝒕 𝒕
(1 2 1 2) , (0 −3 0 −3) . Para isso, basta escolhermos dois ve-
tores (escritos como linha) de modo que a matriz 4 × 4 resultante tenha a
forma de escada; por exemplo:

⎛1 2 1 2⎞
⎜0 −3 0 −3⎟
⎜0 .
0 1 0⎟
⎜ ⎟
⎝0 0 0 1⎠
Claramente o conjunto

ℬ = {(1, 2, 1, 2), (0, −3, 0, −3), (0, 0, 1, 0), (0, 0, 0, 1)}

é uma base do ℝ4 . ⊲

2.7 Representação de um Vetor em uma Base


Como dissemos, uma base em um subespaço 𝑊 ⊂ 𝕂𝑛 equivale a um
sistema referencial, isto é, a um sistema de coordenadas. Mudando o sistema
de coordenadas, mudam as coordenadas do ponto, mas o ponto permanece
o mesmo.
58 CAPÍTULO 2. ESPAÇOS VETORIAIS

2✻ 𝒙

■ ✒
❅ 2
❅ ✒𝒙



𝒗❅

2 ❅
✒𝒗
1

❅ ✲
2 𝒙1

Figura 2.3: As coordenadas do vetor 𝒙 = (2, 2) na base ℬ são 2 e 0, pois


𝒙 = 2𝒗1 + 0𝒗2 .

Exemplo 2.52 Sejam 𝒗1 = (1, 1) e 𝒗2 = (−1, 1). É claro que ℬ = {𝒗1 , 𝒗2 }


é uma base do ℝ2 . Consideremos 𝒙 = (2, 2) ∈ ℝ2 . Na base ℬ, temos
𝒙 = 2𝒗1 + 0𝒗2 . É natural dizer que as coordenadas de 𝒙 na base ℬ são 2 e
0. Veja a Figura 2.3. ⊲

Exercício 2.37 Seja ℬ = {𝒗1 , 𝒗2 } ⊂ ℝ3 , com 𝒗1 = (1, 1, 0) e 𝒗2 = (−1, 1, 0). Considere o


subespaço 𝑊 = < 𝒗1 , 𝒗2 > ⊂ ℝ3 . (Compare com o Exemplo 2.52.) Mostre que o ponto (2, 2, 0) ∈
𝑊. Em seguida, encontre as coordenadas desse ponto com relação à base ℬ. (Note que, apesar de
todos os pontos de 𝑊 estarem no ℝ3 , eles podem ser descritos utilizando apenas duas coordenadas!)

Para encontrarmos a coordenadas de 𝒙 em uma base ℬ arbitrária, sim-


plesmente escrevemos o vetor 𝒙 como combinação linear dos elementos de
ℬ e coletamos os escalares encontrados.

Definição 2.53 Sejam 𝑋 um espaço vetorial e ℬ = {𝒗1 , … , 𝒗𝑗 } uma base


do subespaço 𝑊. Se 𝒙 ∈ 𝑊, então existem (únicos) escalares 𝛼1 , … , 𝛼𝑗 ∈
𝕂 tais que
𝒙 = 𝛼 1 𝒗1 + … + 𝛼 𝑗 𝒗𝑗 .
O vetor
⎛𝛼1 ⎞
⎜𝛼 ⎟
[𝒙]ℬ = ⎜ 2 ⎟ ∈ 𝕂𝑗

⎜ ⎟
⎝ 𝛼𝑗 ⎠
é chamado representação de 𝒙 na base ℬ e 𝛼1 , … , 𝛼𝑗 as coordenadas de
𝒙 na base ℬ.
Se ℰ for a base canônica do 𝕂𝑛 , escrevemos simplesmente 𝒙 ao invés
de [𝒙]ℰ .

Observação 2.54 Ressaltamos que o fato de uma base4 ser um conjunto


ordenado permite dar sentido à representação de um vetor em uma base.
Dado um vetor 𝒖 = (𝑢1 , … , 𝑢𝑛 ) ∈ 𝕂𝑛 , anteriormente utilizamos a de-
nominação de coordenada para o escalar 𝑢𝑖 , sem mencionar qualquer base.
4
De um espaço de dimensão finita.
2.7. REPRESENTAÇÃO DE UM VETOR EM UMA BASE 59

Nesse caso, está implícita a base canônica do 𝕂𝑛 :

(𝑢1 , … , 𝑢𝑛 ) = 𝑢1 (1, 0, … , 0) + 𝑢2 (0, 1, 0, … , 0) + … + 𝑢𝑛 (0, … , 0, 1)


= 𝑢1 𝒆1 + 𝑢2 𝒆2 + … + 𝑢𝑛 𝒆𝑛 .

Proposição 2.55 Nas condições da Definição 2.53, existe uma bijeção en-
tre os espaços 𝑊 e 𝕂𝑗 . Além disso,

[𝒙 + 𝒚]ℬ = [𝒙]ℬ + [𝒚]ℬ


[𝛽𝒙]ℬ = 𝛽[𝒙]ℬ

Demonstração: Fixada a base ℬ, é claro que a aplicação 𝒙 → [𝒙]ℬ é


injetora. Dado (𝛾1 , … , 𝛾𝑗 ) ∈ 𝕂𝑗 , definindo 𝒘 = 𝛾1 𝒗1 + … + 𝛾𝑗 𝒗𝑗 , então
[𝒘]ℬ = (𝛾1 , … , 𝛾𝑗 ), utilizando a identificação de vetores em 𝕂𝑗 com matri-
zes coluna.
Se 𝒙 = 𝛼1 𝒗1 + … + 𝛼𝑗 𝒗𝑗 e 𝒚 = 𝛽1 𝒗1 + … + 𝛽𝑗 𝒗𝑗 , então

⎛𝛼1 + 𝛽1 ⎞ ⎛𝛼1 ⎞ ⎛𝛽1 ⎞


⎜𝛼 + 𝛽2 ⎟ ⎜𝛼2 ⎟ ⎜𝛽2 ⎟
[𝒙 + 𝒚]ℬ =⎜ 2 = + = [𝒙]ℬ + [𝒚]ℬ .
⋮ ⎟ ⎜⋮⎟ ⎜⋮⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝ 𝛼𝑗 + 𝛽𝑗 ⎠ ⎝ 𝛼𝑗 ⎠ ⎝ 𝛽𝑗 ⎠

A outra demonstração é análoga. 

A Proposição 2.55 mostra que, se um espaço vetorial 𝑋 tiver uma base


{𝒗1 , … , 𝒗𝑛 }, então esse espaço pode ser identificado com o espaço 𝕂𝑛 , de
maneira semelhante à identificação feita entre 𝒫𝑛 (𝑡) e 𝕂𝑛 na Seção 2.3. Em
outras palavras, todo espaço vetorial de dimensão finita 𝑛 pode ser identifi-
cado com o espaço 𝕂𝑛 .

Exemplo 2.56 Seja 𝒙 = (3, 2) ∈ 𝕂2 . Considere a base

ℬ = {𝒗1 = (1, 1), 𝒗2 = (−1, 1)}

do 𝕂2 . Para encontrar [𝒙]ℬ , resolvemos o sistema

𝒙 = 𝛽 1 𝒗1 + 𝛽 2 𝒗2 ,

isto é,
(3, 2) = 𝛽1 (1, 1) + 𝛽2 (−1, 1),
o que nos dá a solução
5
2
[𝒙]ℬ = .
(− 1 ) ⊲
2

Exercício 2.38 Nas condições da Proposição 2.55, mostre que a aplicação 𝒙 → [𝒙]ℬ satisfaz
[𝒗𝑖 ]ℬ = 𝒆𝑖 , o 𝑖-ésimo vetor da base canônica do 𝕂𝑗 .
60 CAPÍTULO 2. ESPAÇOS VETORIAIS

2.8 Somas Diretas


Vamos definir a soma direta de subespaços vetoriais, que consiste em
uma generalização da decomposição de um vetor em uma base.

Definição 2.57 Sejam 𝑈 , 𝑉 subespaços quaisquer do 𝕂𝑛 . Definimos

𝑈 + 𝑉 = {𝒖 + 𝒗 ∶ 𝒖 ∈ 𝑈 , 𝒗 ∈ 𝑉 }.

Proposição 2.58 Sejam 𝑈 , 𝑉 subespaços do 𝕂𝑛 . Então 𝑈 + 𝑉 é subespaço


do 𝕂𝑛 . O subespaço 𝑊 = 𝑈 + 𝑉 é chamado soma dos subespaços 𝑈 e 𝑉.

Demonstração: Se 𝒘1 = 𝒖1 + 𝒗1 e 𝒘2 = 𝒖2 + 𝒗2 forem elementos de 𝑈 + 𝑉


e 𝛽 ∈ 𝕂, então claramente 𝛽𝒘1 + 𝒘2 = 𝛽(𝒖1 + 𝒖2 ) + (𝒗1 + 𝒗2 ) ∈ 𝑈 + 𝑉. 

Não custa salientar que os elementos de 𝑊 são combinações lineares


dos elementos de 𝑈 e de 𝑉.

Exemplo 2.59 Sejam 𝑈 = < 𝒖1 , 𝒖2 > e 𝑉 = < 𝒗1 , 𝒗2 > subespaços do


𝕂6 , em que

𝒖1 = (1, 2, 0, −3, 1, 0), 𝒖2 = (1, 2, 1, −3, 1, 2)

e
𝒗1 = (1, 2, 0, −3, 2, 1), 𝒗2 = (3, 6, 1, −9, 4, 3).
Encontraremos uma base para o subespaço 𝑈 + 𝑉
O subespaço 𝑈 + 𝑉 é gerado pelos vetores 𝒖1 , 𝒖2 , 𝒗1 e 𝒗2 . Formamos
assim a matriz 𝐴, que tem esses vetores como linhas, e a escalonamos:5

⎛1 2 0 −3 1 0⎞ ⎛1 2 0 −3 1 0 ⎞
⎜1 2 1 −3 1 2⎟ ⎜0 0 1 0 0 2⎟
𝐴=⎜ → ⎜
1 2 0 −3 2 1⎟ 0 0 0 0 1 1⎟
⎜ ⎟ ⎜ ⎟
⎝3 6 1 −9 4 3⎠ ⎝0 0 1 0 1 3⎠
⎛1 2 0 −3 1 0 ⎞
⎜0 0 1 0 0 2⎟
→ ⎜
0 0 0 0 1 1⎟
⎜ ⎟
⎝0 0 0 0 1 1⎠
⎛1 2 0 −3 1 0 ⎞
⎜0 0 1 0 0 2⎟
→ ⎜ =𝐸
0 0 0 0 1 1⎟
⎜ ⎟
⎝0 0 0 0 0 0⎠

Assim, as linhas não nulas de 𝐸 formam uma base para 𝑊 = 𝑈 + 𝑉:

𝒘1 = (1, 2, 0, −3, 1, 0), 𝒘2 = (0, 0, 1, 0, 0, 2) e 𝒘3 = (0, 0, 0, 0, 1, 1).

Nesse exemplo, os vetores dados não formam uma base de 𝑈 + 𝑉: como


a linha nula da matriz 𝐸 nos mostra, existe um vetor supérfluo. Assim, a
nossa intuição nos diz que devem existir vetores que pertencem tanto a 𝑈
quanto a 𝑉. ⊲
5
Não é necessário obter a forma escalonada reduzida por linhas da matriz 𝐴.
2.8. SOMAS DIRETAS 61

Definição 2.60 Sejam 𝑈 , 𝑉 subespaços do espaço vetorial 𝑋. O subespaço


𝑊 = 𝑈 + 𝑉 é a soma direta dos subespaços 𝑈 e 𝑉 se cada elemento 𝑤 ∈ 𝑊
puder ser escrito de maneira única como

𝒘 = 𝒖 + 𝒗,

com 𝒖 ∈ 𝑈 e 𝒗 ∈ 𝑉. Nesse caso denotamos 𝑊 por 𝑊 = 𝑈 ⊕ 𝑉. (Veja a


Figura 2.4.)

Figura 2.4: Se 𝑊 = 𝑈 ⊕ 𝑉, um vetor 𝒘 ∈ 𝑊 escreve-se de maneira única


como 𝒘 = 𝒖 + 𝒗.

Assim, de maneira semelhante à representação de um vetor em uma


base, a definição de soma direta de dois subespaços possibilita a decompo-
sição de um vetor 𝒘 = 𝒖 + 𝒗 em duas componentes (os vetores 𝒖 e 𝒗), sem
escolhermos bases nos espaços 𝑈 e 𝑉!

Exercício 2.39 Como se generaliza essa definição para o caso da soma direta de 𝑘 subespaços?
Exercício 2.40 Suponha que 𝑊 = 𝑈1 ⊕ 𝑈2 ⊕ ⋯ ⊕ 𝑈𝑘 . Mostre que 𝑈𝑖 ≠ {0} para todo 1 ≤ 𝑖 ≤ 𝑘.

Proposição 2.61 Sejam ℬ = {𝒖1 , … , 𝒖𝑗 } e 𝒞 = {𝒗𝑗+1 , … , 𝒗𝑘 } bases dos


subespaços 𝑈 e 𝑉, respectivamente. Então 𝑊 = 𝑈 ⊕ 𝑉 se, e somente se,
𝒟 = {𝒖1 , … , 𝒖𝑗 , 𝒗𝑗+1 , … , 𝒗𝑘 } for uma base do espaço 𝑊.

Demonstração: Se 𝒟 for uma base de 𝑊, então cada vetor 𝑤 ∈ 𝑊 escreve-


se de maneira única como

𝑤 = 𝛼1 𝒖1 + … + 𝛼𝑗 𝒖𝑗 + 𝛼𝑗+1 𝒗𝑗+1 + … + 𝛼𝑘 𝒗𝑘 .

Definindo 𝒖 = 𝛼1 𝒖1 + … + 𝛼𝑗 𝒖𝑗 ∈ 𝑈 e 𝒗 = 𝛼𝑗+1 𝒗𝑗+1 + … + 𝛼𝑘 𝒗𝑘 ∈ 𝑉,


temos que 𝒖 e 𝒗 são unicamente determinados, de modo que 𝑊 é a soma
direta dos espaços 𝑈 e 𝑉.
Reciprocamente, suponhamos que para todo 𝒘 ∈ 𝑊 existam únicos
𝒖 ∈ 𝑈 e 𝒗 ∈ 𝑉 tais que 𝒘 = 𝒖 + 𝒗. Como ℬ e 𝒞 são bases de 𝑈 e 𝑉,
respectivamente, temos que 𝒖 = 𝛼1 𝒖1 +…+𝛼𝑗 𝒖𝑗 e 𝒗 = 𝛼𝑗+1 𝒗𝑗+1 +…+𝛼𝑘 𝒗𝑘
para (únicos) escalares 𝛼1 , … , 𝛼𝑘 .6 Isso mostra que 𝒟 gera o subespaço 𝑊.
Como 𝒖 + 𝒗 = 0 implica 𝒖 = 0 e 𝒗 = 0 (pela unicidade dada na definição de
soma direta), a igualdade 0 = (𝛼1 𝒖1 + … + 𝛼𝑗 𝒖𝑗 ) + (𝛼𝑗+1 𝒗𝑗+1 + … + 𝛼𝑘 𝒗𝑘 )
implica 𝛼1 𝒖1 + … + 𝛼𝑗 𝒖𝑗 = 0 e 𝛼𝑗+1 𝒗𝑗+1 + … + 𝛼𝑘 𝒗𝑘 = 0. Mas ℬ e 𝒞 são
6
Aplicando o Exercício 29, a demonstração está completa.
62 CAPÍTULO 2. ESPAÇOS VETORIAIS

linearmente independentes, de modo que 𝛼𝑖 = 0 para todo 𝑖 ∈ {1, … , 𝑘}.


Isso prova que 𝒟 é linearmente independente e, assim, uma base de 𝑊. 

Tendo em vista esse resultado, podemos concluir que, no Exemplo 2.59,


não temos uma soma direta dos subespaços 𝑈 e 𝑉, confirmando nossa in-
tuição: tanto 𝑈 quanto 𝑉 tem dimensão 2, enquanto 𝑈 + 𝑉 tem dimensão
menor do que 4.

Exercício 2.41 Na demonstração da Proposição 2.61, justifique: 𝒟 ⊂ 𝑊.


Exercício 2.42 Justifique: se 𝑊 = 𝑈 ⊕ 𝑉, então dim 𝑊 = dim 𝑈 + dim 𝑉.
Exercício 2.43 Tendo em vista a Figura 2.4, dê exemplos de subespaços 𝑈 , 𝑉 ⊂ ℝ3 tais que
ℝ3 = 𝑈 ⊕ 𝑉.
Exercício 2.44 Generalize a Proposição 2.61 para a soma de 𝑘 subespaços.
Exercício 2.45 Dê um exemplo mostrando que uma base qualquer de 𝑊 = 𝑈 ⊕ 𝑉 não precisa ser
composta de vetores em 𝑈 e vetores em 𝑉.
Uma outra maneira prática de verificar que 𝑊 é a soma direta de dois
subespaços é dada por
Proposição 2.62 O subespaço 𝑊 = 𝑈 + 𝑉 é a soma direta dos subespaços
𝑈 e 𝑉 se, e somente se, 𝑈 ∩ 𝑉 = {0}.
Demonstração: Suponhamos que 𝑊 = 𝑈 ⊕ 𝑉. Se 𝒛 ∈ 𝑈 ∩ 𝑉 então
𝒘 = 𝒖 + 𝒗 também pode ser escrito como 𝒘 = (𝒖 + 𝒛) + (𝒗 − 𝒛). Como a
decomposição 𝒘 = 𝒖 + 𝒗 é única, devemos ter 𝒖 = 𝒖 + 𝒛 e 𝒗 = 𝒗 − 𝒛. Isso
implica que 𝒛 = 0.
Reciprocamente, suponhamos que 𝒖1 +𝒗1 = 𝒘 = 𝒖2 +𝒗2 , com 𝒖𝑖 ∈ 𝑈 e
𝒗𝑖 ∈ 𝑉 para 𝑖 = {1, 2}. Então 𝒖1 − 𝒖2 ∈ 𝑈. Uma vez que 𝒖1 − 𝒖2 = 𝒗2 − 𝒗1 ,
também temos 𝒖1 − 𝒖2 ∈ 𝑉. Como 𝑈 ∩ 𝑉 = {0}, concluímos que 𝒖1 = 𝒖2 ,
o que implica 𝒗1 = 𝒗2 e garante a unicidade da decomposição de 𝒘. 

Exercício 2.46 Considere os subespaços


𝑈 = {(𝑎, 𝑏, 𝑐) ∶ 𝑎 = 𝑏 = 𝑐 ∈ 𝕂} e 𝑉 = {(𝑐, 𝑑, 0) ∶ 𝑐, 𝑑 ∈ 𝕂}.
Mostre que 𝕂3 = 𝑈 ⊕ 𝑉.

2.9 Exercícios
1. Encontre os valores de 𝑥 e 𝑦 de modo que
(a) (𝑦, 3) = (2, 𝑥 + 𝑦);
(b) (𝑥, 4) = 𝑦(3, 2).
2. Seja 𝑋 = {𝒙 = (𝑥1 , 𝑥2 ) ∈ ℝ2 ∶ 𝑥1 , 𝑥2 > 0}. Em 𝑋 definimos as operações de adição
𝒙 + 𝒚 = (𝑥1 , 𝑥2 ) + (𝑦1 , 𝑦2 ) = (𝑥1 𝑦1 , 𝑥2 𝑦2 )
e multiplicação pelo escalar 𝛽 ∈ ℝ
𝛽 𝛽
𝛽𝒙 = 𝛽(𝑥1 , 𝑥2 ) = (𝑥1 , 𝑥2 ).
Mostre que, com essas operações, 𝑋 é um espaço vetorial real. Qual é o elemento 0 ∈ 𝑋?
2.9. EXERCÍCIOS 63

3. Seja 𝑋 um espaço vetorial. Mostre que, para todo 𝒙 ∈ 𝑋, vale (−1)𝒙 = (−𝒙).
4. Seja 𝑉 = {(𝑎, 𝑏, 𝑐) ∈ ℝ3 ∶ 𝑎 > 0} e 𝑊 = {(𝑎, 𝑏, 𝑐) ∈ ℝ3 ∶ 𝑎2 +𝑏2 +𝑐 2 = 1}. Os conjuntos
𝑉 e 𝑊 são subespaços do ℝ3 ?
5. Mostre que o conjunto 𝑊 = {(𝑎, 𝑏, 𝑐) ∈ 𝕂3 ∶ 𝑎 = 𝑏 = 𝑐} é um subespaço do 𝕂3 .
6. Sejam 𝑉 , 𝑊 dois subespaços do espaço vetorial 𝑋. Mostre que 𝑉 ∩ 𝑊 é um subespaço de 𝑋.
Generalize esse resultado para a interseção de 𝑚 subespaços de 𝑋.
7. Interprete a solução de um sistema homogêneo com 𝑚 equações e 𝑛 incógnitas como a inter-
seção de 𝑚 subespaços do 𝕂𝑛 .
8. Sejam 𝑉 , 𝑊 dois subespaços do espaço vetorial 𝑋. Dê um exemplo mostrando que 𝑉 ∪ 𝑊
pode não ser um subespaço do 𝑋.
9. Seja 𝑊 um subconjunto qualquer do 𝕂𝑛 . Mostre que 𝑊 é um subespaço se, e somente se,
𝛽𝒖 + 𝒗 ∈ 𝑊 para quaisquer 𝒖, 𝒗 ∈ 𝑊 e 𝛽 ∈ 𝕂.
10. Seja 𝒞 um conjunto qualquer de elementos do 𝕂𝑛 . (Assim, não sabemos quantos elementos
estão em 𝒞.) Defina

< 𝒞 >= {𝒗 ∈ 𝕂𝑛 ∶ ∃ 𝑗 ∈ ℕ tal que 𝒗 = 𝛼1 𝒗1 + … + 𝛼𝑗 𝒗𝑗 , },

em que 𝒗𝑖 ∈ 𝒞 e 𝛼𝑖 ∈ 𝕂, para todo 1 ≤ 𝑖 ≤ 𝑗.


Mostre que < 𝒞 > é um subespaço do 𝕂𝑛 . (Compare com a Proposição 2.18, em que o
natural 𝑗 foi fixado.)
11. Generalize o Exercício 10, mostrando que 𝕂𝑛 pode ser substituído por qualquer espaço veto-
rial 𝑋.
12. No Exemplo 2.11, considere que 𝐴 = [0, 2𝜋] e defina 𝐶([0, 2𝜋], ℝ) ⊂ 𝑋 como o conjunto
de todas as funções contínuas. Mostre que 𝐶([0, 2𝜋], ℝ) é um subespaço de 𝑋. Defina ℐ =
{𝒇 ∶ [0, 2𝜋] → ℝ ∶ 𝒇 é integrável} ⊂ 𝑋 como o conjunto de todas as funções integráveis.
O conjunto ℐ é um subespaço de 𝑋?
13. Considere o conjunto 𝒫 o conjunto de todos os polinômios na variável 𝑡 com coeficientes
complexos. Determine se 𝑊 é um subespaço de 𝒫, se
(a) 𝑊 é o conjunto de todos os polinômios com coeficientes racionais;
(b) 𝑊 é o conjunto de todos os polinômios de grau menor do que 6 (considerando que o
polinômio nulo tem grau −∞, como anteriormente);
(c) 𝑊 é o conjunto de todos os polinômios de grau par;
14. Escreva o vetor 𝒖 = (1, −2, 5) como combinação linear dos vetores 𝒗1 = (1, 2, 3), 𝒗2 =
(1, 1, 1) e 𝒗3 = (2, 1, −1).
15. Escreva o vetor 𝒖 = (1, 1, 0) como combinação linear dos vetores 𝒗1 = (1, 2, 0), 𝒗2 = (2, 1, 0),
𝒗3 = (0, 0, 1) e 𝒗4 = (3, 3, 0).
16. Escreva o vetor 𝒖 = (4, 7, 7, 9) como combinação linear dos vetores 𝒗1 = (1, 1, 1, 1), 𝒗2 =
(1, 2, 3, 4), 𝒗3 = (1, 1, 4, 5).
17. Verifique que o conjunto {𝒗1 = (1, 1, 1, 1), 𝒗2 = (1, 1, 1, 0), 𝒗3 = (1, 1, 0, 0), 𝒗4 = (1, 0, 0, 0)}
gera o espaço 𝕂4 .
18. Determine condições sobre 𝑎, 𝑏 e 𝑐 de modo que 𝒖 = (𝑎, 𝑏, 𝑐) pertença ao espaço gerado por
{𝒗1 = (3, 0, −4), 𝒗2 = (1, 2, 0), 𝒗3 = (1, −1, −2)} ⊂ 𝕂3 .
19. Verifique se os vetores 𝒗1 = (4, 5, 5), 𝒗2 = (−1, −1, −2) e 𝒗3 = (2, 3, 1) são linearmente
dependentes ou linearmente independentes.
64 CAPÍTULO 2. ESPAÇOS VETORIAIS

20. O conjunto {𝒗1 = (1, 2, 5), 𝒗2 = (1, 3, 1), 𝒗3 = (3, 1, 4), 𝒗4 = (2, 5, 7)} ⊂ 𝕂3 é linearmente
dependente?
21. O conjunto {(1, 1, 1), (1, 0, 0), (0, 0, 0)} é linearmente dependente ou linearmente indepen-
dente?
22. Suponha que os vetores 𝒗1 , 𝒗2 e 𝒗3 do espaço 𝑋 sejam linearmente independentes. Mostre
que o conjunto {𝒗1 + 𝒗2 , 𝒗1 − 𝒗2 , 𝒗1 − 2𝒗2 + 𝒗3 } ⊂ 𝑋 é linearmente independente.
23. Verifique se o conjunto

1 2 −3 1 3 −4 3 8 −11
, ,
{(4 0 1) ( 6 5 4) ( 16 10 9 )}

é linearmente dependente ou linearmente independente. Compare sua solução com aquela


apresentada no Exemplo 2.27. Como sua solução se relaciona com a identificação apresen-
tada na equação (2.7)?
24. Verifique se os seguintes conjuntos são bases do 𝕂3 :
(a) {(1, 1, 1), (1, 1, 0)};
(b) {(1, 1, 1), (1, 2, 1), (2, 3, 4), (0, 0, 1)};
(c) {(2, 2, 4), (5, 3, 4), (1, 2, 5)};
(d) {(1, 1, 1), (−1, −2, −3), (−2, 1, −1)}.
25. Determine uma base e a dimensão do espaço gerado pelos vetores 𝒗1 = (1, 1, 1, 1), 𝒗2 =
(2, 6, 8, 5), 𝒗3 = (4, 10, 12, 8) e 𝒗4 = (1, 2, 3, 2).
26. Seja 𝑊 o subespaço do 𝕂5 gerado pelos vetores 𝒗1 = (2, 4, −2, 6, 8), 𝒗2 = (1, 3, 2, 2, 6),
𝒗3 = (1, 4, 5, 1, 8) e 𝒗4 = (−2, −4, 2, 6, 8). Encontre uma base e a dimensão de 𝑊.
27. Seja 𝑊 = {(𝑎, 𝑏, 𝑏, 𝑐) ∶ 𝑎, 𝑏, 𝑐 ∈ 𝕂}. Determine uma base e a dimensão de 𝑊.
28. Considere o conjunto {𝒗1 = (2, 2, 3, 4), 𝒗2 = (2, 2, 2, 2)} ⊂ 𝕂4 . Complete esse conjunto de
modo a obter uma base do 𝕂4 .
29. Mostre a recíproca da Proposição 2.38. Isto é, suponhamos que 𝑉 ⊂ 𝑋 seja um subespaço e
ℬ = {𝒗1 , … , 𝒗𝑘 } ⊂ 𝑉. Mostre que, se cada vetor 𝒗 ∈ 𝑉 for escrito de maneira única como
combinação linear dos elementos de ℬ, então ℬ é uma base de 𝑉.
30. Sejam 𝑋 um espaço vetorial de dimensão 𝑛 e 𝑊 ⊂ 𝕂𝑛 um subespaço, com dim 𝑊 = 𝑛.
Mostre que 𝑊 = 𝑋.
31. Verifique que o espaço 𝕄𝑚×𝑛 do Exemplo 2.8 tem dimensão 𝑚𝑛. Exiba uma base desse
espaço.
32. Sejam 𝑈 , 𝑉 subespaços de dimensão finita do espaço vetorial 𝑋. Mostre que 𝑈 + 𝑉 tem
dimensão finita, valendo

dim(𝑈 + 𝑉 ) = dim 𝑈 + dim 𝑉 − dim(𝑈 ∩ 𝑉 ).

33. Considere os subespaços 𝑈 , 𝑉 e 𝑊 do espaço ℝ3 , com

𝑈 = {(𝑥, 𝑦, 𝑧) ∶ 𝑥 + 𝑦 + 𝑧 = 0}, 𝑉 = {(𝑥, 0, 0)}

e
𝑊 = {(𝑥, 𝑦, 𝑧) ∶ 𝑥 = 𝑧}.
Mostre que
(a) ℝ3 = 𝑈 + 𝑉;
2.9. EXERCÍCIOS 65

(b) ℝ3 = 𝑈 + 𝑊;
(c) ℝ3 = 𝑉 + 𝑊.
Quando temos uma soma direta de subespaços?
34. Considere o espaço 𝒫3 (𝑡) de todos os polinômios com coeficientes em 𝕂 com grau menor
que 3.
(a) Mostre que ℬ = {𝒑1 , 𝒑2 , 𝒑3 } é uma base de 𝒫3 (𝑡), sendo

𝒑1 (𝑡) = 𝑡 + 1, 𝒑2 (𝑡) = 𝑡 − 1 e 𝒑3 (𝑡) = 𝑡2 − 2𝑡 + 1;

(b) Obtenha as coordenadas de 𝒒(𝑡) = 2𝑡2 − 5𝑡 + 9 na base ℬ.


35. Mostre que ℬ = {𝒑1 , 𝒑2 , 𝒑3 , 𝒑4 } é uma base de 𝒫4 (𝑡), sendo

𝒑1 = (𝑡 − 1)3 , 𝒑2 (𝑡) = (𝑡 − 1)2 , 𝒑3 (𝑡) = (𝑡 − 1) e 𝒑4 (𝑡) = 1.

Em seguida, encontre as coordenadas de 𝒒(𝑡) = 3𝑡3 − 4𝑡2 + 2𝑡 − 5 nessa base.


Capítulo 3

Produto Interno

Objetivos: No final do capítulo o aluno deverá:

1. entender a definição de produto interno e saber operar com ela;

2. saber calcular a projeção ortogonal de um vetor y sobre um vetor 𝒙.

3. saber aplicar o processo de ortogonalização de Gram-Schmidt.

3.1 Propriedades Básicas


Comparando as propriedades do ℝ𝑛 apresentadas no Teorema 2.1 com
o estudo do ℝ3 feito em um curso vetorial de Geometria Analítica, notamos
a ausência de uma operação entre vetores: o produto escalar 𝒙 ⋅ 𝒚, opera-
ção que fornece um método simples para se verificar se os vetores 𝒙 e 𝒚
são perpendiculares. (Na verdade, também notamos a ausência do produto
vetorial, mas essa não será abordada neste curso.)
O conceito de produto escalar muitas vezes é introduzido utilizando as
normas (= comprimentos) e o ângulo 𝜃 entre os vetores 𝒙 e 𝒚: define-se o
produto escalar 𝒙 ⋅ 𝒚 como sendo igual a ‖𝒙‖ ‖𝒚‖ cos 𝜃, com 0 ≤ 𝜃 ≤ 𝜋.
Interpretando vetores no ℝ3 como segmentos orientados, esses conceitos
são “concretos”, pois a medição do comprimento desses segmentos e do
ângulo entre eles pode ser feita. Mas esse conceitos certamente não são
concretos no ℝ𝑛 , se 𝑛 ≥ 4. Como medir os comprimentos e ângulo entre os
vetores 𝒙, 𝒚 ∈ ℝ4 , por exemplo?
Partiremos de uma generalização do produto escalar, chamada produto
interno, a qual nos permitirá definir o comprimento de vetores.

Definição 3.1 Seja 𝑋 um espaço vetorial. Um produto interno em 𝑋 é uma


função ⟨⋅ , ⋅⟩ ∶ 𝑋 × 𝑋 → 𝕂 satisfazendo as seguintes propriedades:

(𝑖) ⟨𝒙, 𝒚⟩ = ⟨𝒚, 𝒙⟩;

(𝑖𝑖) ⟨𝒙 + 𝛼𝒚, 𝒛⟩ = ⟨𝒙, 𝒛⟩ + 𝛼⟨𝒚, 𝒛⟩, para todo escalar 𝛼 ∈ 𝕂;

(𝑖𝑖𝑖) ⟨𝒙, 𝒙⟩ ≥ 0 e ⟨𝒙, 𝒙⟩ = 0 se, e somente se, 𝒙 = 0.


Um espaço com produto interno é um espaço vetorial no qual está
fixado um produto interno.

66
3.1. PROPRIEDADES BÁSICAS 67

Na propriedade (𝑖), ⟨𝒚, 𝒙⟩ denota o conjugado do número ⟨𝒚, 𝒙⟩ ∈ ℂ; se


⟨𝒚, 𝒙⟩ ∈ ℝ, então ⟨𝒙, 𝒚⟩ = ⟨𝒚, 𝒙⟩.
De agora em diante, quando não especificarmos qual espaço vetorial
estamos considerando, 𝐸 denotará um espaço com produto interno qualquer.

Exercício 3.1 Considere o produto escalar 𝒙 ⋅ 𝒚, já definido para vetores 𝒙, 𝒚 ∈ ℝ3 . Verifique que
esse produto escalar satisfaz a Definição 3.1.

Exemplo 3.2 Para 𝒙 = (𝑥1 , … , 𝑥𝑛 ) e 𝒚 = (𝑦1 , … , 𝑦𝑛 ) vetores arbitrários no


ℝ𝑛 , definimos o produto interno canônico do ℝ𝑛 :

⎛𝑥1 ⎞
⎜𝑥 ⎟
⟨𝒙, 𝒚⟩ = 𝒙 ⋅ 𝒚 = 𝑥1 𝑦1 + … + 𝑥𝑛 𝑦𝑛 = (𝑦1 𝑦2 … 𝑦𝑛 ) ⎜ 2 ⎟ = 𝒚t 𝒙,

⎜ ⎟
⎝ 𝑥𝑛 ⎠

em que 𝒚𝒕 denota a transposta da matriz coluna 𝒚. (Essa é a generalização


imediata do produto escalar de vetores do ℝ3 , de acordo com o Exercício
3.2.)
Particularizando, considere os vetores

𝒙 = (5, −1, −2, 6), 𝒚 = (4, −2, −2, −1) e 𝒛 = (1, 3, −6, −3)

do espaço ℝ4 . Então

⟨𝒙, 𝒚⟩ = 5(4) − 1(−2) − 2(−2) + 6(−1) = 20 + 2 + 4 − 6 = 20,

enquanto

⟨𝒙, 𝒛⟩ = 5(1) − 1(3) − 2(−6) + 6(−3) = 5 − 3 + 12 − 18 = −4. ⊲

Exemplo 3.3 Para 𝒛 = (𝑧1 , … , 𝑧𝑛 ) e 𝒘 = (𝑤1 , … , 𝑤𝑛 ) vetores do ℂ𝑛 , o


produto interno canônico do ℂ𝑛 é definido por

⎛𝑧1 ⎞
⎜𝑧 ⎟
⟨𝒛, 𝒘⟩ = 𝒛 ⋅ 𝒘 = 𝑧1 𝑤1 + … + 𝑧𝑛 𝑤𝑛 = (𝑤1 𝑤2 … 𝑤𝑛 ) ⎜ 2 ⎟ = 𝒘t 𝒛,

⎜ ⎟
⎝ 𝑧𝑛 ⎠

em que 𝒘𝒕 denota a transposta conjugada da matriz coluna 𝒘. Note que


apenas a introdução do conjugado na definição do produto interno canônico
do ℂ𝑛 permite que propriedade (𝑖𝑖𝑖) da definição do produto interno seja
satisfeita: como sabemos, 𝑧𝑧 ̄ = |𝑧| ∈ ℝ para todo 𝑧 ∈ ℂ.
Observe que a definição do produto interno canônico do ℂ𝑛 reduz-se ao
produto interno canônico do ℝ𝑛 , se nos restringirmos a vetores 𝒛, 𝒘 ∈ ℝ𝑛 .

Exercício 3.2 Verifique que o produto interno canônico do ℝ𝑛 satisfaz a Definição 3.1.
Exercício 3.3 Seja ⟨⋅, ⋅⟩ um produto interno no espaço 𝐸. Verifique que, para quaisquer 𝒖, 𝒗 e 𝒘
no espaço 𝐸, vale:
⟨𝒖, 𝒗 + 𝛼𝒘⟩ = ⟨𝒖, 𝒗⟩ + 𝛼⟨𝒖,
̄ 𝒘⟩.
68 CAPÍTULO 3. PRODUTO INTERNO

Exercício 3.4 Se 𝒙 = (𝑥1 , … , 𝑥𝑛 ) e 𝒚 = (𝑦1 , … , 𝑦𝑛 ) são vetores arbitrários do 𝕂𝑛 , escolhendo


escalares 𝛼1 , … , 𝛼𝑛 > 0 arbitrários, verifique que

⟨𝒙, 𝒚⟩ = 𝛼1 𝑥1 𝑦1 + … + 𝛼𝑛 𝑥𝑛 𝑦𝑛

também define um produto interno no 𝕂𝑛 . O mesmo resultado vale se um dos escalares 𝛼𝑖 for nulo?

Uma pergunta impõe-se: todo espaço vetorial possui ou nele pode ser
definido um produto interno? A resposta para essa questão é afirmativa, mas
neste texto apenas mostraremos que é possível definir um produto interno
em qualquer espaço 𝑋 de dimensão finita. Tendo em vista a Proposição
2.55, esse resultado é completamente natural.

Proposição 3.4 Sejam ℬ = {v1 , … , v𝑛 } uma base do espaço 𝑋. Então

⟨𝒙, 𝒚⟩ = [𝒙]ℬ ⋅ [𝒚]ℬ

define um produto interno no espaço 𝑋.

(Estamos denotando por 𝒖 ⋅ 𝒗 o produto interno canônico dos vetores 𝒖, 𝒗


no espaço 𝕂𝑛 .)
A demonstração da Proposição 3.4 é simples e será deixada como exer-
cício.
É fácil notar que, na Proposição 3.4, o produto interno canônico do 𝕂𝑛
poderia ser substituído por qualquer produto interno no 𝕂𝑛 . Assim, surge
uma segunda questão: qual a necessidade de considerarmos, no 𝕂𝑛 , um
produto interno qualquer? Não é suficiente considerarmos o produto interno
canônico no 𝕂𝑛 , já que esse é a generalização natural do produto escalar no
ℝ3 ?
Como mostraremos posteriormente, produtos internos proporcionam a
definição de comprimentos e de ortogonalidade de vetores. Uma escolha
adequada desses conceitos pode proporcionar uma grande simplificação do
problema considerado. Um bom exemplo desse procedimento será apresen-
tado no Capítulo ??.
Apesar de nossa abordagem utilizar unicamente as propriedades de um
produto interno abstrato (Definição 3.1), você pode pensar, no decorrer
deste texto, que o produto interno no 𝕂𝑛 é o produto interno canônico e
que, no espaço 𝐸, o produto interno fixado é aquele definido na Proposição
3.4.

Exercício 3.5 Seja ⟨⋅, ⋅⟩ um produto interno qualquer no 𝕂𝑛 . Mostre que ⟨𝒙, 0⟩ = 0 para todo
𝒙 ∈ 𝕂𝑛 e conclua que também vale ⟨0, 𝒙⟩ = 0.
Exercício 3.6 Considere 𝒙 = (𝑥1 , 𝑥2 ) e 𝒚 = (𝑦1 , 𝑦2 ) vetores no ℝ2 . Defina

⟨𝒙, 𝒚⟩ = 𝑥1 𝑦1 − 𝑥1 𝑦2 − 𝑥2 𝑦1 + 3𝑥2 𝑦2 .

Verifique que ⟨⋅, ⋅⟩ define um produto interno no ℝ2 . Para 𝒙 = (1, 1), encontre os vetores 𝒚 ∈ ℝ2
que satisfazem ⟨𝒙, 𝒚⟩ = 0.
Exercício 3.7 Demontre a Proposição 3.4.
3.1. PROPRIEDADES BÁSICAS 69

Os próximos exemplos são mais sofisticados e sua leitura pode ser supri-
mida, conforme juízo do instrutor.

Exemplo 3.5 Considere o conjunto 𝐶([𝑎, 𝑏], ℝ) de todas as funções contí-


nuas 𝒇 ∶ [𝑎, 𝑏] → ℝ. Claramente 𝐶([𝑎, 𝑏], ℝ) é um subespaço do espaço
vetorial 𝑋 definido no Exemplo 2.11. Para 𝒇 , 𝒈 ∈ 𝐶([𝑎, 𝑏], ℝ), definimos
𝑏
⟨𝒇 , 𝒈⟩ = 𝒇 (𝑡) 𝒈(𝑡) d𝑡.
∫𝑎

Então ⟨⋅, ⋅⟩ define um produto interno em 𝐶([𝑎, 𝑏], ℝ). De fato, claramente
vale

(a) ⟨𝒇 , 𝒈⟩ = ⟨𝒈, 𝒇 ⟩ para quaisquer 𝒇 , 𝒈 ∈ 𝐶([𝑎, 𝑏]);

(b) ⟨𝒇1 + 𝛼𝒇2 , 𝒈⟩ = ⟨𝒇1 , 𝒈⟩ + 𝛼⟨𝒇2 , 𝒈⟩ para quaisquer 𝛼 ∈ ℝ e 𝒇1 , 𝒇2 , 𝒈 ∈


𝐶([𝑎, 𝑏], ℝ);

(c) ⟨𝒇 , 𝒇 ⟩ ≥ 0 para todo 𝒇 ∈ 𝐶([𝑎, 𝑏], ℝ) e ⟨𝒇 , 𝒇 ⟩ = 0 implica 𝒇 ≡ 0.⊲

Exemplo 3.6 Considere o conjunto ℓ2 de todas as sequências 𝒙 = (𝑥𝑖 ) de


escalares em 𝕂 tais que

2
∑ |𝑥𝑖 | < ∞.
𝑖=1
2
Claramente ℓ é um subespaço do espaço vetorial 𝑋 apresentado no Exer-
cício 2.6 do Capítulo 2.
Para 𝒙 = (𝑥𝑖 ) e 𝒚 = (𝑦𝑖 ) em ℓ2 , definimos

⟨𝒙, 𝒚⟩ = ∑ 𝑥𝑖 𝑦𝑖̄ .
𝑖=1

Uma vez que |𝑥𝑖 𝑦𝑖̄ | ≤ (1/2) [|𝑥𝑖 |2 + |𝑦𝑖 |2 ], temos que ⟨𝒙, 𝒚⟩ < ∞ para
todos 𝒙, 𝒚 ∈ ℓ2 . Então ⟨⋅, ⋅⟩ define um produto interno em ℓ2 . ⊲

Exercício 3.8 Verifique todas as afirmações feitas nos Exemplos 3.5 e 3.6.

Definição 3.7 Consideremos o espaço 𝐸 com o produto interno ⟨⋅, ⋅⟩. Os


vetores 𝒙, 𝒚 ∈ 𝑋 são ortogonais (ou perpendiculares) se ⟨𝒙, 𝒚⟩ = 0. Nesse
caso, denotamos 𝒙 ⟂ 𝒚.

A justificativa geométrica dessa definição é dada pelo Teorema de Pitá-


goras, que apresentaremos na sequência. Enfatizamos que o conjunto dos
vetores 𝒚 ∈ 𝐸 que são perpendiculares a um vetor fixo 𝒙 ∈ 𝐸 depende
do produto interno considerado. Mas, não importa qual seja esse produto
interno, 0 ∈ 𝑋 é perpendicular a qualquer vetor do 𝐸, de acordo com o
Exercício 3.5.
Observe que não definimos o ângulo entre vetores, mas unicamente a
noção de ortogonalidade de vetores, sempre dependente do produto interno
considerado.
70 CAPÍTULO 3. PRODUTO INTERNO

3.2 Norma
Definição 3.8 Uma norma no espaço 𝑋 é uma aplicação ‖ ⋅ ‖ ∶ 𝑋 → 𝕂
satisfazendo, para todos 𝒙, 𝒚 ∈ 𝑋 e 𝜆 ∈ 𝕂:
(𝑖) ‖𝒙‖ ≥ 0 e ‖𝒙‖ = 0 se, e somente se, 𝑥 = 0;

(𝑖𝑖) ‖𝛼𝒙‖ = |𝛼| ‖𝒙‖;

(𝑖𝑖𝑖) ‖𝒙 + 𝒚‖ ≤ ‖𝒙‖ + ‖𝒚‖ (desigualdade triangular).


Considerado com uma norma ‖ ⋅ ‖, dizemos que 𝑋 é um espaço nor-
mado.

O valor ‖𝒙‖ pode ser interpretado, geometricamente, como uma ma-


neira de medir o comprimento do vetor 𝒙. Se ‖𝒙‖ = 1, o vetor 𝒙 é unitário.
(Veja o Exercício 4.)

Exemplo 3.9 Para 𝒙 = (𝑥1 , 𝑥2 , … , 𝑥𝑛 ) ∈ 𝕂𝑛 , defina

‖𝒙‖𝑠 = |𝑥1 | + |𝑥2 | + … + |𝑥𝑛 |.

Essa é a norma da soma no 𝕂𝑛 . ⊲

Exercício 3.9 Mostre que ‖ ⋅ ‖𝑠 satisfaz as propriedades que caracterizam uma norma no 𝕂𝑛 .
Exercício 3.10 Para os vetores 𝒙, 𝒚 e 𝒛 do ℝ4 , definidos no Exemplo 3.2, calcule ‖𝒙‖𝑠 , ‖𝒚‖𝑠 e
‖𝒛‖𝑠 .
Exercício 3.11 Para 𝒙 = (𝑥1 , 𝑥2 , … , 𝑥𝑛 ) ∈ 𝕂𝑛 , defina ‖𝒙‖∞ = max1≤𝑖≤𝑛 |𝑥𝑖 |. Mostre que assim
está definida uma norma, chamada norma do máximo no 𝕂𝑛 .
Exercício 3.12 Repita o Exercício 3.10 trocando a norma ‖ ⋅ ‖𝑠 pela norma ‖ ⋅ ‖∞ .

Agora vamos mostrar que, qualquer que seja o espaço 𝐸, seu produto
interno produz, de maneira natural, uma norma em 𝐸. Assim, se ⟨⋅, ⋅⟩ é
o produto interno considerado em 𝐸, denotemos (com abuso de notação)
‖𝒙‖ ∶= ⟨𝒙, 𝒙⟩1/2 . Vamos mostrar que essa notação é coerente, isto é, que
⟨𝒙, 𝒙⟩1/2 realmente define uma norma no espaço 𝐸. Notamos que, com essa
definição, já temos
(𝑖) ‖𝒙‖ = ⟨𝒙, 𝒙⟩1/2 ≥ 0 e ‖𝒙‖ = 0 ⇔ 𝒙 = 0;

(𝑖𝑖) ‖𝛼𝒙‖2 = ⟨𝛼𝒙, 𝛼𝒙⟩ = 𝛼𝛼̄ ⟨𝒙, 𝒙⟩ = |𝛼|2 ‖𝒙‖2 . Ao tomarmos a raiz
quadrada em ambos os lados, obtemos ‖𝛼𝒙‖ = |𝛼| ‖𝒙‖.
Antes de completarmos a demonstração de nossa afirmação, justificare-
mos a definição de perpendicularidade, apresentada anteriormente.
Teorema 3.10 (Pitágoras)
Seja 𝐸 um espaço com produto interno ⟨⋅, ⋅⟩. Considere ‖𝒙‖ = ⟨𝒙, 𝒙⟩1/2
para todo 𝒙 ∈ 𝐸. Então, 𝒙 ⟂ 𝒚 implica

‖𝒙 + 𝒚‖2 = ‖𝒙‖2 + ‖𝒚‖2 .

Se 𝐸 for um espaço real, então a recíproca vale.


3.2. NORMA 71

Demonstração: Uma vez que


‖𝒙 + 𝒚‖2 = ⟨𝒙 + 𝒚, 𝒙 + 𝒚⟩ = ⟨𝒙, 𝒙⟩ + ⟨𝒙, 𝒚⟩ + ⟨𝒚, 𝒙⟩ + ⟨𝒚, 𝒚⟩
= ‖𝒙‖2 + ‖𝒚‖2 ,
o resultado decorre imediatamente. Por outro lado, se a recíproca for válida,
podemos concluir que ⟨𝒙, 𝒚⟩+⟨𝒚, 𝒙⟩ = 2ℜ𝔢 ⟨𝒙, 𝒚⟩ = 0, o que implica 𝒙 ⟂ 𝒚
apenas se ℜ𝔢 ⟨𝒙, 𝒚⟩ = ⟨𝒙, 𝒚⟩, isto é, se 𝕂 = ℝ. 

Exercício 3.13 Interprete o Teorema de Pitágoras geometricamente.


Exercício 3.14 Dê exemplo de vetores 𝒖, 𝒗 ∈ ℂ𝑛 tais que ‖𝒖+𝒗‖2 = ‖𝒖‖2 +‖𝒗‖2 , mas ⟨𝒖, 𝒗⟩ ≠ 0.

Se 𝒙, 𝒚 ∈ 𝐸 forem dois vetores linearmente independentes (com 𝒙 ≠ 𝛽𝒚


para todo 𝛽 ∈ 𝕂), então podemos escrever o vetor 𝒚 como a soma de dois
vetores: 𝒚 = 𝛼𝒙 + 𝒛, em que 𝛼 ∈ 𝕂 e 𝒛 é ortogonal a 𝒙. De fato, basta
mostrar que existe 𝛼 ∈ 𝕂 tal que ⟨𝒚 − 𝛼𝒙, 𝒙⟩ = 0. Essa equação pode ser
resolvida facilmente:
⟨𝒚, 𝒙⟩ ⟨𝒚, 𝒙⟩
⟨𝒚 − 𝛼𝒙, 𝒙⟩ = 0 ⇔ ⟨𝒚, 𝒙⟩ = 𝛼⟨𝒙, 𝒙⟩ ⇔ 𝛼 = = .
⟨𝒙, 𝒙⟩ ‖𝒙‖2
(Note que ‖𝒙‖ = 0 implica 𝒙 = 0𝒚 e os vetores 𝒙 e 𝒚 são linearmente
dependentes.)
⟨𝒚,𝒙⟩
O vetor proj𝒙 𝒚 = 𝛼𝒙 = ‖𝒙‖2 𝒙 é a projeção ortogonal do vetor 𝒚 sobre
o vetor 𝒙. Veja a Figura 3.1.

✒✻
𝒚
𝒛
✲ ✲
proj𝒙 𝒚 𝒙
Figura 3.1: O vetor proj𝒙 𝒚 = (⟨𝒚, 𝒙⟩/‖𝒙‖2 )𝒙 é a projeção ortogonal do vetor
𝒚 no vetor 𝒙. O vetor 𝒛 = 𝒚 − proj𝒙 𝒚 é a “componente” de 𝒚 ortogonal ao
vetor 𝒙.

Exemplo 3.11 Considere os vetores 𝒖 = (1, 1, 1) e 𝒗 = (1, −1, 1). Então


proj𝒖 𝒗 é dado por:
1−1+1 1
proj𝒖 𝒗 = (1, 1, 1) = (1, 1, 1). ⊲
12 2
+1 +1 2 3

Exercício 3.15 Sejam 𝒙 = (1, 1, 1, 1) e 𝒚 = (1, 2, 4, 5) vetores do 𝕂4 . Calcule a projeção ortogonal


do vetor 𝒚 sobre o vetor 𝒙. Obtenha também a componente de 𝒚 ortogonal ao vetor 𝒙.
Proposição 3.12 (Desigualdade de Cauchy-Bunyakowsky-Schwarz)
Considere ‖𝒙‖ = ⟨𝒙, 𝒙⟩1/2 no espaço 𝐸. Então para todos 𝒙, 𝒚 ∈ 𝐸
vale:
|⟨𝒙, 𝒚⟩| ≤ ‖𝒙‖ ‖𝒚‖.
Demonstração: A prova que apresentaremos é bem geométrica.1
1
Outra demonstração é sugerida no Exercício 6.
72 CAPÍTULO 3. PRODUTO INTERNO

Se 𝒙 = 𝛽𝒚, então |⟨𝒙, 𝒚⟩| = |𝛽| ⟨𝒚, 𝒚⟩ = |𝛽| ‖𝒚‖2 = ‖𝒙‖ ‖𝒚‖. Se
𝒙 ≠ 𝛼𝒚, então 𝒙 ≠ 0. Definimos 𝒘 = 𝒙/‖𝒙‖. Para todo 𝒚 ∈ 𝐸, vale

𝒚 = ⟨𝒚, 𝒘⟩𝒘 + (𝒚 − ⟨𝒚, 𝒘⟩𝒘) (= proj𝒘 𝒚 + (𝒚 − proj𝒘 𝒚))


e ⟨𝒚, 𝒘⟩𝒘 ⟂ (𝒚 − ⟨𝒚, 𝒘⟩𝒘), como verificamos facilmente. Pelo Teorema
de Pitágoras,

‖𝒚‖2 = ‖⟨𝒚, 𝒘⟩𝒘‖2 + ‖(𝒚 − ⟨𝒚, 𝒘⟩𝒘)‖2 > ‖⟨𝒚, 𝒘⟩𝒘‖2 = |⟨𝒚, 𝒘⟩|2 ,

o que implica que |⟨𝒚, 𝒘⟩| < ‖𝒚‖. Substituindo 𝒘 = 𝒙/‖𝒙‖, obtemos o
resultado. 

Observação 3.13 Note que mostramos que |⟨𝒙, 𝒚⟩| = ‖𝒙‖ ‖𝒚‖ se, e so-
mente se, 𝒙 = 𝛽𝒚, para algum 𝛽 ∈ 𝕂. ⊲

Quando estamos no espaço ℝ𝑛 (ou, mais geralmente, em um espaço real


𝐸), a desigualdade de Cauchy-Bunyakowsky-Schwarz garante que

𝒙 𝒚 𝒙 𝒚
, ≤1 ⇒ −1 ≤ , ≤ 1.
|⟨ ‖𝒙‖ ‖𝒚‖ ⟩| ⟨ ‖𝒙‖ ‖𝒚‖ ⟩
(Note que a última desigualdade só é válida se tivermos ⟨⋅, ⋅⟩ ∈ ℝ.)
Assim, é natural definir o ângulo 𝜃 entre os vetores 𝒙 e 𝒚 (com 0 ≤ 𝜃 ≤
𝜋) por
𝒙 𝒚
cos 𝜃 = , .
⟨ ‖𝒙‖ ‖𝒚‖ ⟩
Portanto, podemos escrever

⟨𝒙, 𝒚⟩ = ‖𝒙‖ ‖𝒚‖ cos 𝜃,

expressão que, como mencionamos, muitas vezes é utilizada na definição


do produto escalar 𝒙 ⋅ 𝒚 de vetores 𝒙, 𝒚 ∈ ℝ3 .

Exercício 3.16 Considere os vetores 𝒙 = (5, −1, −2, 6) e 𝒚 = (4, −1, 2, 1) do espaço ℝ4 . Calcule
o ângulo entre 𝒙 e 𝒚.
Exercício 3.17 Discuta: podemos definir o ângulo entre vetores do espaço ℂ𝑛 ?
A desigualdade de Cauchy-Bunyakowsky-Schwarz permite que justifi-
quemos a notação ‖𝒙‖ = ⟨𝒙, 𝒙⟩1/2 .
Proposição 3.14 Seja 𝐸 um espaço com o produto interno ⟨⋅, ⋅⟩. Então
‖𝒙‖ = ⟨𝒙, 𝒙⟩1/2 define uma norma em 𝐸. Dizemos que essa norma é gerada
pelo produto interno ⟨⋅, ⋅⟩.
Demonstração: De acordo com o que já vimos, para completar a prova de
que ‖𝒙‖ = ⟨𝒙, 𝒙⟩1/2 define uma norma, basta provar a desigualdade trian-
gular. Temos que

‖𝑢 + 𝑣‖2 = ⟨𝑢 + 𝑣, 𝑢 + 𝑣⟩ = ‖𝑢‖2 + ⟨𝑢, 𝑣⟩ + ⟨𝑣, 𝑢⟩ + ‖𝑣‖2


= ‖𝑢‖2 + 2ℜ𝔢 ⟨𝑢, 𝑣⟩ + ‖𝑣‖2
≤ ‖𝑢‖2 + 2 |ℜ𝔢 ⟨𝑢, 𝑣⟩| + ‖𝑣‖2 ≤ ‖𝑢‖2 + 2| ⟨𝑢, 𝑣⟩ | + ‖𝑣‖2
≤ ‖𝑢‖2 + 2‖𝑢‖ ‖𝑣‖ + ‖𝑣‖2 = (‖𝑢‖ + ‖𝑣‖)2 .
3.3. BASES ORTONORMAIS 73

O resultado decorre daí imediatamente. 

Em particular, todo espaço com produto interno 𝐸 é um espaço normado


com a norma gerada pelo seu produto interno.
Observação 3.15 Convencionaremos que, no espaço com produto interno
𝐸, ao utilizarmos a notação ‖ ⋅ ‖, estaremos sempre nos referindo à norma
‖𝒙‖ = √⟨𝒙, 𝒙⟩. No 𝕂𝑛 , se ⟨𝒙, 𝒚⟩ = 𝒙 ⋅ 𝒚, então ‖ ⋅ ‖ é conhecida como
norma euclidiana. ⊲
Dados dois pontos 𝒙 = (𝑥1 , 𝑥2 , … , 𝑥𝑛 ) e 𝒚 = (𝑦1 , 𝑦2 , … , 𝑦𝑛 ) do espaço
ℝ𝑛 considerado com seu produto interno canônico, definimos

dist(𝒙, 𝒚) = ‖𝑥 − 𝑦‖ = √(𝑥1 − 𝑦1 )2 + (𝑥2 − 𝑦2 )2 + … + (𝑥𝑛 − 𝑦𝑛 )2 ,

chamada distância euclidiana dos pontos 𝒙 e 𝒚.


Existem normas em um espaço normado que não são geradas por um
produto interno. Isso acontece, por exemplo, com as normas ‖ ⋅ ‖𝑠 e ‖ ⋅ ‖∞
no espaço 𝕂𝑛 .

Exercício 3.18 Considere os vetores (1, 1, 1, 1) ∈ 𝕂4 , (1, 5, 3, 2, 1) ∈ 𝕂5 e (1, 2, 1) ∈ 𝕂3 . Calcule


as normas ‖ ⋅ ‖, ‖ ⋅ ‖𝑠 e ‖ ⋅ ‖∞ de cada um deles.
Exercício 3.19 Descreva o conjunto {𝑥 ∈ ℝ2 ∶ ‖ ⋅ ‖𝛼 = 1}, sendo ‖ ⋅ ‖𝛼 cada uma das normas
‖ ⋅ ‖, ‖ ⋅ ‖𝑠 e ‖ ⋅ ‖∞ . No caso de ‖ ⋅ ‖, considere que o produto interno é o canônico. Observe que
apenas na norma ‖ ⋅ ‖ esse conjunto corresponde à nossa intuição.
Exercício 3.20 Encontre a projeção ortogonal do vetor (1, 2, 4, 5) sobre o vetor (1, 1, 1, 1) com
relação ao produto interno canônico do 𝕂4 .
Exercício 3.21 Considerando pontos 𝒙 = (𝑥1 , 𝑥2 , 𝑥3 ) e 𝒚 = (𝑦1 , 𝑦2 , 𝑦3 ) do espaço ℝ3 , justifique a
definição dist(𝒙, 𝒚). Para isso, note que ‖𝒙‖ pode ser interpretada como a distância do ponto 𝒙 à
origem 0. Interprete então geometricamente ‖𝒙 − 𝒚‖.
Exercício 3.22 Mostre a identidade do paralelogramo:

‖𝑢 + 𝑣‖2 + ‖𝑢 − 𝑣‖2 = 2 (‖𝑢‖2 + ‖𝑣‖2 ) .

Essa identidade permanece válida se ‖ ⋅ ‖ for substituída por uma norma qualquer no 𝕂𝑛 ?
A recíproca do Exercício 3.22 é um fato notável, com demonstração um
pouco mais complexa: uma norma arbitrária satisfaz a identidade do para-
lelogramo apenas se for gerada por um produto interno. A demonstração
desse fato está além dos objetivos deste texto.

3.3 Bases Ortonormais


Definição 3.16 Seja 𝐸 um espaço com produto interno. Um conjunto 𝒪 =
{𝒗1 , … , 𝒗𝑟 } de vetores em 𝐸 é ortogonal se cada par de vetores em 𝒪 for
ortogonal, isto é,

⟨𝒗𝑖 , 𝒗𝑗 ⟩ = 0, se 𝑖 ≠ 𝑗, 𝑖, 𝑗 ∈ {1, … , 𝑟}.

Se todos os vetores de 𝒪 forem unitários, isto é, ‖𝒖𝑖 ‖ = 1 para 1 ≤ 𝑖 ≤ 𝑟,


então dizemos que 𝒪 é um conjunto ortonormal.
74 CAPÍTULO 3. PRODUTO INTERNO

Se o vetor 0 não pertencer a um conjunto ortonormal 𝒪, intuitivamente


diríamos que o conjunto 𝒪 é linearmente independente. (Observe que 0 é
perpendicular a qualquer vetor e que qualquer conjunto que contém o vetor
0 é linearmente dependente.)
Começamos mostrando que nossa intuição é acertada:
Lema 3.17 Se 𝒪 ⊂ 𝐸 for um conjunto ortogonal de vetores não nulos,
então 𝒪 é linearmente independente.
Demonstração: Seja 𝒪 = {𝒗1 , … , 𝒗𝑟 } ⊂ 𝐸 um conjunto ortogonal de
vetores não nulos e suponhamos que
𝛼1 𝒗1 + … + 𝛼𝑟 𝒗𝑟 = 0. (3.1)
Tomando o produto escalar pelo vetor 𝒗1 em ambos os lados dessa igual-
dade, obtemos
⟨𝛼1 𝒗1 + … + 𝛼𝑟 𝒗𝑟 , 𝒗1 ⟩ = ⟨0, 𝒗1 ⟩
𝛼1 ⟨𝒗1 , 𝒗1 ⟩ + 𝛼2 ⟨𝒗2 , 𝒗1 ⟩ + … + 𝛼𝑟 ⟨𝒗𝑟 , 𝒗1 ⟩ = 0
𝛼1 ‖𝒗1 ‖2 = 0,
o que implica 𝛼1 = 0, pois os vetores de 𝒪 não são nulos.
Do mesmo modo, tomando o produto escalar em ambos os lados de (3.1)
pelo vetores 𝒗𝑖 , com 2 ≤ 𝑖 ≤ 𝑟, encontramos
⟨𝛼1 𝒗1 + … + 𝛼𝑟 𝒗𝑟 , 𝒗𝑖 ⟩ = ⟨0, 𝒗𝑖 ⟩
𝛼1 ⟨𝒗1 , 𝒗𝑖 ⟩ + … + 𝛼𝑖 ⟨𝒗𝑖 , 𝒗𝑖 ⟩ + … + 𝛼𝑟 ⟨𝒗𝑟 , 𝒗𝑖 ⟩ = 0
𝛼𝑖 ‖𝒗𝑖 ‖ = 0,
o que implica, como antes, 𝛼𝑖 = 0. Assim, 𝛼1 = ⋯ = 𝛼𝑟 = 0, mostrando
que 𝒪 é linearmente independente. 

Note que provamos, em particular, que todo conjunto ortonormal é li-


nearmente independente. Como um conjunto linearmente independente de
um espaço de dimensão 𝑛 possui, no máximo, 𝑛 vetores, o mesmo acontece
para conjuntos ortogonais cujos elementos não são nulos.
Se dim 𝐸 = 𝑛 e o conjunto ortogonal {𝒗1 , … , 𝒗𝑛 } ⊂ ℝ𝑛 for formado
por vetores não nulos, obtemos imediatamente uma base ortonormal de 𝐸
ao dividir cada vetor por sua norma.
Exemplo 3.18 É claro que a base canônica {𝒆1 , … , 𝒆𝑛 } é ortonormal com
relação ao produto interno canônico do 𝕂𝑛 . De fato,
⟨𝒆𝑖 , 𝒆𝑗 ⟩ = 0,
se 𝑖 ≠ 𝑗 e
⟨𝒆𝑖 , 𝒆1 ⟩ = 1 ⇒ ‖𝑒𝑖 ‖2 = 1. ⊲
Exemplo 3.19 Os vetores 𝒗1 = (1, 2, 1), 𝒗2 = (3, −2, 1) e 𝒗3 = (−2, −1, 4)
formam uma base ortogonal do 𝕂3 considerado com seu produto interno
canônico, pois
⟨𝒗𝑖 , 𝒗𝑗 ⟩ = 0, se 𝑖 ≠ 𝑗
e
⟨𝒗𝑖 , 𝒗𝑖 ⟩ ≠ 0
para todos 𝑖, 𝑗 ∈ {1, 2, 3}. ⊲
3.3. BASES ORTONORMAIS 75

Exercício 3.23 Justifique: qualquer conjunto ortonormal com 𝑛 elementos é uma base do espaço
𝐸 de dimensão 𝑛.
Exercício 3.24 Considere o conjunto 𝒪 = {𝒗1 , 𝒗2 , 𝒗3 , 𝒗4 } em que

𝒗1 = (16, −13, 1, 3), 𝒗2 = (1, 2, 1, 3), 𝒗3 = (1, 1, 0, −1) e 𝒗4 = (1, 1, −9, 2).

Mostre que 𝒪 é uma base ortogonal do 𝕂4 , considerado com seu produto interno canônico.

Vale também uma generalização do Teorema de Pitágoras:

Proposição 3.20 Seja 𝒪 = {𝒗1 , … , 𝒗𝑟 } um conjunto ortonormal. Então

‖𝛼1 𝒗1 + … + 𝛼𝑟 𝒗𝑟 ‖2 = |𝛼1 |2 + … + |𝛼𝑟 |2 .

Exercício 3.25 Demonstre a Proposição 3.20 ao expandir o lado esquerdo da igualdade usando a
identidade ‖𝒙‖2 = ⟨𝒙, 𝒙⟩. (Uma outra demonstração é obtida utilizando-se a versão já exposta do
Teorema de Pitágoras.)

Bases ortonormais são especiais. Assim, verificaremos algumas propri-


edades satisfeitas por qualquer base ortonormal.

Proposição 3.21 Sejam 𝐸 um espaço com produto interno e ℬ = {𝒗1 , … , 𝒗𝑟 }


uma base ortonormal do subespaço 𝑈 ⊂ 𝐸. Se 𝒙 = 𝛼1 𝒗1 + … + 𝛼𝑟 𝒗𝑟 , então

𝛼𝑖 = ⟨𝒙, 𝒗𝑖 ⟩, (3.2)

de modo que
𝑟
𝒙 = ∑⟨𝒙, 𝒗𝑖 ⟩𝒗𝑖 .
𝑖=1

Demonstração: Aplicando o procedimento utilizado na demonstração do


Lema 3.17, determinamos facilmente os escalares 𝛼𝑖 na expansão 𝒙 = 𝛼1 𝒗1 +
… + 𝛼 𝑟 𝒗𝑟 :

⟨𝒙, 𝒗𝑖 ⟩ = 𝛼1 ⟨𝒗1 , 𝒗𝑖 ⟩ + … + 𝛼𝑖 ⟨𝒗𝑖 , 𝒗𝑖 ⟩ + … + 𝛼𝑟 ⟨𝒗𝑟 , 𝒗𝑖 ⟩ = 𝛼𝑖 ,

o que nos dá
𝛼𝑖 = ⟨𝒙, 𝒗𝑖 ⟩ para 𝑖 ∈ {1, … , 𝑟}

e, portanto
𝑟
𝒙 = ∑⟨𝒙, 𝒗𝑖 ⟩𝒗𝑖 .
𝑖=1 

Observação 3.22 Observe que

𝛼𝑖 = ⟨𝒙, 𝒗𝑖 ⟩ = proj𝒗𝑖 𝒙.

76 CAPÍTULO 3. PRODUTO INTERNO

Exemplo 3.23 Considere a base ortonormal ℬ = {𝒗1 , 𝒗2 , 𝒗3 } do espaço


ℝ3 (verifique!), em que

1 2 1 2 1 4
𝒗1 = , , , 𝒗2 = − ,− ,
( √6 √6 √6 ) ( √21 √21 √21 )
e
3 2 1
𝒗3 = ,− ,
.
( √14
√14 √14 )
Se 𝒙 = (1, 1, 1) determinamos facilmente os escalares 𝛼𝑖 tais que
𝒙 = 𝛼 1 𝒗1 + 𝛼 2 𝒗2 + 𝛼 3 𝒗3 .
De fato, como vimos, temos
4 1 2
𝛼1 = ⟨𝒙, 𝒗1 ⟩ = , 𝛼2 = ⟨𝒙, 𝒗2 ⟩ = e 𝛼3 = ⟨𝒙, 𝒗3 ⟩ = .
√6 √21 √14 ⊲

Exercício 3.26 Compare a solução apresentada no Exemplo 3.23 com o cálculo direto dos coefi-
cientes 𝛼𝑖 (como feito no Capítulo 2, isto é, sem usar o fato que ℬ é uma base ortonormal).
Exercício 3.27 Na Proposição 3.21, se a base ℬ = {𝒗1 , … , 𝒗𝑟 } for apenas ortogonal ao invés de
ortonormal, qual é a expressão dos coeficientes 𝛼𝑖 ?
Exercício 3.28 Ache a representação do vetor 𝒙 = (𝑥1 , 𝑥2 , 𝑥3 , 𝑥4 ) ∈ 𝕂4 na base 𝒪 do Exercício
3.24.
A Proposição 3.21 tem várias aplicações. Por exemplo, se {𝒗1 , … , 𝒗𝑛 }
for uma base ortonormal do espaço com produto interno 𝐸 e 𝒙, 𝒚 ∈ 𝐸 com
𝒙 = 𝛼 1 𝒗1 + … + 𝛼 𝑛 𝒗𝑛 e 𝒚 = 𝛽1 𝒗1 + … + 𝛽𝑛 𝒗𝑛 ,
ao expandirmos ambos os lados do produto interno ⟨𝒙, 𝒚⟩ obtemos
⟨𝛼1 𝒗1 + … + 𝛼𝑛 𝒗𝑛 , 𝛽1 𝒗1 + … + 𝛽𝑛 𝒗𝑛 ⟩ = 𝛼1 𝛽1 + … + 𝛼𝑛 𝛽𝑛 , (3.3)
o que mostra que, com relação a essa base ortonormal, o produto interno
se comporta como o produto interno canônico do 𝕂𝑛 . (Relembramos que
a ortogonalidade de vetores depende do produto interno considerado. O
que é uma base ortonormal para o produto interno canônico não precisa ser
ortogonal para outro produto interno.)

3.4 Ortogonalização de Gram-Schmidt


Na seção anterior, mostramos que bases ortogonais são fáceis de lidar.
Mas, como obtê-las? Se 𝒗1 e 𝒗2 denotam vetores ortogonais e 𝒖 um vetor
que não pertence ao plano gerado por 𝒗1 e 𝒗2 , a Figura 3.2 ilustra como
obter de 𝒖 um vetor 𝒘, ortogonal ao plano gerado por 𝒗1 e 𝒗2 .
Uma vez que proj𝒗1 𝒖 + proj𝒗2 𝒖 + 𝒘 = 𝒖, o vetor procurado 𝒘 é dado
por 𝒘 = 𝒖 − proj𝒗1 𝒖 − proj𝒗2 𝒖, o que generaliza o procedimento descrito
na Figura 3.1. Demonstraremos e generalizaremos nossas observações para
um número qualquer de vetores ao mostrar o processo de ortogonalização
de Gram-Schmidt:
3.4. ORTOGONALIZAÇÃO DE GRAM-SCHMIDT 77


𝒖
✁✕✻

✁𝒘 proj𝒗2 𝒖
✁ ✲ ✲
❅ 𝒗2
proj𝒗1 𝒖 ✠ ❘

𝒕 = proj𝒗1 𝒖 + proj𝒗2 𝒖
𝒗1 ✠

Figura 3.2: O vetor 𝒘 é a “componente” de 𝒖 ortogonal ao plano gerado por


𝒗1 e 𝒗2 . O vetor 𝒕 nada mais é do que a soma das projeções de 𝒖 sobre os
vetores 𝒗1 e 𝒗2 .

Teorema 3.24 (Gram-Schmidt)


Sejam {𝒗1 , … , 𝒗𝑟 } um conjunto ortogonal de vetores não nulos no es-
paço com produto interno 𝐸 e 𝒖 ∈ 𝐸 um vetor qualquer. Então o vetor
𝒘 = 𝒖 − proj𝒗1 𝒖 − proj𝒗2 𝒖 − … − proj𝒗𝑟 𝒖
⟨𝒖, 𝒗1 ⟩ ⟨𝒖, 𝒗2 ⟩ ⟨𝒖, 𝒗𝑟 ⟩
= 𝒖− 2
𝒗1 − 2
𝒗2 − … − 𝒗𝑟 (3.4)
‖𝒗1 ‖ ‖𝒗2 ‖ ‖𝒗𝑟 ‖2
é ortogonal aos vetores 𝒗1 , … , 𝒗𝑟 . Se 𝒖 ∈ < 𝒗1 , … , 𝒗𝑟 >, então 𝒘 = 0,
enquanto 𝒘 ≠ 0 se 𝒖 ∉ < 𝒗1 , … , 𝒗𝑟 >.

Demonstração: Temos que ⟨𝒘, 𝒗𝑖 ⟩ = 0 para 𝑖 = 1, … , 𝑟.


⟨𝒖, 𝒗1 ⟩ ⟨𝒖, 𝒗𝑟 ⟩
⟨𝒘, 𝒗𝑖 ⟩ = 𝒖− 𝒗1 − … − 𝒗𝑟 , 𝒗 𝑖
⟨ ‖𝒗1 ‖ 2 ‖𝒗𝑟 ‖2 ⟩
⟨𝒖, 𝒗1 ⟩ ⟨𝒖, 𝒗𝑟 ⟩
= ⟨𝒖, 𝒗𝑖 ⟩ − 2
⟨𝒗1 , 𝒗𝑖 ⟩ − … − ⟨𝒗𝑟 , 𝒗𝑖 ⟩
‖𝒗1 ‖ ‖𝒗𝑟 ‖2
⟨𝒖, 𝒗𝑖 ⟩
= ⟨𝒖, 𝒗𝑖 ⟩ − ⟨𝒗𝑖 , 𝒗𝑖 ⟩
‖𝒗𝑖 ‖2
= ⟨𝒖, 𝒗𝑖 ⟩ − ⟨𝒖, 𝒗𝑖 ⟩ = 0,
mostrando que 𝒘 é ortogonal a todos os vetores 𝒗𝑖 . Se tivermos 𝒘 = 0,
então (3.4) deixa claro que 𝒖 é combinação linear dos vetores 𝒗1 , … , 𝒗𝑟 .
Contudo, se 𝒖 ∈ < 𝒗1 , … , 𝒗𝑟 >, então 𝒖 = 𝛼1 𝒗1 + … + 𝛼𝑟 𝒗𝑟 com
⟨𝒖,𝒗 ⟩
𝛼𝑖 = ‖𝒗 ‖𝑖2 , de acordo com o Exercício 3.27. Assim
𝑖

⟨𝒖, 𝒗1 ⟩ ⟨𝒖, 𝒗2 ⟩ ⟨𝒖, 𝒗𝑟 ⟩


𝒘 = 𝛼 1 𝒗1 + … + 𝛼 𝑟 𝒗𝑟 − 𝒗 1 − 𝒗 2 − … − 𝒗𝑟 = 0,
‖𝒗1 ‖2 ‖𝒗2 ‖2 ‖𝒗𝑟 ‖2
provando o afirmado. 

Definição 3.25 Sejam {𝒗1 , … , 𝒗𝑟 } ⊂ 𝐸 um conjunto ortogonal de vetores


não nulos e 𝒖 ∈ 𝐸 um vetor qualquer. O vetor
𝒛 = proj𝒗1 𝒖 + proj𝒗2 𝒖 + … + proj𝒗𝑟 𝒖
é a projeção ortogonal de 𝒖 sobre o subespaço < 𝒗1 , 𝒗2 , … , 𝒗𝑟 >
78 CAPÍTULO 3. PRODUTO INTERNO

Salientamos que os vetores 𝒘𝑗 (1 ≤ 𝑗 ≤ 𝑟) obtidos pelo processo de


ortogonalização de Gram-Schmidt são combinações lineares dos vetores
𝒗1 , … , 𝒗𝑗 . Esse fato está implícito no Teorema 3.24 mas, para enfatizá-
lo, vamos mostrá-lo novamente, usando indução sobre o número de veto-
res da base {𝒗1 , … , 𝒗𝑗 }. Se 𝑗 = 1, isso é imediato. Suponhamos que os
vetores ortonormais 𝒘1 , … , 𝒘𝑗−1 sejam combinações lineares dos vetores
𝒗1 , … , 𝒗𝑗−1 e consideremos o vetor 𝒘𝑗 , obtido pelo processo de ortogona-
lização de Gram-Schmidt:

𝒘𝑗 = 𝒗𝑗 − proj𝒘1 𝒗𝑗 − proj𝒘2 𝒗𝑗 − … − proj𝒘𝑗−1 𝒗𝑗 .

Claramente 𝒘𝑗 é combinação linear dos vetores 𝒘1 , … , 𝒘𝑗−1 , 𝒗𝑗 ; como


nossa hipótese de indução garante que cada vetor 𝒘𝑖 é combinação linear
dos vetores 𝒗1 , … , 𝒗𝑖 (com 1 ≤ 𝑖 ≤ 𝑗 −1), concluímos que 𝒘𝑗 é combinação
linear dos vetores 𝒗1 , … , 𝒗𝑗 , provando o afirmado.
Note que o processo de Gram-Schmidt nos permite a obtenção de uma
base ortonormal para qualquer subespaço 𝑊. De fato, partindo de um vetor
arbitrário 0 ≠ 𝒘1 ∈ 𝑊, obtemos uma base de 𝑊 ao utilizar o Teorema
2.49. Aplicando o processo de Gram-Schmidt, obtemos uma base ortogo-
nal. Dividindo esses vetores por suas respectivas normas, obtemos uma
base ortonormal.

Exemplo 3.26 Considere os vetores 𝒗1 = (−1, 1, 0), 𝒗2 = (−1, 0, 1) e 𝒗3 =


(1, 1, 1). É fácil verificar que {𝒗1 , 𝒗2 , 𝒗3 } é uma base do 𝕂3 . Mas essa
base não é ortogonal com relação ao produto interno canônico do 𝕂3 , pois
𝒗1 ⋅ 𝒗2 = 1 ≠ 0. Vamos utilizar o processo de ortogonalização de Gram-
Schmidt para obter uma base ortonormal do 𝕂3 . Definimos 𝒘1 = 𝒗1 =
(−1, 1, 0) e

𝒘′2 = 𝒗2 − proj𝒘1 𝒗2
⟨𝒗2 , 𝒘1 ⟩ 1
= 𝒗2 − 𝒘1 = (−1, 0, 1) − (−1, 1, 0)
‖𝒘1 ‖ 2 2
= (−1, 0, 1) − (−1/2, 1/2, 0)
= (−1/2, −1/2, 1).

Evitando frações, consideraremos 𝒘2 = (−1, −1, 2). Note que ⟨𝒘1 , 𝒘2 ⟩ =


0.
Continuando, consideremos

𝒘3 = 𝒗3 − proj𝒘1 𝒗3 − proj𝒘2 𝒗3
⟨𝒗3 , 𝒘1 ⟩ ⟨𝒗3 , 𝒘2 ⟩
= 𝒗3 − 𝒘1 − 𝒘2
‖𝒘1 ‖2 ‖𝒘2 ‖2
0 0
= (1, 1, 1) − (−1, 1, 0) − (−1, −1, 2)
2 6
= (1, 1, 1).

Note que o vetor 𝒘3 coincidiu com o vetor 𝒗3 , pois esse vetor já era
ortogonal aos vetores 𝒗1 e 𝒗2 (verifique!). Assim, a base ℬ = {𝒘1 , 𝒘2 , 𝒘3 }
3.4. ORTOGONALIZAÇÃO DE GRAM-SCHMIDT 79

é uma base ortogonal do ℝ3 . Para obter uma base ortonormal, basta dividir
cada vetor por sua norma. Então os vetores

−1 1 −√6 −√6 √6
𝒖1 = ,
,0 , 𝒖2 = , ,
( √2 √2 ) ( 6 6 3 )

e
1 1 1
𝒖3 = , ,
( √3 √3 √3 )

formam uma base ortonormal do ℝ3 . ⊲

Exercício 3.29 Seja 𝑊 o espaço gerado pelos vetores

𝒗1 = (1, 1, 1, 1), 𝒗2 = (1, 1, 2, 4) e 𝒗3 = (1, 2, −4, −3).

Ache uma base ortonormal para 𝑊.


Exercício 3.30 Na demonstração de que os vetores obtidos pelo processo de ortogonalização de
Gram-Schmidt são combinações lineares dos vetores originais, o conjunto {𝒗1 , … , 𝒗𝑗 } foi descrito
como sendo uma base. Base de que (sub)espaço?

Definição 3.27 Seja 𝐸 um espaço com o produto interno ⟨⋅, ⋅⟩. O comple-
mento ortogonal do subespaço 𝑊 ⊂ 𝐸, denotado por 𝑊 ⟂ , é o conjunto

𝑊 ⟂ = {𝒛 ∈ 𝐸 ∶ ⟨𝒛, 𝒘⟩ = 0, ∀ 𝒘 ∈ 𝑊 }.

Claramente 𝑊 ⟂ é um subespaço de 𝐸.

Exercício 3.31 Seja 𝐸 um espaço com produto interno. Mostre que, qualquer que seja o conjunto
𝑆 ⊂ 𝐸 (que não precisa ser um subespaço), temos que 𝑆 ⟂ é um subespaço do 𝐸.

Teorema 3.28 Sejam 𝐸 um espaço com produto interno ⟨⋅, ⋅⟩ e 𝑊 ⊂ 𝐸 um


subespaço de dimensão 𝑛. Então vale a decomposição em soma direta

𝐸 = 𝑊 ⊕ 𝑊⟂
𝒙 = 𝒘 + 𝒛.

Além disso,
(𝑊 ⟂ )⟂ = 𝑊 .

Demonstração: Seja {𝒘1 , … , 𝒘𝑛 } for uma base ortonormal de 𝑊. Para


𝒙 ∈ 𝐸 arbitrário, defina

𝒘 = ⟨𝒙, 𝒘1 ⟩ 𝒘1 + … + ⟨𝒙, 𝒘𝑛 ⟩ 𝒘𝑛

e 𝒛 = 𝒙 − 𝒘. A demonstração do Teorema 3.24 mostra que 𝒛 ∈ 𝑊 ⟂ . (Por


outro lado, não é difícil verificar que 𝒛 é ortogonal aos vetores 𝒘1 , … 𝒘𝑛 .)
Assim, temos 𝒙 = 𝒘 + 𝒛. Note que o vetor 𝒘 nada mais é do que a projeção
do vetor 𝒙 sobre o subespaço 𝑊. Por esse motivo, denotamos 𝒘 = proj𝑊 𝒙
80 CAPÍTULO 3. PRODUTO INTERNO

Se 𝒘 ∈ 𝑊 ∩ 𝑊 ⟂ , a definição de 𝑊 ⟂ garante que ⟨𝒘, 𝒘⟩ = 0 e,


portanto, 𝒘 = 0.
Para 𝒛 ∈ 𝑊 ⟂ arbitrário, temos que ⟨𝒘, 𝒛⟩ = 0 para todo 𝒘 ∈ 𝑊.
A definição de (𝑊 ⟂ )⟂ garante então que 𝑊 ⊂ (𝑊 ⟂ )⟂ . Se fosse 𝑊 ≠
(𝑊 ⟂ )⟂ , por Gram-Schmidt existiria 0 ≠ 𝒚 ∈ (𝑊 ⟂ )⟂ ⧵ 𝑊. Aplicando o
processo de ortogonização de Gram-Schmidt ao vetor 𝒚, podemos supor
que ⟨𝒚, 𝒘⟩ = 0 para todo 𝒘 ∈ 𝑊, mostrando que 𝒚 ∈ 𝑊 ⟂ . Assim, temos
que 𝒚 ∈ 𝑊 ⟂ ∩ (𝑊 ⟂ )⟂ = {0}. Absurdo. 

Exercício 3.32 Na demonstração anterior, verifique que 𝒛 ∈ 𝑊 ⟂ .

Exemplo 3.29 Seja 𝑊 = < 𝒗1 , 𝒗2 , 𝒗3 >⊂ ℝ4 , em que 𝒗1 = (1, 0, 0, 0),


𝒗2 = (1, 1, 0, 0) e 𝒗3 = (1, 2, 1, 2). Para 𝒙 = (1, 2, 0, 1), vamos encontrar
proj𝑊 𝒙. (Ou, dito de outra forma, se 𝒙 = 𝒘 + 𝒛 ∈ 𝑊 ⊕ 𝑊 ⟂ , vamos obter
o vetor 𝒘.)
Temos que
𝒘 = proj𝒗1 𝒙 + proj𝒗2 𝒙 + proj𝒗3 𝒙
⟨𝒙, 𝒗1 ⟩ ⟨𝒙, 𝒗2 ⟩ ⟨𝒙, 𝒗3 ⟩
= 2
𝒗1 + 2
𝒗2 + 𝒗3
‖𝒗1 ‖ ‖𝒗2 ‖ ‖𝒗3 ‖2
1 3 7
= (1, 0, 0, 0) + (1, 1, 0, 0) + (1, 2, 1, 2)
1 2 10
32 29 7 14
= ( , , , ). ⊲
10 10 10 10
Exemplo 3.30 Seja 𝑊 = < 𝒖, 𝒗 > ⊂ ℝ5 , em que 𝒖 = (1, 3, 2, −1, 2) e 𝒗 =
(2, 7, 4, 2, −1). Vamos encontrar uma base para 𝑊 ⟂ , com ℝ5 considerado
com seu produto interno canônico. (Note que os vetores 𝒖 e 𝒗 não precisam
ser ortogonais.)
Para isso, seja 𝒙 = (𝑥1 , 𝑥2 , 𝑥3 , 𝑥4 , 𝑥5 ) um vetor arbitrário de 𝑊 ⟂ . Como
os vetores 𝒖, 𝒗 são linearmente independentes, o vetor 𝒙 será ortogonal a 𝑊
se for perpendicular a 𝒖 e 𝒗. Assim, devemos ter
𝒙 ⋅ 𝒖 = 𝑥1 + 3𝑥2 + 2𝑥3 − 𝑥4 + 2𝑥5 = 0
𝒙 ⋅ 𝒗 = 2𝑥1 + 7𝑥2 + 4𝑥3 + 2𝑥4 − 𝑥5 = 0,
sistema que conduz à forma escalonada reduzida por linhas
1 0 2 −13 17
,
( 0 1 0 4 −5 )
de modo que suas soluções são

⎛𝑥1 ⎞ ⎛−2𝑥3 + 13𝑥4 − 17𝑥5 ⎞


⎜𝑥2 ⎟ ⎜ −4𝑥4 + 5𝑥5 ⎟
⎜𝑥3 ⎟ = ⎜ 𝑥3 ⎟
⎜ ⎟ ⎜ ⎟
⎜𝑥4 ⎟ ⎜ 𝑥4 ⎟
⎝𝑥5 ⎠ ⎝ 𝑥5 ⎠
⎛ −2 ⎞ ⎛ 13 ⎞ ⎛ −17 ⎞
⎜ 0⎟ ⎜ −4 ⎟ ⎜ 5⎟
= 𝑥 3 1 + 𝑥4 0 + 𝑥 5 ⎜ 0 ⎟ .
⎜ ⎟ ⎜ ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎜ 0⎟ ⎜ 1⎟ ⎜ 0⎟
⎝ 0⎠ ⎝ 0⎠ ⎝ 1⎠
3.5. EXERCÍCIOS 81

Assim,
⎧⎛ −2 ⎞ ⎛ 13 ⎞ ⎛ −17 ⎞⎫
⎪⎜ 0 ⎟ ⎜ −4 ⎟ ⎜ 5 ⎟⎪
⎪ ⎪
𝒞 = ⎨⎜ 1 ⎟ , ⎜ 0 ⎟ , ⎜ 0 ⎟⎬
⎪⎜ 0 ⎟ ⎜ 1 ⎟ ⎜ 0 ⎟⎪
⎪⎜ 0 ⎟ ⎜ 0 ⎟ ⎜ 1 ⎟⎪
⎩⎝ ⎠ ⎝ ⎠ ⎝ ⎠⎭
é uma base para 𝑊 ⟂ . Para obter uma base ortogonal para 𝑊 ⟂ , aplicamos
o processo de ortogonalização de Gram-Schmidt a esses vetores. ⊲

Exercício 3.33 Encontre bases ortonormais para os subespaços 𝑊 e 𝑊 ⟂ do Exemplo 3.30.

3.5 Exercícios
1. Seja ⟨⋅, ⋅⟩ um produto interno. Mostre que ⟨𝒙, 𝒚 + 𝜆𝒛⟩ = ⟨𝒙, 𝒚⟩ + 𝜆⟨𝒙, 𝒛⟩ para todos 𝒙, 𝒚, 𝒛 ∈
ℝ𝑛 e 𝜆 ∈ ℝ.
2. Para os vetores 𝒛 = (𝑧1 , 𝑧2 ) e 𝒘 = (𝑤2 , 𝑤2 ) no espaço ℂ2 ,
(a) verifique que

⟨𝒛, 𝒘⟩ = 𝑧1 𝑤̄ 1 + (1 + 𝑖)𝑧1 𝑤̄ 2 + (1 − 𝑖)𝑧2 𝑤̄ 1 + 3𝑧2 𝑤̄ 2

define um produto interno em ℂ2 ;


(b) Determine os valores 𝑎, 𝑏, 𝑐, 𝑑 ∈ ℂ de modo que

⟨𝒛, 𝒘⟩ = 𝑎𝑧1 𝑤̄ 1 + 𝑏𝑧1 𝑤̄ 2 + 𝑐𝑧2 𝑤̄ 1 + 𝑑𝑧2 𝑤̄ 2

defina um produto interno em ℂ2 .


3. Considere o produto interno ⟨⋅, ⋅⟩ definido no Exercício 3.6. Sejam 𝒖 = (3, 4) e 𝒗 = (1, 5)
vetores do ℝ2 . Calcule ⟨𝒖, 𝒗⟩, bem como ‖𝒖‖.
4. Seja ‖ ⋅ ‖𝛼 uma norma no espaço ℝ𝑛 . Mostre que ‖0‖𝛼 = 0.
5. Considere a norma da soma no espaço ℝ𝑛 , como no Exemplo 3.9. Mostre que não existe um
produto interno ⟨⋅, ⋅⟩ definido no ℝ𝑛 de modo que ⟨𝒙, 𝒙⟩ = ‖𝒙‖2 para todo 𝒙 ∈ ℝ𝑛 .
6. Seja ⟨⋅, ⋅⟩ um produto interno no ℝ𝑛 . Demonstre a desigualdade de Cauchy-Bunyakowsky-
Schwarz da seguinte maneira: para 𝒙, 𝒚 ∈ ℝ𝑛 , desenvolva a expressão 0 ≤ ⟨𝒙 − 𝛼𝑡𝒚, 𝒙 − 𝛼𝑡𝒚⟩.
Escolhendo 𝛼 = ⟨𝒙, 𝒚⟩, obtenha um trinômio do segundo grau com coeficientes reais. Analise
esse trinômio e obtenha a desigualdade de Cauchy-Bunyakowsky-Schwarz.
7. Sejam 𝒙 = (1, 1, 1) e 𝒚 = (1, 2, 3) vetores do ℝ3 considerado com seu produto interno canô-
nico. Calcule proj𝒙 𝒚.
8. Sejam 𝒙 = (4, −1, 2) e 𝒚 = (2, −1, 3) vetores do ℝ3 considerado com seu produto interno
canônico. Escreva 𝒚 = 𝛼𝒙 + 𝒘, com 𝛼 ∈ ℝ e 𝒘 ortogonal a 𝒙.
9. Considere o espaço 𝐶([0, 2𝜋], ℝ) com o produto interno
2𝜋
⟨𝒇 , 𝒈⟩ = 𝒇 (𝑡)𝒈(𝑡) d𝑡.
∫0

(Veja o Exemplo 3.5.)


(a) Mostre que ⟨⋅, ⋅⟩ define um produto interno em 𝐶([0, 2𝜋], ℝ);
82 CAPÍTULO 3. PRODUTO INTERNO

(b) Para 𝒇𝑚 (𝑡) = cos 𝑚𝑡 (𝑚 ∈ {0, 1, 2, …} e 𝒈𝑛 (𝑡) = sen 𝑛𝑡 (𝑛 ∈ ℕ), verifique que

⟨f𝑚 , g𝑛 ⟩ = 0, ⟨𝒇𝑖 , 𝒇𝑗 ⟩ = 0 𝑖, 𝑗 ∈ {0, 1, 2, …}, 𝑖 ≠ 𝑗

e
⟨𝒈𝑖 , 𝒈𝑗 ⟩ = 0, 𝑖, 𝑗 ∈ ℕ, 𝑖 ≠ 𝑗.
10. Sejam 𝐸 um espaço com produto interno ⟨⋅, ⋅⟩ e ‖ ⋅ ‖ a norma por ele gerada. Mostre que, se
𝐸 for um espaço real, então

1
⟨𝒙, 𝒚⟩ = ‖𝒙 + 𝒚‖2 − ‖𝒙 − 𝒚‖2 ) .
4(
Por outro lado, se 𝐸 for um espaço complexo, então

1 1 𝑖 𝑖
⟨𝒙, 𝒚⟩ = ‖𝒙 + 𝒚‖2 − ‖𝒙 − 𝒚‖2 + ‖𝒙 + 𝑖𝒚‖2 − ‖𝒙 − 𝑖𝒚‖2 .
4 4 4 4
Essas igualdades são conhecidas como identidade de polarização. Para obtê-las, em cada
caso desenvolva o lado esquerdo da igualdade.
11. Sejam 𝒖 = (2, −1, 𝛼) e 𝒗 = (1, 3, 2). Para que valor de 𝛼 os vetores 𝒖 e 𝒗 são ortogonais com
relação ao produto interno canônico do ℝ3 ?
12. Considere a base ortogonal do ℝ3 definida no Exemplo 3.19. Dado o vetor 𝒙 = (𝑥1 , 𝑥2 , 𝑥3 ),
obtenha as coordenadas de 𝒙 nessa base.
13. Considere o espaço ℝ3 com seu produto interno canônico e o plano 𝜋 dado por 𝑥1 + 𝑥2 + 𝑥3 =
0.
(a) Encontre uma base ortonormal ℬ para 𝜋.
(b) Complete essa base de modo a obter uma base ortonormal para o espaço ℝ3 .
14. Considere o conjunto ℬ = {𝒗1 , 𝒗2 , 𝒗3 , 𝒗4 }, em que

𝒗1 = (1, −2, 2, −3), 𝒗2 = (2, −3, 2, 4), 𝒗3 = (2, 2, 1, 0)

e
𝒗4 = (5, −2, −6, −1).
Seja 𝒙 = (1, 1, 1, 1).
(a) Mostre que ℬ é uma base ortogonal do ℝ4 considerado com seu produto interno canô-
nico;
(b) Escreva 𝒙 como combinação linear dos elementos de ℬ.
15. Seja {𝒗1 , … , 𝒗𝑘 } uma base ortonormal do subespaço 𝑉 ⊂ ℝ𝑛 . Dados 𝒖, 𝒗 ∈ 𝑉, mostre que

⟨𝒖, 𝒗⟩ = ⟨𝒖, 𝒗1 ⟩ ⟨𝒗, 𝒗1 ⟩ + ⟨𝒖, 𝒗2 ⟩ ⟨𝒗, 𝒗2 ⟩ + … + ⟨𝒖, 𝒗𝑘 ⟩ ⟨𝒗, 𝒗𝑘 ⟩.

16. Escreva o vetor (1, 3) ∈ ℝ2 como combinação linear dos vetores 𝒗1 = (1/√2, 1/√2) e
𝒗2 = (−1/√2, 1/√2).

17. Com ℝ4 considerado com seu produto interno canônico, encontre uma base ortonormal para
o subespaço

𝑊 = {𝒙 = (𝑥1 , 𝑥2 , 𝑥3 , 𝑥4 ) ∈ ℝ4 ∶ 𝑥1 − 𝑥2 − 2𝑥3 + 𝑥4 = 0}.


3.5. EXERCÍCIOS 83

18. No espaço 𝒫 (𝑡) considere o produto interno


1
⟨𝒑, 𝒒⟩ = 𝒑(𝑡)𝒒(𝑡) d𝑡.
∫0
Considere o conjunto ℬ = {1, 𝑡, 𝑡2 }.
(a) Verifique que ℬ é linearmente independente;
(b) Aplique o processo de ortogonalização de Gram-Schmidt e obtenha um conjunto orto-
gonal {𝒑1 , 𝒑2 , 𝒑3 } ⊂ 𝒫 (𝑡)] com coeficientes inteiros.
19. Seja 𝑉 = < 𝒗1 , 𝒗2 , 𝒗3 >, em que 𝒗1 = (1, 0, 0, −1), 𝒗2 = (2, 2, −2, 0) e 𝒗3 = (0, 1, 0, 2).
Determine uma base ortonormal para 𝑉.
20. Considere a base {𝒗1 = (1, 1, 1), 𝒗2 = (1, 2, 3), 𝒗3 = (1, 1, 0)} ⊂ ℝ3 . Aplique o processo de
ortogonalização de Gram-Schmidt a esses vetores e obtenha uma base ortonormal ℬ do ℝ3
com relação ao seu produto interno canônico, tendo 𝒗1 /‖𝒗1 ‖ como o primeiro vetor de ℬ.
21. Considere os vetores 𝒗1 = (1, 1, 1, 1) e 𝒗2 = (1, 1, −1, −1). Sejam 𝑊 = < 𝒗1 , 𝒗2 > e
𝒙 = (1, 2, 0, −2). Calcule proj𝑊 𝒙.
22. Sejam ℬ = {𝒗1 , … , 𝒗𝑘 } uma base ortonormal do subespaço 𝑊 ⊂ ℝ𝑛 e 𝒗 ∈ ℝ𝑛 um vetor
arbitrário. Suponha que 𝒗 = 𝑐1 𝒗1 + … + 𝑐𝑘 𝒗𝑘 . Mostre a desigualdade de Bessel:
𝑐12 + … + 𝑐𝑘2 ≤ ‖𝑣‖2 .
23. Considere ℝ4 com seu produto interno canônico. Seja 𝑊 = < 𝒘 >, em que 𝒘 = (1, 1, 2, 3).
Calcule uma base ortonormal para 𝑊 ⟂ .
24. Seja 𝑊 o subespaço gerado pelos vetores 𝒘1 = (4, 0, −3) e 𝒘2 = (0, 1, 0). Escreva o vetor
𝒙 = (1, 2, 3) na forma 𝒙 = 𝒘 + 𝒛 com 𝒘 ∈ 𝑊 e 𝒛 ∈ 𝑊 ⟂ .
25. Seja 𝑊 ⊂ ℝ𝑛 um subespaço tal que 𝑊 ⟂ = {0}. Mostre que 𝑊 = ℝ𝑛 .
26. Suponha que 𝒗 seja ortogonal aos vetores 𝒗𝑖 , 1 ≤ 𝑖 ≤ 𝑘. Mostre que 𝒗 é ortogonal ao
subespaço < 𝒗1 , … , 𝒗𝑘 >.
27. Sejam 𝑆, 𝑆1 e 𝑆2 subconjuntos arbitrários do espaço com produto interno 𝐸. Mostre:
(a) 𝑆 ⊂ (𝑆 ⟂ )⟂ =∶ 𝑆 ⟂⟂ ;
(b) 𝑆1 ⊂ 𝑆2 implica 𝑆2⟂ ⊂ 𝑆1⟂ ;
(c) 𝑆 ⟂ = < 𝑆 ⟂ >.
28. Suponha que ℝ𝑛 = 𝑊 + 𝑉 e 𝑉 ⊂ 𝑊 ⟂ . Mostre que 𝑉 = 𝑊 ⟂ .
29. Sejam 𝒗 ∈ ℝ𝑛 um vetor arbitrário e 𝑊 um subespaço. Mostre que
‖𝒗 − proj𝑊 𝒗‖ ≤ ‖𝒗 − 𝒘‖
para todo 𝒘 ∈ 𝑊. Assim, proj𝑊 𝒗 é o vetor de 𝑊 “mais próximo” do vetor 𝒗.
30. Sejam 𝒗1 = (2, 1, 2, 1, 1) e 𝒗2 = (−1, 2, 1, 2, 1). Sejam 𝑉 ⊂ ℝ5 o subespaço gerado por esses
vetores e 𝒗 = (1, 2, 3, 4, 6). Encontre o vetor 𝒘 ∈ 𝑊 que minimiza ‖𝒗 − 𝒘‖.
31. Considere ℓ𝑏 = {𝒙 = (𝑥𝑛 ) 𝑥𝑛 ∈ ℝ, ∃𝑐 ∈ ℝ ∶ |𝑥𝑛 | < 𝑐 ∀ 𝑛 ∈ ℕ} ⊂ ℝ∞ o conjunto das
sequências reais limitadas (Veja o Exercício 2.6 do Capítulo 2). É fácil verificar que, com as
operações definidas em ℝ∞ , ℓ0 é um subespaço de ℝ∞ e, portanto, um espaço vetorial: note
que, se |𝑥𝑛 | < 𝑐1 e |𝑦𝑛 | < 𝑐2 , então |𝑥𝑛 + 𝑦𝑛 | ≤ |𝑥𝑛 | + |𝑦𝑛 | < 𝑐1 + 𝑐2 . Defina, em ℓ𝑏 ,

𝑥𝑛 𝑦 𝑛
⟨𝒙, 𝒚⟩ = ∑ .
𝑛=1
𝑛2
(a) Mostre que ⟨⋅, ⋅⟩ define um produto interno em ℓ𝑏 ;
(b) Encontre um subespaço 𝑊 ⊂ ℓ𝑏 tal que 𝑊 ⟂ = {0} e 𝑊 ≠ ℓ𝑏 . (Compare com o
Exercício 26 da Seção 3.5.)
Capítulo 4

Aplicações Lineares

Objetivos: No final do Capítulo o aluno deve saber:


1. aplicar o teorema do núcleo e da imagem; obter bases para o núcleo
e imagem de uma matriz;
2. obter diferentes representações matriciais de uma aplicação linear e
saber como elas se relacionam;
3. operar com a adjunta de uma aplicação linear.

4.1 Teorema do Núcleo e da Imagem


Já vimos o tipo de conjunto que estudaremos neste curso: espaços ve-
toriais, com ênfase naqueles de dimensão finita. Agora veremos as funções
que nos interessam entre esses conjuntos: as aplicações lineares.
Definição 4.1 Sejam 𝑋, 𝑌 espaços vetoriais. Uma aplicação linear (ou
transformação linear) é uma aplicação 𝑇 ∶ 𝑋 → 𝑌 tal que
𝑇 (𝒙 + 𝜆𝒚) = 𝑇 𝒙 + 𝜆𝑇 𝒚, ∀ 𝒙, 𝒚 ∈ 𝑋 e 𝜆 ∈ 𝕂. (4.1)
Se 𝑌 = 𝕂, uma aplicação linear é chamada funcional linear. Se 𝑋 = 𝑌,
isto é, se a aplicação 𝑇 ∶ 𝑋 → 𝑋 for linear, então 𝑇 é chamado operador
linear.
Uma aplicação linear 𝑇 ∶ 𝑋 → 𝑌 é um isomorfismo se for uma bijeção.1
Alguns comentários sobre essa definição. Em primeiro lugar, estamos
denotando a imagem do ponto 𝒙 ∈ 𝑋 por 𝑇 𝒙 ao invés de 𝑇 (𝒙). Essa será
nossa prática: parênteses só serão utilizados para ajudar na interpretação.
Em segundo lugar, notamos que a soma de vetores e a multiplicação por es-
calar presentes em (4.1) possuem significados diferentes: no lado esquerdo
da igualdade, a soma de vetores e a multiplicação por escalar ocorrem no
espaço 𝑋, enquanto no lado direito da igualdade elas acontecem em 𝑌. Fi-
nalmente, essa definição pode ser generalizada para aplicações lineares defi-
nidas em subespaços 𝑈 ⊂ 𝑋: basta considerar apenas 𝒙, 𝒚 ∈ 𝑈 na igualdade
(4.1). Lembre, contudo, que um subespaço é, em si, um espaço vetorial.
1
Uma função 𝑓 ∶ 𝑋 → 𝑌 é injetora, se 𝑓 (𝑥1 ) = 𝑓 (𝑥2 ) implicar 𝑥1 = 𝑥2 ; uma função
𝑓 ∶ 𝑋 → 𝑌 é sobrejetora se, para todo 𝑦 ∈ 𝑌, existir 𝑥 ∈ 𝑋 tal que 𝑓 (𝑥) = 𝑦. Uma função
𝑓 ∶ 𝑋 → 𝑌 é uma bijeção, se 𝑓 for injetora e sobrejetora.

84
4.1. TEOREMA DO NÚCLEO E DA IMAGEM 85

Exemplo 4.2 Seja I ∶ 𝑋 → 𝑋 a aplicação dada por I𝒙 = 𝒙. Então I é linear


pois, para 𝒙, 𝒚 ∈ 𝑋 e 𝛼 ∈ 𝕂, temos I(𝒙 + 𝛼𝒚) = 𝒙 + 𝛼𝒚 = I𝒙 + 𝛼I𝒚. A
aplicação I é chamada operador identidade no espaço 𝑋. Claramente I é
um isomorfismo. ⊲

Exemplo 4.3 Sejam 𝑋, 𝑌 espaços vetoriais e 𝑁 ∶ 𝑋 → 𝑌 a aplicação de-


finida por 𝑁𝒙 = 0 para todo 𝒙 ∈ 𝑋. É fácil verificar que 𝑁 é linear; a
aplicação 𝑁 é chamada aplicação nula, qualquer que seja o espaço 𝑌. ⊲

Exemplo 4.4 Seja 𝑓 ∶ ℝ → ℝ definida por 𝑓 (𝑥) = 𝑥2 . A função 𝑓 é uma


aplicação linear? (Lembre-se: ℝ = ℝ1 é um espaço vetorial!)
Uma vez que 𝑓 (𝑥 + 𝑦) = (𝑥 + 𝑦)2 = 𝑥2 + 2𝑥𝑦 + 𝑦2 = 𝑓 (𝑥) + 𝑓 (𝑦) + 2𝑥𝑦,
vemos que 𝑓 não é linear. ⊲

Exemplo 4.5 Para x = (𝑥1 , 𝑥2 ) ∈ ℝ2 , considere a aplicação 𝑇 ∶ ℝ2 → ℝ2


definida por
𝑇x = (𝑥2 , 𝑥1 + 𝑥2 ).
Por exemplo, se x = (1, 1), então 𝑇 𝒙 = (1, 2); se 𝒙 = (1, 2), então 𝑇 𝒙 =
(2, 3) etc.
Temos que 𝑇 é linear, isto é, 𝑇 é um operador linear. Para mostrar esse
fato, temos que verificar que 𝑇 satisfaz a igualdade (4.1), o que quer dizer,
no caso de 𝑇,

𝑇 ((𝑥1 , 𝑥2 ) + 𝜆(𝑦1 , 𝑦2 )) = (𝑥2 , 𝑥1 + 𝑥2 ) + 𝜆(𝑦2 , 𝑦1 + 𝑦2 ) = 𝑇 𝒙 + 𝜆𝑇 𝒚,

para 𝒙 = (𝑥1 , 𝑥2 ) e 𝒚 = (𝑦1 , 𝑦2 ).


Como

𝑇 ((𝑥1 , 𝑥2 ) + 𝜆(𝑦1 , 𝑦2 )) = 𝑇 (𝑥1 + 𝜆𝑦1 , 𝑥2 + 𝜆𝑦2 )


= (𝑥2 + 𝜆𝑦2 , 𝑥1 + 𝜆𝑦1 + 𝑥2 + 𝜆𝑦2 )
= (𝑥2 , 𝑥1 + 𝑥2 ) + 𝜆(𝑦2 , 𝑦1 + 𝑦2 ) = 𝑇 𝒙 + 𝜆𝒚,

nossa afirmação está provada e 𝑇 é um operador linear. ⊲

Exercício 4.1 Sejam 𝑋, 𝑌 espaços vetoriais e 𝑇 ∶ 𝑋 → 𝑌 uma aplicação linear qualquer. Mostre
que 𝑇 (0) = 0.
Definimos agora dois subespaços fundamentais associados a uma apli-
cação linear. (Dada uma matriz 𝐴, 𝑚 × 𝑛, já havíamos definido ker 𝐴.)

Definição 4.6 Seja 𝑇 ∶ 𝑋 → 𝑌 uma aplicação linear. Definimos a imagem


de 𝑇, denotada por im 𝑇, por

im 𝑇 = {𝒚 ∈ 𝑌 ∶ 𝒚 = 𝑇 𝒙}.

Definimos o núcleo de 𝑇, denotado por ker 𝑇, por

ker 𝑇 = {𝒙 ∈ 𝑋 ∶ 𝑇 𝒙 = 0}.
86 CAPÍTULO 4. APLICAÇÕES LINEARES

O núcleo e a imagem de 𝑇 são subespaços vetoriais do domínio de 𝑇


(isto é, 𝑋) e do contradomínio de 𝑇 (isto é, 𝑌), respectivamente. De fato, se
𝒙1 , 𝒙2 ∈ ker 𝑇 e 𝛽 ∈ 𝕂, então 𝑇 (𝒙1 + 𝛽𝒙2 ) = 𝑇 𝒙1 + 𝛽𝑇 𝒙2 = 0 + 𝛽0 = 0,
provando que 𝒙1 + 𝛽𝒙2 ∈ ker 𝑇. Se 𝒚1 , 𝒚2 ∈ im 𝑇, então existem 𝒙1 , 𝒙2 ∈ 𝑋
tais que 𝒚1 = 𝑇 𝒙1 e 𝒚2 = 𝑇 𝒙2 . Logo, se 𝛽 ∈ 𝕂, 𝒚1 + 𝛽𝒚2 = 𝑇 𝒙1 +
𝛽𝑇 𝒙2 = 𝑇 (𝒙1 + 𝛽𝒙2 ), o que mostra que 𝒚1 + 𝛽𝒚2 ∈ im 𝑇. Observe que,
nas demonstrações anteriores, não utilizamos bases, seja no domínio, seja
no contradomínio.

Observação 4.7 O subespaço 𝑊, introduzido no Exemplo 2.19, é caracte-


rizado, no Exemplo 2.25, como a sendo a imagem da aplicação linear 𝐴,
definida em (2.12).

Lema 4.8 Sejam 𝑋, 𝑌 espaços vetoriais. Uma aplicação linear 𝑇 ∶ 𝑋 → 𝑌


é injetora se, e somente se, ker 𝑇 = {0}, ou seja, dim ker 𝑇 = 0.

Demonstração: Se existir 𝒙 ≠ 0 tal que 𝑇 𝒙 = 0, então 𝑇 não é injetora,


pois também temos 𝑇 (0) = 0. (Veja o Exercício 4.1.)
Suponhamos agora ker 𝑇 = {0} e que existam 𝒙1 , 𝒙2 tais que 𝑇 𝒙1 =
𝑇 𝒙2 . Daí decorre que 𝑇 𝒙1 − 𝑇 𝒙2 = 0, ou seja, 𝑇 (𝒙1 − 𝒙2 ) = 0. A última
igualdade garante que 𝒙1 −𝒙2 ∈ ker 𝑇. Como ker 𝑇 = {0}, temos 𝒙1 −𝒙2 =
0 e, portanto, 𝒙1 = 𝒙2 . Isso mostra que 𝑇 é injetora. 

Exemplo 4.9 Considere a aplicação 𝑆 ∶ ℝ2 → ℝ3 dada por

𝑆(𝑥1 , 𝑥2 ) = (𝑥1 , 𝑥2 , 𝑥1 + 𝑥2 ).

Quer dizer, se 𝒙 = (𝑥1 , 𝑥2 ), então 𝑆𝒙 = (𝑥1 , 𝑥2 , 𝑥1 + 𝑥2 ), que é um vetor


𝒘 ∈ ℝ3 .
É fácil verificar que 𝑆 é uma aplicação linear:

𝑆 ((𝑥1 , 𝑥2 ) + 𝜆(𝑦1 , 𝑦2 )) = 𝑆(𝑥1 + 𝜆𝑦1 , 𝑥2 + 𝜆𝑦2 )


= (𝑥1 + 𝜆𝑦1 , 𝑥2 + 𝜆𝑦2 , 𝑥1 + 𝜆𝑦1 + 𝑥2 + 𝜆𝑦2 )
= (𝑥1 , 𝑥2 , 𝑥1 + 𝑥2 ) + 𝜆(𝑦1 , 𝑦2 , 𝑦1 + 𝑦2 )
= 𝑆(𝑥1 , 𝑥2 ) + 𝜆𝑆(𝑦1 , 𝑦2 ).

Além disso, 𝑆 é injetora: 𝑆(𝑥1 , 𝑥2 ) = 0 quer dizer

(𝑥1 , 𝑥2 , 𝑥1 + 𝑥2 ) = (0, 0, 0),

igualdade que implica (𝑥1 , 𝑥2 ) = 0 ∈ ℝ2 , ou seja, ker 𝑆 = {0}. Mas 𝑆 não


é sobrejetora, pois não existe 𝒙 = (𝑥1 , 𝑥2 ) ∈ ℝ2 tal que 𝑆𝒙 = (1, 1, 0). ⊲

Tal qual feita no exemplo anterior, a verificação de que uma aplicação


linear 𝑇 não é sobrejetora parece difícil: como encontrar pontos que não per-
tencem à imagem de 𝑇? Para verificar que uma aplicação linear 𝑇 ∶ 𝑋 → 𝑌 é
sobrejetora, se dim 𝑌 < ∞, temos que verificar que dim im 𝑇 = dim 𝑌 (pois
isso implica que im 𝑇 = 𝑌). Mas podemos simplificar esse procedimento
aplicando o Teorema do Núcleo e da Imagem.
4.1. TEOREMA DO NÚCLEO E DA IMAGEM 87

Teorema 4.10 (do Núcleo e da Imagem)


Sejam 𝑋, 𝑌 espaços vetoriais, com dim 𝑋 = 𝑛 e dim 𝑌 = 𝑚. Então,
para toda aplicação linear 𝑇 ∶ 𝑋 → 𝑌 vale

dim 𝑋 = dim ker 𝑇 + dim im 𝑇 .

Demonstração: Se ker 𝑇 ≠ {0}, seja {𝒙1 , … , 𝒙𝑗 } uma base de ker 𝑇.


Como esse é um conjunto linearmente independente no espaço 𝑋, pode-
mos aplicar o Teorema 2.49 e obter uma base

ℬ = {𝒙1 , … , 𝒙𝑗 , 𝒘𝑗+1 , … , 𝒘𝑛 }

do espaço 𝑋. (Se ker 𝑇 = {0}, simplesmente tomamos uma base de 𝑋.)


Afirmamos que {𝑇 𝒘𝑗+1 , … , 𝑇 𝒘𝑛 } é uma base de im 𝑇 ⊂ 𝑌. De fato,
suponhamos que

𝛼𝑗+1 𝑇 𝒘𝑗+1 + … + 𝛼𝑛 𝑇 𝒘𝑛 = 0.

Daí decorre que 𝑇 (𝛼𝑗+1 𝒘𝑗+1 + … + 𝛼𝑛 𝒘𝑛 ) = 0; definindo

𝒘 = 𝛼𝑗+1 𝒘𝑗+1 + … + 𝛼𝑛 𝒘𝑛 ,

concluímos que 𝒘 ∈ ker 𝑇. Como {𝒙1 , … , 𝒙𝑗 } é uma base de ker 𝑇, temos


que
𝒘 = 𝛽 1 𝒙1 + … + 𝛽 𝑗 𝒙𝑗 .
Ou seja,
𝛽1 𝒙1 + … + 𝛽𝑗 𝒙𝑗 − 𝛼𝑗+1 𝒘𝑗 − … − 𝛼𝑛 𝒘𝑛 = 0.
Como ℬ é uma base do ℝ𝑛 , concluímos que 𝛽1 = … = 𝛽𝑗 = −𝛼𝑗+1 =
… = −𝛼𝑛 = 0. Isso mostra que os vetores 𝑇 𝒘𝑗+1 , … , 𝑇 𝒘𝑛 são linearmente
independentes.
Seja agora 𝒚 ∈ im 𝑇. Então existe 𝒙 ∈ 𝑋 tal que 𝑇 𝒙 = 𝒚. Como ℬ é
base de 𝑋, 𝒙 = 𝛼1 𝒙1 + … + 𝛼𝑗 𝒙𝑗 + 𝛼𝑗+1 𝒘𝑗+1 + … + 𝛼𝑛 𝒘𝑛 e, portanto,

𝒚 = 𝑇 𝒙 = 𝛼1 𝑇 𝒙1 + … + 𝛼𝑗 𝑇 𝒙𝑗 + 𝛼𝑗+1 𝑇 𝒘𝑗+1 + … + 𝛼𝑛 𝑇 𝒘𝑛
= 𝛼𝑗+1 𝑇 𝒘𝑗+1 + … + 𝛼𝑛 𝑇 𝒘𝑛 ,

pois 𝑇 𝒙𝑖 = 0, 𝑖 ∈ {1, … , 𝑗}. Isso mostra que {𝑇 𝒘𝑗+1 , … , 𝑇 𝒘𝑛 } gera im 𝑇


e conclui a prova. 

Observação 4.11 Observe que a escolha da base ℬ foi um passo funda-


mental na demonstração do Teorema do Núcleo e da Imagem. Se tivésse-
mos partido de uma base qualquer (como, por exemplo, a base canônica do
ℝ𝑛 ), a demonstração seria muito mais difícil. ⊲

Para espaços de dimensão finita 𝑋 e 𝑌, vamos mostrar que, se dim 𝑋 ≠


dim 𝑌, então 𝑇 ∶ 𝑋 → 𝑌 não é um isomorfismo.

Corolário 4.12 Se dim 𝑌 > dim 𝑋, então a aplicação linear 𝑇 ∶ 𝑋 → 𝑌


não é sobrejetora.
88 CAPÍTULO 4. APLICAÇÕES LINEARES

Demonstração: Pelo Teorema do Núcleo e da Imagem, temos que

dim im 𝑇 = dim 𝑋 − dim ker 𝑇 ≤ dim 𝑋.

Assim, dim im 𝑇 < dim 𝑌. 

Comparando com o Exemplo 4.9, vemos que poderíamos dizer imedia-


tamente que 𝑆 não é sobrejetora!

Corolário 4.13 Se dim 𝑌 < dim 𝑋, então a aplicação linear 𝑇 ∶ 𝑋 → 𝑌


não é injetora.

Demonstração: Pelo Teorema do Núcleo e da Imagem, temos

dim 𝑋 = dim ker 𝑇 + dim im 𝑇 ≤ dim ker 𝑇 + dim 𝑌 .

Como dim 𝑌 < dim 𝑋, temos dim ker 𝑇 ≥ 1. 

Sintetizando os resultados anteriores, se 𝑋 e 𝑌 são espaços de dimensão


finita, aplicações lineares 𝑇 ∶ 𝑋 → 𝑌 podem ser isomorfismos apenas se
dim 𝑋 = dim 𝑌. Claro, essa condição não é suficiente; existem operadores
lineares que não são isomorfismos. Mas, sendo 𝑋 um espaço de dimensão
finita, é simples verificar se um operador linear 𝑇 ∶ 𝑋 → 𝑋 é um isomor-
fismo:

Corolário 4.14 Seja 𝑋, 𝑌 espaços de dimensão finita, com dim 𝑋 = dim 𝑌.


Uma aplicação linear 𝑇 ∶ 𝑋 → 𝑌 é injetora se, e somente se, for sobrejetora.
Em outras palavras, 𝑇 ∶ 𝑋 → 𝑌 é um isomorfismo se, e somente se, ker 𝑇 =
{0}.

Demonstração: De fato, se tivermos ker 𝑇 = {0}, então

dim im 𝑇 = dim 𝑋 − dim ker 𝑇 = dim 𝑋.

Como a dimensão da imagem de 𝑇 é igual a dimensão do contradomínio de


𝑇, temos que 𝑇 é sobrejetora. Da mesma forma, se 𝑇 for sobrejetora, então
dim im 𝑇 = dim 𝑋 e daí deduzimos, como antes, dim ker 𝑇 = 0. 

Assim, se 𝑋 tiver dimensão finita, para que 𝑇 ∶ 𝑋 → 𝑋 seja um isomor-


fismo, basta verificar que ker 𝑇 = {0}. Considerando uma função qualquer
𝑓 ∶ ℝ → ℝ e comparando com esse resultado, temos uma ideia de quão
especiais são as aplicações lineares !

Exercício 4.2 Se dim 𝑋 < ∞, dê um exemplo de um operador linear 𝑇 ∶ 𝑋 → 𝑋 que não é um


isomorfismo.
Exercício 4.3 Mostre que a aplicação identidade I ∶ ℝ𝑛 → ℝ𝑛 , definida no Exemplo 4.2, é um
isomorfismo.
4.2. APLICAÇÕES LINEARES E MATRIZES 89

Exemplo 4.15 No Corolário 4.14, a hipótese dos espaços envolvidos terem


a mesma dimensão finita é essencial.
Consideremos o espaço 𝒫 (𝑡) de todos os polinômios com coeficientes
no corpo 𝕂. Dado o polinômio 𝒑(𝑡) = 𝑎0 + 𝑎1 𝑡 + … + 𝑎𝑠−1 𝑡𝑠−1 + 𝑎𝑠 𝑡𝑠 , defina
𝑅 ∶ 𝒫 (𝑡) → 𝒫 (𝑡) por

𝑅𝒑(𝑡) = 𝑎0 𝑡 + 𝑎1 𝑡2 + … + 𝑎𝑠−1 𝑡𝑠 + 𝑎𝑠 𝑡𝑠+1 .

A linearidade de 𝑅 é clara. Além disso, é fácil verificar que 𝑅𝒑(𝑡) = 0


implica 𝒑(𝑡) = 0. Assim, 𝑅 é injetora. Contudo, não existe 𝒑(𝑡) ∈ 𝒫 (𝑡) tal
que 𝑇 𝒑(𝑡) = 1 ∈ 𝒫 (𝑡), mostrando que 𝑇 não é sobrejetora. ⊲

Exercício 4.4 Traduza o Exemplo 4.15 para o espaço 𝕂∞ , lembrando que os espaços 𝒫 (𝑡) e 𝕂∞
são isomorfos. (Veja o Exercício 2.5.)

4.2 Aplicações Lineares e Matrizes


Em várias oportunidades verificamos que a identificação

⎛𝑥1 ⎞
(𝑥1 , … , 𝑥𝑛 ) ∈ 𝕂 𝑛
⟷ ⎜ ⋮ ⎟ ∈ 𝕄1×𝑛 (4.2)
⎜ ⎟
⎝ 𝑥𝑛 ⎠
é útil no tratamento de vetores. Sem pressupor a escolha de bases, ela iden-
tifica um vetor do 𝕂𝑛 com uma matriz em 𝕄𝑛×1 (𝕂). Se a utilizarmos tanto
no espaço 𝕂𝑛 quanto no espaço 𝕂𝑚 , ela nos permite interpretar uma matriz
𝐴 = (𝑎𝑖𝑗 ), 𝑚 × 𝑛, como uma aplicação linear 𝐴 ∶ 𝕂𝑛 → 𝕂𝑚 . De fato, dado
𝒙 = (𝑥1 , … , 𝑥𝑛 ) ∈ 𝕂𝑛 e utilizando a identificação (4.2), temos

⎛ 𝑎11 𝑎12 … 𝑎1𝑛 ⎞ ⎛𝑥1 ⎞ ⎛ 𝑎11 𝑥1 + 𝑎12 𝑥2 + … + 𝑎1𝑛 𝑥𝑛 ⎞


⎜ 𝑎21 𝑎22 … 𝑎2𝑛 ⎟ ⎜𝑥2 ⎟ ⎜ 𝑎 𝑥 + 𝑎22 𝑥2 + … + 𝑎2𝑛 𝑥𝑛 ⎟
⎜ ⋮ = ⎜ 21 1
⋮ ⋱ ⋮ ⎟⎜ ⋮ ⎟ ⋮ ⎟
⎜ ⎟⎜ ⎟ ⎜ ⎟
⎝𝑎𝑚1 𝑎𝑚2 … 𝑎𝑚𝑛 ⎠ ⎝𝑥𝑛 ⎠ ⎝𝑎𝑚1 𝑥1 + 𝑎𝑚2 𝑥2 + … + 𝑎𝑚𝑛 𝑥𝑛 ⎠
= 𝐴𝒙 ∈ 𝕄𝑚×1 . (4.3)

Identificando 𝕄𝑚×1 com o 𝕂𝑚 (identificação idêntica àquela feita em (4.2)),


vemos que a matriz 𝐴 = (𝑎𝑖𝑗 ) associa, a cada vetor 𝒙 ∈ 𝕂𝑛 ≃ 𝕄1×𝑛 , um
vetor 𝐴𝒙 ∈ 𝕂𝑚 ≃ 𝕄𝑚×1 . Para mostrar que essa função é linear (e, por-
tanto, uma aplicação linear) basta aplicar propriedades básicas de matrizes,
mostradas no Teorema 1.7 e Proposição 1.12:

𝐴(𝒙 + 𝜆𝒚) = 𝐴𝒙 + 𝜆𝐴𝒚.

Note também que, se tomarmos o vetor 𝒆𝒋 da base canônica do 𝕂𝑛 es-


crito como uma matriz coluna, obtemos justamente a coluna 𝑗 da matriz 𝐴.
Por exemplo,

⎛ 𝑎11 𝑎12 … 𝑎1𝑛 ⎞ ⎛1⎞ ⎛ 𝑎11 ⎞


⎜𝑎 𝑎22 … 𝑎2𝑛 ⎟ ⎜0⎟ ⎜ 𝑎21 ⎟
𝐴𝒆1 = ⎜ 21 = .
⋮ ⋮ ⋱ ⋮ ⎟ ⎜⋮⎟ ⎜ ⋮ ⎟
⎜ ⎟⎜ ⎟ ⎜ ⎟
𝑎 𝑎
⎝ 𝑚1 𝑚2 … 𝑎𝑚𝑛 ⎠ ⎝0⎠ ⎝𝑎𝑚1 ⎠
90 CAPÍTULO 4. APLICAÇÕES LINEARES

Uma das consequência da interpretação de uma matriz como definindo


uma aplicação linear diz respeito ao sistema linear 𝐴𝒙 = 𝒃. Se 𝐴 for uma
matriz 𝑚 × 𝑛, esse sistema pode ser entendido como a procura de pontos
𝒙 ∈ 𝕂𝑛 que são levados pela aplicação linear 𝐴 no ponto 𝒃 ∈ 𝕂𝑚 . Ou, dito
de outra forma, as soluções do sistema são as pré-imagens 𝒙 ∈ 𝕂𝑛 do ponto
𝒃 ∈ 𝕂𝑚 pela aplicação linear 𝐴.

Exercício 4.5 Considere a matriz


2 1 7 5
𝐴= .
(1 1 1 1)

Quais são o domínio e o contradomínio da aplicação linear definida por 𝐴? Calcule 𝐴𝒙, se
𝒙 = (1, 1, 1, 1). Calcule também 𝐴𝒆𝑖 , em que os vetores 𝒆𝑖 compõem a base canônica do domínio
de 𝐴 (veja o Exemplo 2.35).
Exercício 4.6 Sejam 𝑋, 𝑌 espaços vetoriais e ℬ = {𝒖1 , … , 𝒖𝑛 } uma base de 𝑋. Mostre que existe
uma única aplicação linear 𝑇 ∶ 𝑋 → 𝑌 tal que 𝑇 𝒖𝑖 = 𝒘𝑖 , quaisquer que sejam os vetores 𝒘𝑖 em 𝑌.

Exemplo 4.16 Consideremos a aplicação 𝑇 ∶ 𝕂𝑛 → 𝕂𝑚 definida, para 𝒙 =


(𝑥1 , … , 𝑥𝑛 ), por

𝑇 𝒙 = 𝑇 (𝑥1 , … , 𝑥𝑛 ) = (𝑎11 𝑥1 + … + 𝑎1𝑛 𝑥𝑛 , … , 𝑎𝑚1 𝑥1 + … + 𝑎𝑚𝑛 𝑥𝑛 ),

em que os escalares 𝑎𝑖𝑗 , 𝑖 ∈ {1, … , 𝑚} e 𝑗 ∈ {1, … , 𝑛} são arbitrários. Um


caso particular desse é a aplicação 𝑇 ∶ 𝕂3 → 𝕂2 dada por

𝑇 (𝑥1 , 𝑥2 , 𝑥3 ) = (3𝑥1 + 2𝑥2 , 𝑥1 + 𝑥2 + 2𝑥3 ).

Afirmamos que, no caso geral, 𝑇 é uma aplicação linear. De fato, basta


notar que, em cada uma das coordenadas de 𝑇 𝒙, temos

𝑎𝑖1 (𝑥1 + 𝜆𝑦1 ) + … + 𝑎𝑖𝑛 (𝑥𝑛 + 𝜆𝑦𝑛 ) = (𝑎𝑖1 𝑥1 + … + 𝑎𝑖𝑛 𝑥𝑛 ) + … +


𝜆(𝑎𝑖1 𝑦1 + … + 𝑎𝑖𝑛 𝑦𝑛 ).

Dessa igualdade, válida para todo 𝑖 ∈ {1, … , 𝑚}, deduzimos que 𝑇 é


linear. (Justifique!) ⊲

Exercício 4.7 Considere 𝑇 ∶ 𝕂2 → 𝕂3 definida por

𝑇 𝒙 = 𝑇 (𝑥1 , 𝑥2 ) = (3𝑥1 + 𝑥2 , 𝑥1 + 𝑥2 , 𝑥2 ).

Verifique que 𝑇 é uma aplicação linear.

Se compararmos a definição de 𝑇 𝒙 no Exemplo 4.16 com a expressão


de 𝐴𝒙 na igualdade (4.3), não podemos deixar de perceber a semelhança:
cada uma das coordenadas de 𝑇 𝒙 coincide com as coordenadas de 𝐴𝒙, com
uma única diferença: em 𝑇 𝒙 essas coordenadas são escritas como um vetor
do 𝕂𝑚 , enquanto que em 𝐴𝒙 são representadas como uma matriz coluna.
Vamos entender o porquê dessa semelhança.
Dada uma aplicação linear 𝑇 ∶ 𝑋 → 𝑌 entre os espaços de dimensão fi-
nita 𝑋 e 𝑌, e escolhendo bases ℬ = {𝒖1 , … , 𝒖𝑛 } ⊂ 𝑋 e 𝒞 = {𝒗1 , … , 𝒗𝑚 } ⊂
𝒞
𝑌, podemos representar 𝑇 por uma (única) matriz, que denotaremos 𝑇ℬ .
4.2. APLICAÇÕES LINEARES E MATRIZES 91

De fato, como 𝒞 é uma base do espaço 𝑌, para cada vetor 𝒖𝑖 existem


únicos escalares 𝛽𝑗𝑖 ∈ 𝕂, com 𝑗 ∈ {1, … , 𝑚}, tais que

⎛ 𝛽1𝑖 ⎞
⎜𝛽 ⎟
𝑇 𝒖𝑖 = 𝛽1𝑖 𝒗1 + … + 𝛽𝑗𝑖 𝒗𝑗 + … + 𝛽𝑚𝑖 𝒗𝑚 ⇒ [𝑇 𝒖𝑖 ]𝒞 = ⎜ 2𝑖 ⎟ . (4.4)

⎜ ⎟
⎝𝛽𝑚𝑖 ⎠
Por sua vez, dado um vetor qualquer 𝑥 ∈ 𝑋, podemos representá-lo na base
ℬ de maneira única:

⎛𝛼1 ⎞
⎜𝛼 ⎟
𝑥 = 𝛼1 𝒖1 + … + 𝛼𝑛 𝒖𝑛 ⇒ [𝒙]ℬ = ⎜ 2⎟ . (4.5)

⎜ ⎟
⎝ 𝛼𝑛 ⎠
A linearidade de 𝑇 nos garante que

𝑇 𝒙 = 𝑇 (𝛼1 𝒖1 + … + 𝛼𝑛 𝒖𝑛 ) = 𝛼1 𝑇 𝒖1 + … + 𝛼𝑛 𝑇 𝒖𝑛
= 𝛼1 (𝛽11 𝒗1 + … + 𝛽𝑚1 𝒗𝑚 ) + … + 𝛼𝑛 (𝛽1𝑛 𝒗1 + … + 𝛽𝑚𝑛 𝒗𝑚 )
= (𝛽11 𝛼1 + … + 𝛽1𝑛 𝛼𝑛 )𝒗1 + … + (𝛽𝑚1 𝛼1 + … + 𝛽𝑚𝑛 𝛼𝑛 )𝒗𝑚 .

Isso mostra que

⎛ 𝛽11 𝛼1 + … + 𝛽1𝑛 𝛼𝑛 ⎞
⎜ ⋮ ⎟
[𝑇 𝒙]𝒞 = ⎜ 𝛽𝑖1 𝛼1 + … + 𝛽𝑖𝑛 𝛼𝑛 ⎟
⎜ ⎟
⎜ ⋮ ⎟
⎝𝛽𝑚1 𝛼1 + … + 𝛽𝑚𝑛 𝛼𝑛 ⎠
⎛ 𝛽11 𝛽12 ⋯ 𝛽1𝑛 ⎞ ⎛𝛼1 ⎞
⎜ ⋮ ⎟⎜⋮⎟
= ⎜ 𝛽𝑖1 𝛽𝑖2 ⋯ 𝛽𝑖𝑛 ⎟ ⎜ 𝛼𝑖 ⎟
⎜ ⎟⎜ ⎟
⎜ ⋮ ⋮ ⋱ ⋮ ⎟⎜⋮⎟
⎝𝛽𝑚1 𝛽𝑚2 … 𝛽𝑚𝑛 ⎠ ⎝𝛼𝑛 ⎠
𝒞
= 𝑇ℬ [𝒙]ℬ , (4.6)
𝒞
em que a última igualdade define a matriz 𝑇ℬ .
𝒞
Note que, de acordo com a equação (4.4), as colunas da matriz 𝑇ℬ são
as representações dos vetores 𝑇 𝒖𝑖 na base 𝒞. Uma vez que os escalares 𝛼𝑗
𝒞
e 𝛽𝑖𝑗 (𝑖 ∈ {1, … , 𝑚}, 𝑗 ∈ {1, … , 𝑛}) são únicos, a matriz 𝑇ℬ é única. Por
outro lado, dada uma matriz 𝐴 ∈ 𝕄𝑚×𝑛 , o Exercício 4.6 e a Proposição
2.55 garantem a existência de uma única aplicação linear 𝑇 ∶ 𝑋 → 𝑌 tal que
[𝑇 𝒙]𝒞 = 𝐴[𝒙]ℬ , substituindo 𝑇ℬ𝒞 por 𝐴 na igualdade (4.7).
Demonstramos assim o
Teorema 4.17 Fixadas bases

ℬ = {𝒖1 , … , 𝒖𝑛 } ⊂ 𝑋 e 𝒞 = {𝒗1 , … , 𝒗𝑚 } ⊂ 𝑌 ,

uma aplicação linear 𝑇 ∶ 𝑋 → 𝑌 pode ser representada por uma única


matriz 𝑚 × 𝑛, definida por
𝒞
𝑇ℬ = ([𝑇 𝒖1 ]𝒞 [𝑇 𝒖2 ]𝒞 ⋯ [𝑇 𝒖𝑛 ]𝒞 ),
92 CAPÍTULO 4. APLICAÇÕES LINEARES

𝒞
em que [𝑇 𝒖𝑗 ]𝒞 é uma matriz coluna, com 𝑇ℬ satisfazendo
𝒞
[𝑇 𝒙]𝒞 = 𝑇ℬ [𝒙]ℬ . (4.7)

Reciprocamente, a cada matriz 𝐴 ∈ 𝕄𝑚×𝑛 corresponde uma única aplica-


𝒞
ção linear 𝑇 ∶ 𝑋 → 𝑌 tal que 𝑇ℬ = 𝐴.

No caso de operadores lineares 𝑇 ∶ 𝑋 → 𝑋, a mesma base ℬ do espaço


𝑋 pode ser escolhida tanto no domínio quanto no contradomínio. Nesse

caso, denotamos 𝑇ℬ ao invés de 𝑇ℬ .

Exercício 4.8 Sejam ℬ = {𝒗1 , 𝒗2 , 𝒗2 } e 𝒞 = {𝒘1 , 𝒘2 } bases dos espaços 𝑋 e 𝑌, respectivamente.


Seja 𝑇 ∶ 𝑋 → 𝑌 a aplicação linear (Exercício 4.6) que satisfaz

𝑇 𝒗1 = 3𝒘1 − 5𝒘2 , 𝑇 𝒗1 = −𝒘1 + 6𝒘2 e 𝑇 𝒗3 = 4𝒘2 .


𝒞
Determine a matriz 𝑇ℬ .
Exercício 4.9 Verifique que a Proposição 2.55 garante a existência de uma aplicação linear bijetora
(e, portanto, um isomorfismo) entre o subespaço 𝑊 e 𝕂𝑗 .
Exercício 4.10 Como o Exercício 4.6 e a Proposição 2.55 estão sendo utilizados para demonstrar
que cada matriz 𝐴 ∈ 𝕄𝑚×𝑛 define uma única aplicação linear 𝑇 ∶ 𝕂𝑛 → 𝕂𝑚 ? Apresente os detalhes
dessa demonstração.

Exemplo 4.18 Considere a aplicação linear 𝑇 ∶ 𝒫3 (𝑡) → 𝒫3 (𝑡) definida por

𝑇 𝒑 = 𝒑 − 𝒑′ , 𝑓

em que 𝒑′ denota a derivada do polinômio 𝒑. Em outras palavras, se 𝒑 =


𝑎0 + 𝑎1 𝑡 + 𝑎2 𝑡2 , então

𝑇 𝒑 = 𝑎0 + 𝑎1 𝑡 + 𝑎2 𝑡2 − (𝑎1 + 2𝑎2 𝑡) = (𝑎0 − 𝑎1 ) + (𝑎1 − 2𝑎2 )𝑡 + 𝑎2 𝑡2 .

Nesse espaço vamos considerar a base ℬ = {1, 𝑡, 𝑡2 } (no domínio e na


imagem) e verificar a igualdade (4.7).
Como 𝑇 (1) = 1, temos [𝑇 (1)]ℬ = [1]ℬ = (1 0 0)𝒕 . Da mesma
forma, 𝑇 (𝑡) = 𝑡 − 1, de modo que [𝑇 (𝑡)]ℬ = (−1 1 0)𝒕 , enquanto
[𝑇 (𝑡2 )]ℬ = [𝑡2 − 2𝑡]ℬ = (0 −2 1)𝒕 . Assim,

⎛1 −1 0⎞
𝑇ℬ = ⎜0 1 −2⎟ .
⎜ ⎟
⎝0 0 1⎠

Se 𝒑 ∈ 𝒫3 (𝑡) é o polinômio genérico 𝑎0 + 𝑎1 𝑡 + 𝑎2 𝑡2 , então [𝒑]ℬ =


𝒕 2
(𝑎0 𝑎1 𝑎2 ) , enquanto [𝑇 𝒑]ℬ = [(𝑎0 − 𝑎1 ) + (𝑎1 − 2𝑎2 )𝑡 + 𝑎2 𝑡 ]ℬ =
𝒕
((𝑎0 − 𝑎1 ) (𝑎1 − 2𝑎2 ) 𝑎2 )) . Uma vez que

⎛1 −1 0⎞ ⎛𝑎0 ⎞ ⎛ 𝑎0 − 𝑎1 ⎞
𝑇ℬ [𝒑]ℬ = ⎜0 1 −2⎟ ⎜𝑎1 ⎟ = ⎜𝑎1 − 2𝑎2 ⎟ = [𝑇 𝒑]ℬ ,
⎜ ⎟⎜ ⎟ ⎜ ⎟
⎝0 0 1⎠ ⎝𝑎2 ⎠ ⎝ 𝑎2 ⎠

a igualdade foi verificada. ⊲


4.2. APLICAÇÕES LINEARES E MATRIZES 93

Exercício 4.11 No Exemplo 4.18 considere as bases

ℬ = {1 + 𝑡 + 𝑡2 , 1 + 𝑡, 1} e 𝒞 = {1 + 𝑡2 , 𝑡 + 𝑡2 , 1 + 𝑡 + 𝑡2 },

consideradas no domínio e contradomínio do operador 𝑇, respectivamente. Verifique, nesse caso,


a igualdade (4.7).

Exemplo 4.19 Considere a aplicação linear 𝑇 ∶ 𝕂2 → 𝕂2 definida por

𝑇 (𝑥, 𝑦) = (4𝑥 − 2𝑦, 2𝑥 + 𝑦).

Seja ℬ a base do 𝕂2 formada pelos vetores 𝒖1 = (1, 1) e 𝒖2 = (−1, 0).


Vamos achar a matriz que representa 𝑇 com relação à base ℬ. (Quer dizer,

estamos procurando a matriz 𝑇ℬ = 𝑇ℬ .) Para isso, calculamos

𝑇 𝒖1 = (2, 3) = 3(1, 1) + (−1, 0) = 3𝒖1 + 𝒖2 .

Note que escrevemos a imagem de 𝑇 (𝒖1 ) na base ℬ, utilizada também no


contradomínio. De acordo com a notação introduzida na Definição 2.53,
temos (veja o Exemplo 2.56)

3
[𝑇 (𝒖1 )]ℬ = .
(1)

Da mesma forma, 𝑇 (𝒖2 ) = (−4, −2) = −2(1, 1) + 2(−1, 0) = −2𝒖1 + 2𝒖2 e,


portanto,
−2
[𝑇 (𝒖2 )]ℬ = .
( 2)
Assim,
3 −2
𝑇ℬ = ([𝑇 𝒖1 ]ℬ [𝑇 𝒖2 ]ℬ ) = .
(1 2)
As colunas de 𝑇ℬ são as imagens dos vetores da base ℬ, escritas na própria
base ℬ utilizada, nesse caso, também no contradomínio.
Se quisermos calcular a imagem do vetor (1, 2) = 1𝒆1 + 2𝒆2 ∈ 𝕂2
utilizando a matriz 𝑇ℬ , primeiro expressamos esse vetor na base ℬ (veja o
Exemplo 2.56):

(1, 2) = 2(1, 1) + 1(−1, 0) = 2𝒖1 + 𝒖2 .

Calculando
2 3 −2 2 4
𝑇ℬ = = ,
(1) (1 2 ) (1) (4)
obtemos a “resposta” na base ℬ. Se quisermos a resposta na base canônica,
precisamos escrever o resultado obtido nessa base:

4𝒖1 + 4𝒖2 = 4(1, 1) + 4(−1, 0) = (0, 4) = 0𝒆1 + 4𝒆2 ,

que é o mesmo resultado que obtemos ao calcular 𝑇 (1, 2) utilizando a ex-


pressão 𝑇 (𝑥, 𝑦) = (4𝑥 − 2𝑦, 2𝑥 + 𝑦). ⊲
94 CAPÍTULO 4. APLICAÇÕES LINEARES

Observação 4.20 Se 𝑋 for um espaço de dimensão finita, dada uma aplica-


ção linear 𝑇 ∶ 𝑋 → 𝑋, a escolha de bases ℬ (no domínio) e 𝒞 no contrado-
mínio pode fazer com que a representação matricial de 𝑇 assuma formas
bem gerais. Por exemplo, se 𝑇 for um isomorfismo, 𝑇ℬ𝒞 pode ser a matriz
identidade! (Veja o Exercício 14.) Assim, a representação de 𝑇 ∶ 𝑋 → 𝑌 em
bases completamente arbitrárias quase não nos passa informação relevante
sobre a aplicação 𝑇. Essa questão será tratada no Capítulo 5, no contexto
𝑋 = 𝑌. ⊲

Fixadas bases ℬ = {𝒖1 , … , 𝒖𝑛 } do espaço 𝑋 e 𝒞 = {𝒗1 , … , 𝒗𝑚 } do


espaço 𝑌, o Teorema 4.17 estabelece uma bijeção entre o conjunto das apli-
cações lineares 𝑇 ∶ 𝑋 → 𝑌 e o conjunto 𝕄𝑚×𝑛 . Vamos formalizar esse
resultado, mostrando que essa bijeção é um isomorfismo.

Definição 4.21 Denotamos por ℒ (𝑋, 𝑌 ) o espaço vetorial de todas as apli-


cações lineares definidas em 𝑋 e tomando valores em 𝑌

ℒ (𝑋, 𝑌 ) = {𝑇 ∶ 𝑋 → 𝑌 ∶ 𝑇 é linear},

munido das operações:

(𝑆 + 𝑇 )(𝒙) = 𝑆𝒙 + 𝑇 𝒙 e (𝛼𝑇 )(𝒙) = 𝛼𝑇 𝒙.

Exercício 4.12 Mostre que ℒ (𝑋, 𝑌 ) é um espaço vetorial com essas operações. (Note que não
precisamos que 𝑋 e 𝑌 tenham dimensões finitas.)

Observação 4.22 Para sermos coerentes com a nossa convenção inicial so-
bre a notação de vetores, aplicações lineares 𝑆, 𝑇 ∈ ℒ (𝑋, 𝑌 ) deveriam
ser escritas em negrito. Contudo, manteremos a notação que estamos utili-
zando. (A mesma observação é válida sobre a notação de matrizes.) ⊲

Teorema 4.23 Sejam 𝑋 e 𝑌 espaços vetoriais de dimensão finita. Escolhi-


das as bases

ℬ = {𝒖1 , … , 𝒖𝑛 } ⊂ 𝑋 e 𝒞 = {𝒗1 , … , 𝒗𝑚 } ⊂ 𝑌 ,

a aplicação Ψ ∶ ℒ (𝑋, 𝑌 ) → 𝕄𝑚×𝑛 , definida por


𝒞
Ψ(𝑇 ) = 𝑇ℬ

é um isomorfismo entre os espaços ℒ (𝑋, 𝑌 ) e 𝕄𝑚×𝑛 . Em particular,

dim ℒ (𝑋, 𝑌 ) = 𝑚𝑛.

Demonstração: Mostraremos que Ψ é linear. Para isso, consideremos a


aplicação linear 𝑇 + 𝛼𝑆 ∈ ℒ (𝑋, 𝑌 ). Queremos mostrar que

Ψ(𝑇 + 𝛼𝑆) = (𝑇 + 𝛼𝑆)𝒞



𝒞
= 𝑇ℬ 𝒞
+ 𝛼 𝑆ℬ = Ψ(𝑇 ) + 𝛼Ψ(𝑆).

De acordo com a Proposição 2.55, temos que

[(𝑇 + 𝛼𝑆 )𝒙]𝒞 = [𝑇 𝒙 + 𝛼𝑆𝒙]𝒞 = [𝑇 𝒙]𝒞 + 𝛼[𝑆𝒙]𝒞 .


4.2. APLICAÇÕES LINEARES E MATRIZES 95

Aplicando o Teorema 4.17 aos lados direito e esquerdo dessa última igual-
dade, obtemos
𝒞
(𝑇 + 𝛼𝑆 )ℬ [𝒙]ℬ = 𝑇ℬ𝒞 [𝒙]ℬ + 𝛼 𝑆ℬ
𝒞
[𝒙]ℬ = (𝑇ℬ𝒞 + 𝛼 𝑆ℬ
𝒞
) [𝒙]ℬ

para todo vetor 𝒙 ∈ 𝑋. Como as aplicações (𝑇 + 𝛼𝑆)𝒞 ℬ


𝒞
e 𝑇ℬ 𝒞
+ 𝛼 𝑆ℬ têm
a mesma imagem em cada ponto do espaço 𝑋, elas são iguais, o que prova
a linearidade de Ψ. Uma vez que o Teorema 4.17 garante que a associação
entre ℒ (𝑋, 𝑌 ) e 𝕄𝑚×𝑛 é uma bijeção, Ψ é um isomorfismo.
Uma vez que dim 𝕄𝑚×𝑛 = 𝑚𝑛 (veja o Exercício 2.32), a prova está
completa. 

Se dim 𝑋 = 𝑛 e dim 𝑌 = 𝑚, o significado do Teorema 4.23 é que,


fixadas as bases ℬ ⊂ 𝑋 e 𝒞 ⊂ 𝑌, a identificação entre aplicações lineares
𝒞
𝑇 ∶ 𝑋 → 𝑌 e matrizes 𝑇ℬ ∈ 𝕄𝑚×𝑛 ocorre de maneira linear: as operações
em ℒ (𝑋, 𝑌 ) correspondem àquelas de 𝕄𝑚×𝑛 .
Entretanto, dada uma aplicação linear 𝑇 ∶ 𝑋 → 𝑌 entre espaços de di-
mensão finita, a cada escolha de bases ℬ em 𝑋 e 𝒞 em 𝑌 está associada uma
𝒞
matriz 𝑇ℬ , cuja expressão depende das bases ℬ e 𝒞. Uma vez que podemos
escolher diferentes bases ℬ em 𝑋 e 𝒞 em 𝑌, vemos que existem muitas ma-
neiras distintas de representar uma transformação linear por meio de uma
matriz. Como se relacionam essas matrizes que representam a mesma apli-
cação linear 𝑇?
Para responder a essa pergunta, começamos apresentando um diagrama
que ilustra a representação de uma aplicação linear 𝑇 ∶ 𝑋 → 𝑌 entre espaços
de dimensão finita, escolhidas bases ℬ em 𝑋 e 𝒞 em 𝑌.
𝑇
𝑋 ⟶ 𝑌
𝐵 ↓ ↓ 𝐶 .
𝑛 𝑚
(𝕂 , ℬ) ⟶ (𝕂 , 𝒞 )
𝒞
𝑇ℬ
Na notação (𝕂𝑛 , ℬ) utilizada nesse diagrama, note que ℬ não é uma
base do 𝕂𝑛 e sim do espaço 𝑋; da mesma forma para (𝕂𝑚 , 𝒞 ). Na verdade,
em virtude do isomorfismo apresentado na Proposição 2.55, os espaços 𝕂𝑛 e
𝕂𝑚 estão sendo considerados sem qualquer base e a notação utilizada apenas
enfatiza as bases utilizadas nos espaços 𝑋 e 𝑌 para torná-los isomorfos a 𝕂𝑛
e 𝕂𝑚 , com esses isomorfismos sendo denotados pelas aplicações 𝐵 e 𝐶,
respectivamente.
Algumas vezes o diagrama anterior será simplificado, deixando implí-
citos o domínio 𝑋 e o contradomínio 𝑌 da aplicação linear 𝑇 ∶ 𝑋 → 𝑌, mas
mantendo o mesmo significado:

(𝕂𝑛 , ℬ) ⟶ (𝕂𝑚 , 𝒞 )
𝒞 .
𝑇ℬ

Para mostrar como se relacionam diferentes representação de 𝑇, co-


meçamos estudando como se relacionam as representações de 𝒙 em bases
ℬ = {𝒖1 , … , 𝒖𝑛 } e ℬ ′ = {𝒖′1 , … , 𝒖′𝑛 } do espaço 𝑋. Como o ponto 𝒙 não
varia, mas apenas as bases nas quais ele é representado, a aplicação linear
96 CAPÍTULO 4. APLICAÇÕES LINEARES

que estamos considerando é a identidade I ∶ 𝑋 → 𝑋, que pode ser repre-


ℬ′
sentada pela matriz 𝑃ℬ . (Para sermos coerentes com a notação anterior,
′ ′
deveríamos escrever Iℬ ℬ
ao invés de 𝑃ℬℬ
. Entretanto, é usual denotar esse
tipo de matriz por letras como 𝑃 ou 𝑄.)
I
𝑋 ⟶ 𝑋
𝐵 ↓ ↓ 𝐵′ .
𝑛 𝑛 ′
(𝕂 , ℬ) ⟶ (𝕂 , ℬ )
ℬ′
𝑃ℬ
ℬ ′
Pelo Teorema 4.17, a 𝑗-ésima coluna de 𝑃ℬ é dada por [I𝒗𝑖 ]ℬ ′ =
ℬ ′
[𝒗𝑖 ]ℬ ′ . A matriz 𝑃ℬ é chamada matriz de mudança2 (de coordenadas)
da base ℬ para a base ℬ ′ . Dadas as coordenadas de 𝒙 na base ℬ, isto é,
[𝒙]ℬ , as coordenadas de 𝒙 na base ℬ ′ são dadas por
ℬ ′
𝑃ℬ [𝒙]ℬ = [𝒙]ℬ ′ . (4.8)

ℬ ′ ℬ
Claramente a matriz 𝑃ℬ possui inversa 𝑃ℬ ′.

Exemplo 4.24 Suponha que ℬ = {𝒗1 , 𝒗2 } e ℬ ′ = {𝒘1 , 𝒘2 } sejam bases


do mesmo espaço vetorial 𝑋. Suponha que [𝒙]ℬ = (5 3)𝒕 , isto é, 𝒙 =
5𝒗1 + 3𝒗2 . Vamos encontrar as coordenadas de 𝒙 na base ℬ ′ , sabendo que

𝒗1 = 𝒘1 + 2𝒘2 e 𝒗1 = 2𝒘1 − 𝒘2 .

Para isso, vamos utilizar a igualdade (4.8). Temos que

[𝒙]ℬ ′ = [5𝒗1 + 3𝒗2 ]ℬ ′ = 5[𝒗1 ]ℬ ′ + 3[𝒗2 ]ℬ ′ ,

expressão que pode ser escrita matricialmente como

5
[𝒙]ℬ ′ = ([𝒗1 ]ℬ ′ [𝒗2 ]ℬ ′ ) ,
(3)

em que a matriz do lado direito da igualdade está escrita em termos de suas


colunas (assim como [𝒙]ℬ ′ é uma matriz coluna). Ou seja,

1 2 5 11
[𝒙]ℬ ′ = = ,
(2 −1) (3) ( 7 )

mostrando que as coordenadas de 𝒙 na base ℬ ′ são dadas por (11 7)𝒕 . ⊲

Exercício 4.13 Nas mesmas condições do Exemplo 4.24, considere o ponto 𝒙 cujas coordenadas
na base ℬ ′ são dadas por (11 7)𝒕 . Determine as coordenadas de 𝒙 na base ℬ, “esquecendo” que
essas coordenadas são (5 3)𝒕 .

Exercício 4.14 Continuando o Exemplo 4.19, calcule a matriz 𝑃ℬ . Verifique que (𝑃ℰℬ )−1 = 𝑃ℬ

.

Utilize então a matriz 𝑃ℬ para obter [𝑇 (1, 2)]ℰ e compare sua resposta com aquela obtida no
Exemplo 4.19.
2
Alguns autores preferem chamar essa matriz de “matriz de passagem” da base ℬ ′ para
a base ℬ. Assim, a terminologia utilizada por eles fica invertida com relação à nossa.
4.2. APLICAÇÕES LINEARES E MATRIZES 97

Exemplo 4.25 Consideremos as bases ℬ = {𝒖1 = (3, 1), 𝒖2 = (1, 3)} e


ℬ ′ = {𝒗1 = (1, −1), 𝒗2 = (1, 1)} do espaco ℝ2 . Queremos determinar a
ℬ′
matriz 𝑃ℬ .
Para obter essa matriz, precisamos encontrar [𝒖1 ]ℬ ′ e [𝒖2 ]ℬ ′ . Notamos
que, de maneira natural, os vetores 𝒖1 , 𝒖2 , 𝒗1 , 𝒗2 podem ser interpretados
como dados na base canônica do ℝ2 . Assim, na igualdade

𝑃ℬ ′ [𝒙]ℬ ′ = [𝒙]ℰ ,

conhecemos tanto os vetores 𝒙 = 𝒖1 = [𝒖1 ]ℰ = (1 2)𝒕 e 𝒙 = 𝒖2 =


[𝒖2 ]ℰ = (2 1)𝒕 , quanto a matriz

ℰ 1 1
𝑃ℬ ′ = ([𝒗1 ]ℰ [𝒗2 ]ℰ ) = .
(−1 1)

Assim, as soluções dos sistemas

1 1 𝑥1 3 1 1 𝑥1 1
= e =
(−1 1) (𝑥2 ) (1) (−1 1) (𝑥2 ) (3)

nos darão, respectivamente, [𝒖1 ]ℬ ′ e [𝒖2 ]ℬ ′ . Existem vários métodos para


resolver simultaneamente esses dois sistemas; aqui vamos escalonar o sis-
tema não homogêneo
1 1 | 𝑏1
( −1 1 | 𝑏2 )
e substituir 𝑏1 e 𝑏2 sucessivamente pelas coordenadas de 𝒖1 e 𝒖2 .
Temos

1 1 | 𝑏1 1 0 | (𝑏1 − 𝑏2 )/2
→ .
( −1 1 | 𝑏2 ) ( 0 1 | (𝑏1 + 𝑏2 )/2 )

Substituindo (𝑏1 𝑏2 )𝒕 = (3 1)𝒕 , encontramos [𝒖1 ]ℬ ′ = (1 2)𝒕 . Do


mesmo modo, [𝒖2 ]ℬ ′ = (−1 2)𝒕 . Portanto,

ℬ ′ 1 −1
𝑃ℬ = .
(2 2) ⊲

Passemos então à pergunta feita anteriormente, utilizando diagramas:


dada uma aplicação linear 𝑇 ∶ 𝑋 → 𝑌 entre espaços de dimensão finita,
𝒞 𝒞′
como se relacionam as matrizes 𝑇ℬ e 𝑇ℬ ′ ? Veja a Figura 4.1:
Esse diagrama nos mostra que

𝒞 ′ ′ ′ ′
𝑇ℬ = [𝑄𝒞
𝒞
𝒞
]−1 𝑇ℬ ℬ 𝒞 𝒞 ℬ
′ 𝑃ℬ = 𝑄 𝒞 ′ 𝑇ℬ ′ 𝑃ℬ .

O caso em que 𝑛 = 𝑚 permite que se tome a mesma base no domínio e


contradomínio. Nesse caso, a relação entre 𝑇ℬ e 𝑇ℬ ′ é dada por

ℬ −1 ℬ ℬ ℬ ′
𝑇ℬ ′ = [𝑃ℬ ′] 𝑇ℬ 𝑃ℬ ′ = 𝑃 ℬ 𝑇ℬ 𝑃ℬ ′ ,

para qualquer outra base ℬ ′ do 𝕂𝑛 .


98 CAPÍTULO 4. APLICAÇÕES LINEARES

𝐵 𝑇ℬ𝒞 𝐶
𝑋 ✲ (𝕂 , ℬ)𝑛 ✲ (𝕂𝑚 , 𝒞 ) ✛ 𝑌

■ ✒
𝐵❅ 𝐶

I 𝑃ℬℬ

𝑇 ✲ 𝑄𝒞

I
𝑋 𝑌 𝒞

𝐵′ ❅ 𝐶′
❄ ❄ ❅ ❄ ❄
′ ✠ ❘
❅ ′
𝐵✲ ✲ (𝕂𝑚 , 𝒞 ′ ) ✛𝐶
𝑋 (𝕂𝑛 , ℬ ′ ) ′ 𝑌
𝑇ℬ𝒞′

Figura 4.1: No diagrama, as aplicações 𝑇 ∶ 𝑋 → 𝑌, I ∶ 𝑋 → 𝑋 e I ∶ 𝑌 → 𝑌


independem de escolhas de bases no domínio e contradomínio. Escolhidas
as bases ℬ e ℬ ′ em 𝑋 e 𝒞 e 𝒞 ′ em 𝑌, as aplicações 𝐵, 𝐵 ′ , 𝐶 e 𝐶 ′ são os
isomorfismo dados pela Proposição 2.55, que dão origem às representações
′ ′ ′
matriciais 𝑇ℬ𝒞 , 𝑇ℬ𝒞′ , 𝑃ℬℬ e 𝑄𝒞
𝒞
. Essas últimas são as matrizes mudanças
de base no domínio e contradomínio, respectivamente. Os espaços 𝕂𝑛 e 𝕂𝑚
são considerados sem qualquer base.

Exemplo 4.26 (Continuação do Exemplo 4.19) Temos a aplicação linear


𝑇 ∶ ℝ2 → ℝ2 definida por

𝑇 (𝑥, 𝑦) = (4𝑥 − 2𝑦, 2𝑥 + 𝑦).

A representação de 𝑇 na base canônica é a matriz cujas colunas são

4 −2
𝑇 (1, 0) = e 𝑇 (0, 1) = ,
(2) ( 1)

ou seja
4 −2
𝑇ℰ = .
(2 1)
Por outro lado, no Exemplo 4.19 calculamos a matriz 𝑇ℬ :

3 −2
𝑇ℬ = .
(1 2)

Vamos entender a relação entre as matrizes 𝑇ℰ e 𝑇ℬ . Para isso, analisa-


mos o seguinte diagrama (comparando com a Figura 4.1, a aplicação linear
𝑇 está implícita)

𝑇ℰ
2
(ℝ , ℰ ) (ℝ2 , ℰ )

𝑃ℰℬ ↓ ↓ 𝑃ℰℬ .
(ℝ2 , ℬ) ⟶ (ℝ2 , ℬ)
𝑇ℬ

O diagrama anterior garante que

𝑇ℰ = [𝑃ℰℬ ]−1 𝑇ℬ 𝑃ℰℬ .


4.3. COMPOSIÇÃO E MULTIPLICAÇÃO 99

Vamos obter a matriz 𝑃ℰℬ , matriz mudança da base ℰ para a base ℬ.


Ela é dada pelo Teorema 4.17: escrevemos a imagem dos vetores 𝑒1 , 𝑒2 pela
aplicação identidade na base ℬ. Temos

(1, 0) = 0(1, 1) − 1(−1, 0) = 0𝒗1 − 𝒗2

e
(0, 1) = 1(1, 1) + 1(−1, 0) = 1𝒗1 + 1𝒗2 .
A matriz 𝑃ℰℬ é, então,
0 1
𝑃ℰℬ = .
(−1 1 )
No Exemplo 4.19, calculamos a imagem do vetor (1, 2) = 1𝑒1 + 2𝑒2 ∈
ℝ2 utilizando a matriz 𝑇ℬ . Para isso, tivemos inicialmente que expressar
esse vetor na base ℬ, isto é, tivemos que obter [(1, 2)]ℬ = 2𝒖1 + 1𝒖2 .
Utilizando a matriz 𝑃ℰℬ , basta multiplicar:

0 1 1 2
= ,
(−1 1 ) (2) (1)
que nos dá a mesma informação: [(1, 2)]ℬ = 2𝒖1 + 1𝒖2 .
Substituindo as matrizes calculadas na igualdade 𝑇ℰ = [𝑃ℰℬ ]−1 𝑇ℬ 𝑃ℰℬ ,
concluímos que

4 −2 0 1 −1 3 −2 0 1
= .
(2 1 ) (−1 1 ) (1 2 ) (−1 1 )

Se calcularmos a inversa da matriz 𝑃ℰℬ , verificaremos esse fato. En-



tretanto, é fácil obter 𝑃ℬ . Essa matriz tem como colunas a expressão dos
vetores 𝒗1 e 𝒗2 na base canônica. Assim, é claro que

ℰ 1 −1
𝑃ℬ = .
(1 0)

Verifique que 𝑃ℬ = [𝑃ℰℬ ]−1 e que 𝑇ℰ = 𝑃ℬℰ
𝑇ℬ 𝑃ℰℬ .
Note que a última igualdade é coerente: dado um vetor 𝒙 cuja repre-
sentação na base canônica é o vetor [𝒙]ℰ , podemos calcular diretamente
𝑇ℰ 𝒙 = 𝑇ℰ [𝒙]ℰ = [𝑇 𝒙]ℰ = 𝑇 𝒙, de acordo com a nossa convenção de de-
notar [𝒚]ℰ simplesmente por 𝒚. Por outro lado, calculando pelo lado direito
da igualdade, temos

𝑃ℬ 𝑇ℬ 𝑃ℰℬ 𝒙 = 𝑃ℬ

𝑇ℬ 𝑃ℰℬ [𝒙]ℰ = 𝑃ℬ
ℰ ℰ
𝑇ℬ [𝒙]ℬ = 𝑃ℬ [𝑇 𝒙]ℬ = [𝑇 𝒙]ℰ = 𝑇 𝒙,

o que produz o mesmo resultado. ⊲

4.3 Composição e Multiplicação


Lema 4.27 Sejam 𝑋, 𝑌 , 𝑍 espaços vetoriais. Se 𝑇 ∶ 𝑋 → 𝑌 e 𝑆 ∶ 𝑌 → 𝑍
são aplicações lineares, então a composta 𝑆 ∘ 𝑇

(𝑆 ∘ 𝑇 )𝒙 = 𝑆(𝑇 𝒙)

é uma aplicação linear. Assim, 𝑆 ∘ 𝑇 ∈ ℒ (𝑋, 𝑍).


100 CAPÍTULO 4. APLICAÇÕES LINEARES

Demonstração: (𝑆 ∘ 𝑇 )(𝒙 + 𝛽𝒚) = 𝑆(𝑇 (𝒙 + 𝛽𝒚)) = 𝑆(𝑇 𝒙 + 𝛽𝑇 𝒚) =


𝑆(𝑇 𝒙) + 𝛽𝑆(𝑇 𝒚) = (𝑆 ∘ 𝑇 )𝒙 + 𝛽(𝑆 ∘ 𝑇 )𝒚. 

As próximas propriedades são de fácil verificação:


(1) 𝑅 ∘ (𝑆 ∘ 𝑇 ) = (𝑅 ∘ 𝑆) ∘ 𝑇 , ∀ 𝑅 ∈ ℒ (𝑍, 𝑊 );
(2) (𝑃 + 𝑆) ∘ 𝑇 = 𝑃 ∘ 𝑇 + 𝑆 ∘ 𝑇 , ∀ 𝑃 ∈ ℒ (𝑌 , 𝑍);
(3) 𝑆 ∘ (𝑇 + 𝑄) = 𝑆 ∘ 𝑇 + 𝑆 ∘ 𝑄, ∀ 𝑄 ∈ ℒ (𝑋, 𝑌 ).
(As propriedades (1) e (2) independem das aplicações envolvidas serem li-
neares.)

Exercício 4.15 Mostre as propriedades (1),(2) e (3) da composição de aplicações lineares.

Se dim 𝑋 = 𝑛 e dim 𝑌 = 𝑚, as operações em ℒ (𝑋, 𝑌 ) foram interpre-


tadas em termos matriciais por meio do Teorema 4.23. Como a composta de
aplicações lineares é uma aplicação linear, também podemos representá-la
por uma matriz. É o que passaremos a tratar.
Usualmente, no caso de aplicações lineares, denotamos 𝑆 ∘ 𝑇 simples-
mente por 𝑆𝑇. Note que, em geral, 𝑆𝑇 ≠ 𝑇 𝑆 (na verdade, os dois la-
dos nem precisam estar simultaneamente definidos; mesmo estando, não
há razão para serem iguais). Justificaremos agora a notação 𝑆𝑇 = 𝑆 ∘ 𝑇.
Para isso, mostraremos que a definição da multiplicação de matrizes é uma
consequência de um fato muito mais elementar: a composição aplicações
lineares, que é um caso particular da composição de funções. Em toda a
sequência, vamos supor que a multiplicação de matrizes não esteja defi-
nida.
Assim, consideremos 𝑇 ∶ 𝑋 → 𝑌 uma aplicação linear que é repre-
𝒞
sentada pela matriz 𝐴 = 𝑇ℬ com relação às bases {𝒖1 , … , 𝒖𝑛 } ⊂ 𝑋, e
𝒞 = {𝒗1 , … , 𝒗𝑚 } ⊂ 𝑌. Consideremos também a aplicação 𝑆 ∶ 𝑌 → 𝑍,
que é representada pela matriz 𝐷 = 𝑆𝒞𝒟 , sendo 𝒟 = {𝒘1 , … , 𝒘𝑝 } ⊂ 𝑍
uma base do espaço 𝑍. Uma vez que 𝑆𝑇 ∶ 𝑋 → 𝑍 é linear, ela pode
ser representada (com relação às bases ℬ e 𝒟) por uma matriz. Vamos
caracterizá-la. Pelo Teorema 4.17, [𝑇 𝒖𝑗 ]𝒞 é igual a 𝒄𝑗 , a 𝑗-ésima coluna
𝒞
da matriz 𝐴 = 𝑇ℬ . Do mesmo modo, [(𝑆𝑇 )𝒖𝑗 ]𝒟 corresponde à 𝑗-ésima
coluna da matriz 𝐷 = (𝑆𝑇 )𝒟 𝒞
. Uma vez que o Teorema 4.17 garante que
[𝑆(𝑇 𝒖𝑗 )]𝒟 = 𝐷[𝑇 𝒗𝑗 ]𝒞 , temos

𝐷 = (𝑆𝑇 )𝒟

= ([(𝑆𝑇 )𝒖1 ]𝒟 [(𝑆𝑇 )𝒖2 ]𝒟 … [(𝑆𝑇 )𝒖𝑛 ]𝒟 )
= ([𝑆(𝑇 𝒖1 )]𝒟 [𝑆(𝑇 𝒖2 )]𝒟 … [𝑆(𝑇 𝒖𝒏 )]𝒟 )
= (𝐷[𝑇v1 ]𝒞 𝐷[𝑇v2 ]𝒞 … 𝐷[𝑇v𝑛 ]𝒞 )
= (𝐷𝒄1 𝐷𝒄2 … 𝐷𝒄𝑛 )

Aplicando a fórmula (4.7) para 𝒙 = 𝒄𝑗 = [𝑇v𝑗 ]𝒞 , obtemos

⎛ℓ1 𝒄1 ℓ1 𝒄2 … ℓ1 𝒄𝑛 ⎞
⎜ℓ2 𝒄1 ℓ2 𝒄2 … ℓ2 𝒄𝑛 ⎟
(𝐷𝒄1 𝐷𝒄2 … 𝐷𝒄𝑛 ) = ⎜ ⋮ ⎟,
⎜ ⎟
⎝ℓ𝑝 𝒄1 ℓ𝑝 𝒄2 … ℓ𝑝 𝒄𝑛 ⎠
4.3. COMPOSIÇÃO E MULTIPLICAÇÃO 101

em que ℓ𝑖 é a 𝑖-ésima linha da matriz 𝐷 = (𝑑𝑖𝑗 ). Como as matrizes 𝐴 =


𝒞
𝑇ℬ e 𝐷 = 𝑆𝒞𝒟 podem ser tomadas arbitrariamente (veja o Teorema 4.23),
acabamos de deduzir a fórmula de multiplicação 𝐵𝐴 de uma matriz 𝐵 ∈
𝕄𝑝×𝑚 por uma matriz 𝐴 ∈ 𝕞 × 𝕟:

⎛ ℓ1 ⎞ ⎛ ℓ 1 𝒄1 ℓ 1 𝒄2 … ℓ1 𝒄𝑛 ⎞
⎜ℓ ⎟ ⎜ ℓ 𝒄 ℓ 2 𝒄2 … ℓ2 𝒄𝑛 ⎟
𝐵𝐴 = ⎜ 2 ⎟ (𝒄1 𝒄2 … 𝒄𝑛 ) = ⎜ 2 1 ,
⋮ ⋮ ⋮ ⋱ ⋮ ⎟
⎜ ⎟ ⎜ ⎟
⎝ℓ𝑚 ⎠ ⎝ℓ𝑚 𝒄1 ℓ𝑚 𝒄2 … ℓ𝑚 𝒄𝑛 ⎠

em que a matriz 𝐵 está sendo dada por suas linhas e a matriz 𝐴 por suas
colunas.
Agora observe que a propriedade (1) listada no início desta seção nos
garante a associatividade da multiplicação de matrizes. Note também que a
notação 𝑆𝑇 para a composta 𝑆 ∘ 𝑇 apenas enfatiza a ligação entre multipli-
cação de matrizes e a composição de aplicações lineares.

Exercício 4.16 Traduza as propriedades (2) e (3) do início dessa seção em termos de propriedades
da multiplicação de matrizes.

Teorema 4.28 Fixadas bases

ℬ = {𝒖1 , … , 𝒖𝑛 } ⊂ 𝑋, 𝒞 = {𝒗1 , … , 𝒗𝑚 } ⊂ 𝑌 e 𝒟 = {𝒘1 , … , 𝒘𝑝 } ⊂ 𝑍,

então a composição das aplicações lineares 𝑇 ∶ 𝑋 → 𝑌 e 𝑆 ∶ 𝑌 → 𝑍 é


representada pela matriz (𝑆𝑇 )𝒟

, com

(𝑆𝑇 )𝒟

= 𝑆𝒞𝒟 𝑇ℬ
𝒞
, (4.9)

de modo que
(𝑆𝑇 )𝒟

[𝒙]ℬ = [(𝑆𝑇 )𝑥]𝒟 . (4.10)

Demonstração: O Teorema 4.17 garante que

(𝑆𝑇 )𝒟

= ([(𝑆𝑇 )𝒖1 ]𝒟 [(𝑆𝑇 )𝒖2 ]𝒟 … [(𝑆𝑇 )𝒖𝑛 ]𝒟 ) .

Mas [(𝑆𝑇 )𝒖𝑗 ]𝒟 = [𝑆(𝑇 𝒖𝑗 )]𝒟 = 𝑆𝒞𝒟 [𝑇 𝒖𝑗 ]𝒞 , pelo mesmo Teorema 4.17.
𝒞
Ainda pelo mesmo teorema, [𝑇 𝒖𝑗 ]𝒞 = 𝑇ℬ [𝒖𝑗 ]ℬ , de modo que a 𝑗-ésima
coluna de (𝑆𝑇 )ℬ , que é (𝑆𝑇 )ℬ [𝒖𝑗 ]ℬ , é igual a 𝑆𝒞𝒟 𝑇ℬ
𝒟 𝒟 𝒞
[𝒖𝑗 ]ℬ . Como as ma-
𝒟 𝒟 𝒞
trizes (𝑆𝑇 )ℬ e 𝑆𝒞 𝑇ℬ são iguais em cada coluna 𝑗, concluímos (4.9).
A equação (4.10) nada mais expressa que o significado de (𝑆𝑇 )𝒟 ℬ
, se-
gundo o Teorema 4.17. 

Seja I ∶ 𝑋 → 𝑋 o operador identidade e ℬ uma base qualquer do es-


paço de dimensão finita 𝑋. Convencionamos que a matriz Iℬ será denotada
simplesmente por I.
Essa convenção tem uma motivação clara: a representação de I em qual-
quer base do espaço 𝑋 é dada pela matriz I. Assim, essa convenção apenas
simplifica a notação que utilizamos.
102 CAPÍTULO 4. APLICAÇÕES LINEARES

Se tivermos um operador linear 𝑇 ∶ 𝑋 → 𝑋, então 𝑇 ∘ 𝑇 = 𝑇 𝑇 é deno-


tada por 𝑇 2 . Mais geralmente, para todo 𝑘 ∈ ℕ, definimos 𝑇 𝑘 = 𝑇 (𝑇 𝑘−1 ) =
𝑇 ∘ 𝑇 𝑘−1 , com a convenção 𝑇 0 = I.
Suponhamos que 𝑇 ∶ 𝑋 → 𝑌 seja um isomorfismo. Então existe 𝑇 −1 ,
a inversa da aplicação 𝑇. (Diremos que 𝑇 é invertível). Então definimos
𝑇 −𝑘 = (𝑇 −1 )𝑘 .

Corolário 4.29 Sejam ℬ = {𝑥1 , … , 𝑥𝑛 } e 𝒞 = {𝑦1 , … , 𝑦𝑛 } bases dos


espaços 𝑋 e 𝑌, respectivamente. Então a aplicação linear 𝑇 ∶ 𝑋 → 𝑌 possui
𝒞
inversa se, e somente se, a matriz 𝑇ℬ possuir inversa.
−1 ℬ 𝒞 −1
Além disso, vale [𝑇 ]𝒞 = (𝑇ℬ ) .

Demonstração: Se 𝑇 possuir inversa, então 𝑇 −1 𝑇 = I. Então, de acordo


com o Teorema 4.28

I = Iℬ = (𝑇 −1 𝑇 )ℬ = (𝑇 −1 )ℬ 𝑇 𝒞.
𝒞 ℬ
(4.11)

𝒞
Da igualdade (4.11) e Corolário 1.42 resulta que 𝑇ℬ possui inversa (𝑇 −1 )ℬ
𝒞
.
𝒞
Reciprocamente, se 𝐴 = 𝑇ℬ possui inversa, existe uma matriz 𝐵 tal que
𝐴𝐵 = 𝐵𝐴 = I. Pelo Teorema 4.23, existe uma aplicação linear 𝑈 ∶ 𝑋 → 𝑌
tal que 𝑈𝒞ℬ = 𝐵. Como (𝑈 𝑇 )ℬ = 𝑈𝒞ℬ 𝑇ℬ 𝒞
= I e (𝑇 𝑈 )𝒞 = 𝑇ℬ𝒞 ℬ
𝑈𝒞 = I,
−1
temos que 𝑈 = 𝑇 . 

Corolário 4.30 Sejam 𝑋, 𝑌 , 𝑍 espaços de dimensão finita e 𝑇 ∶ 𝑋 → 𝑌


uma aplicação linear. Então

(𝑖) dim 𝑋 = dim 𝑌 e se existe 𝑆 ∶ 𝑌 → 𝑋 tal que 𝑆𝑇 = I, então 𝑆 =


𝑇 −1 ;

(𝑖𝑖) se 𝑅 ∶ 𝑌 → 𝑍 for invertível, então 𝑅𝑇 ∶ 𝑋 → 𝑍 possui inversa dada


por (𝑅𝑇 )−1 = 𝑇 −1 𝑅−1 .

Demonstração: Basta escolher bases nos espaços de 𝑋 e 𝑌 e então notar


que a versão matricial de (𝑖) é dada pelo Corolário 1.42. Por sua vez, (𝑖𝑖)
corresponde ao Lema 1.39. 

Exercício 4.17 Para todos 𝑚, 𝑛 ∈ ℤ mostre que


(a) 𝑇 𝑚 𝑇 𝑛 = 𝑇 𝑚+𝑛 ;
(b) (𝑇 𝑚 )𝑛 = 𝑇 𝑚𝑛 .

Exemplo 4.31 Sejam 𝑎𝑖𝑗 escalares arbitrários. Então 𝑇 ∶ ℝ𝑛 → ℝ𝑚 defi-


nida em 𝒙 = (𝑥1 , … , 𝑥𝑛 ) ∈ ℝ𝑛 por

𝑇𝒙 =


4.4. ESPAÇO LINHA E ESPAÇO COLUNA 103

4.4 Espaço Linha e Espaço Coluna


Nesta seção estudaremos mais detalhadamente a matriz 𝐴 = (𝑎𝑖𝑗 ). Como
sabemos, 𝐴 pode ser vista por meio de suas linhas ou colunas:

⎛ 𝑎11 … 𝑎1𝑛 ⎞ ⎛ ℓ1 ⎞
𝐴 = ⋮ ⋱ ⋮ = (𝒄1 … 𝒄𝑛 ) = ⎜ ⋮ ⎟ .
⎜ ⎟ (4.12)
⎜ ⎟ ⎜ ⎟
⎝𝑎𝑚1 … 𝑎𝑚𝑛 ⎠ ⎝ℓ𝑚 ⎠
Os vetores colunas 𝒄1 , … , 𝒄𝑛 são naturalmente identificados com veto-
res do ℝ𝑚 . Se 𝒞 = {𝒄1 , … , 𝒄𝑛 }, chamamos de espaço coluna o espaço
gerado por 𝒞, isto é, < 𝒞 > ⊂ ℝ𝑚 .
Por outro lado, podemos interpretar as linhas de 𝐴 como elementos do
próprio espaço ℝ𝑛 . Se denotarmos ℒ = {ℓ1 , … , ℓ𝑚 } ⊂ 𝕂𝑛 , chamamos de
espaço linha o espaço gerado por ℒ, isto é, < ℒ > ⊂ 𝕂𝑛 .

Exemplo 4.32 Considere a matriz

2 1 1
𝐴= .
(1 1 2)

O espaço coluna de 𝐴 é o subespaço do ℝ2

2 1 1
<𝒞 >= 𝛼 +𝛽 +𝛾 ∶ 𝛼, 𝛽, 𝛾 ∈ ℝ .
{ (1) (1) (2) }

Como as duas primeiras colunas de 𝐴 são dadas por vetores linearmente


independentes, é claro que < 𝒞 > = ℝ2 .
Por outro lado, o espaço linha de 𝐴 é o subespaço do ℝ3

< ℒ > = {𝛼(2, 1, 1) + 𝛽(1, 1, 2) ∶ 𝛼, 𝛽 ∈ ℝ} .

Como as duas primeiras linhas de 𝐴 são dadas por vetores linearmente in-
dependentes, < ℒ > é um plano do ℝ3 . Note que as dimensões de < ℒ >
e < 𝒞 > são iguais. ⊲

Mas, qual o significado dos subespaços < 𝒞 > e < ℒ >? Começamos
interpretando o espaço coluna de uma matriz.
Lema 4.33 Considere o sistema linear não homogêneo 𝐴𝒙 = 𝒃, em que
𝐴 = (𝑎𝑖𝑗 ) é uma matriz 𝑚 × 𝑛. Então são equivalentes:
(𝑖) Existe solução 𝒙 para 𝐴𝒙 = 𝒃;

(𝑖𝑖) O vetor 𝒃 é combinação linear das colunas de 𝐴.


Demonstração: Basta notar que o sistema 𝐴𝒙 = 𝒃 é equivalente à equação

⎛ 𝑎11 ⎞ ⎛ 𝑎12 ⎞ ⎛ 𝑎1𝑛 ⎞ ⎛ 𝑏1 ⎞


⎜ 𝑎21 ⎟ ⎜ 𝑎22 ⎟ ⎜𝑎 ⎟ ⎜𝑏 ⎟
𝑥1 ⎜ ⎟ + 𝑥2 ⎜ ⎟ + … + 𝑥𝑛 ⎜ 2𝑛 ⎟ = ⎜ 2 ⎟ . (4.13)
⋮ ⋮ ⋮ ⋮
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝𝑎𝑚1 ⎠ ⎝𝑎𝑚2 ⎠ ⎝𝑎𝑚𝑛 ⎠ ⎝𝑏𝑚 ⎠
Quer dizer, se 𝒙 = (𝑥1 , … , 𝑥𝑛 ) ∈ ℝ𝑛 for uma solução de 𝐴𝒙 = 𝒃, então
𝒃 é combinação linear das colunas de 𝐴 por meio dos escalares 𝑥1 , … , 𝑥𝑛 .
104 CAPÍTULO 4. APLICAÇÕES LINEARES

Reciprocamente, se existirem escalares 𝑥1 , … , 𝑥𝑛 de modo que 𝒃 seja com-


binação linear das colunas de 𝐴, então o vetor 𝒙 = (𝑥1 , … , 𝑥𝑛 ) ∈ ℝ𝑛 é
solução de 𝐴𝒙 = 𝒃. 

Se existe solução para o sistema 𝐴𝒙 = 𝒃, isso quer dizer que 𝒃 ∈ im 𝐴.


Em outras palavras, acabamos de mostrar que < 𝒞 > é o subespaço im 𝐴.
Lembramos que, se 𝐴 for a matriz 𝑚 × 𝑛 dada por (4.12), então sua
transposta 𝐴t é a matriz 𝑛 × 𝑚 dada por

⎛𝑎11 … 𝑎𝑚1 ⎞
𝐴t = ⎜ ⋮ ⋱ ⋮ ⎟ .
⎜ ⎟
⎝𝑎1𝑛 … 𝑎𝑚𝑛 ⎠

Assim, as colunas da matriz 𝐴t são justamente as linhas da matriz 𝐴.


Como consequência imediata do Lema 4.33, temos que

< ℒ > = im 𝐴t . (4.14)

Vamos agora relacionar as dimensões dos subespaços < 𝒞 > e < ℒ >
de uma matriz 𝐴. Mostraremos que esses espaços têm a mesma dimensão;
isso é um fato notável, pois eles são subespaços de espaços vetoriais diferen-
tes!

Teorema 4.34 Dada uma matriz 𝑚 × 𝑛, seu espaço linha tem a mesma di-
mensão de seu espaço coluna.

Demonstração: Suponhamos que os vetores

𝑏1 = (𝑏11 , 𝑏12 , … , 𝑏1𝑛 ), 𝑏2 = (𝑏21 , 𝑏22 , … , 𝑏2𝑛 ), … , 𝑏𝑟 = (𝑏𝑟1 , 𝑏𝑟2 , … , 𝑏𝑟𝑛 )

formem uma base do espaço linha da matriz 𝐴. Então cada linha ℓ𝑖 de 𝐴 é


combinação linear desses elementos:

ℓ1 = 𝜆11 𝑏1 + … + 𝜆1𝑟 𝑏𝑟
ℓ2 = 𝜆21 𝑏1 + … + 𝜆2𝑟 𝑏𝑟
⋮ = ⋮
ℓ𝑚 = 𝜆𝑚1 𝑏1 + … + 𝜆𝑚𝑟 𝑏𝑟

Igualando a componente 𝑗 de cada uma dessas equações, obtemos

𝑎1𝑗 = 𝜆11 𝑏1𝑗 + 𝜆12 𝑏2𝑗 + … + 𝜆1𝑟 𝑏𝑟𝑗


𝑎2𝑗 = 𝜆21 𝑏1𝑗 + 𝜆22 𝑏2𝑗 + … + 𝜆2𝑟 𝑏𝑟𝑗
⋮ = ⋮
𝑎𝑚𝑗 = 𝜆𝑚1 𝑏1𝑗 + 𝜆𝑚2 𝑏2𝑗 + … + 𝜆𝑚𝑟 𝑏𝑟𝑗 .

Assim,
⎛ 𝑎1𝑗 ⎞ ⎛ 𝜆11 ⎞ ⎛ 𝜆12 ⎞ ⎛ 𝜆1𝑟 ⎞
⎜ 𝑎2𝑗 ⎟ ⎜ 𝜆21 ⎟ ⎜ 𝜆22 ⎟ ⎜ 𝜆2𝑟 ⎟
⎜ ⋮ ⎟ = 𝑏1𝑗 ⎜ ⋮ ⎟ + 𝑏2𝑗 ⎜ ⋮ ⎟ + … + 𝑏𝑟𝑗 ⎜ ⋮ ⎟ ,
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝𝑎𝑚𝑗 ⎠ ⎝𝜆𝑚1 ⎠ ⎝𝜆𝑚2 ⎠ ⎝𝜆𝑚𝑟 ⎠
4.4. ESPAÇO LINHA E ESPAÇO COLUNA 105

mostrando que as colunas de 𝐴 são combinações lineares dos 𝑟 vetores

⎛ 𝜆11 ⎞ ⎛ 𝜆1𝑟 ⎞
⎜ 𝜆21 ⎟ ⎜ 𝜆2𝑟 ⎟
⎜ ⋮ ⎟,…,⎜ ⋮ ⎟.
⎜ ⎟ ⎜ ⎟
⎝𝜆𝑚1 ⎠ ⎝𝜆𝑚𝑟 ⎠

Isso quer dizer que o espaço coluna tem dimensão, no máximo, igual a 𝑟,
ou seja,
dim < 𝒞 > ≤ dim < ℒ > .
Procedendo da mesma maneira com relação a uma base do espaço co-
luna, mostramos que

dim < ℒ > ≤ dim < 𝒞 > .

Assim, essas duas dimensões são iguais.3 

Exercício 4.18 Reescreva a demonstração anterior para uma matriz 2 × 3 qualquer, identificando
as passagens apresentadas na demonstração do Teorema 4.34.

Definição 4.35 Definimos o posto da matriz 𝐴, denotado por posto 𝐴, como


sendo
dim < 𝒞 > = dim < ℒ > .
Se 𝐴 for uma representação matricial da aplicação linear 𝑇, definimos

posto 𝑇 = posto 𝐴.

O seguinte resultado decorre imediatamente do Teorema 4.34:

Corolário 4.36 Seja 𝐴 uma matriz 𝑚 × 𝑛. Então

dim(im 𝐴) = dim(im 𝐴t ).

Utilizando essas interpretações para os espaços linha e coluna de uma


matriz, estamos em condições de resolver um problema fundamental: dada
uma matriz 𝐴, encontrar, com um único procedimento,4 bases para os es-
paços ker 𝐴 e im 𝐴. Para isso, enunciamos o seguinte

Corolário 4.37 Seja 𝐴 uma matriz 𝑚 × 𝑛 e 𝑅 sua forma escalonada redu-


zida por linhas. Então as colunas de 𝐴 correspondentes aos pivôs de 𝑅
formam uma base do espaço coluna de 𝐴.

Demonstração: Considere a forma escalonada reduzida por linhas 𝑅 da


matriz 𝐴. É fácil ver que as colunas de 𝑅 correspondentes aos pivôs for-
mam uma base do espaço coluna de 𝑅. Como as soluções de 𝐴𝒙 = 0 e
3
De maneira mais elegante, podemos notar que mostramos dim < 𝒞 > ≤ dim < ℒ >
para qualquer matriz. Aplicando esse fato à matriz 𝐴t , obtemos o resultado.
4
Note que o procedimento apresentado no Exemplo 2.48 não coincide com aquele utili-
zado para se obter o núcleo de uma matriz.
106 CAPÍTULO 4. APLICAÇÕES LINEARES

𝑅𝒙 = 0 são as mesmas, escolhendo 𝒙 com as coordenadas nulas nas posi-


ções correspondentes às variáveis livres em 𝑅𝒙 = 0, vemos que as colunas
correspondentes aos pivôs em 𝑅 são linearmente independentes, aplicando
o Lema 4.33. Do mesmo modo, escrevendo uma coluna 𝑖 de 𝑅 como com-
binação linear das colunas dos pivôs de 𝑅, vemos que a coluna 𝑖 de 𝐴 pode
ser escrita como combinação linear das colunas em 𝐴 correspondentes às
colunas dos pivôs em 𝑅. 

A demonstração do Corolário 4.37 não é simples de ser acompanhada.


Estude o próximo exemplo e então releia essa demonstração.

Exemplo 4.38 Vamos obter bases para o núcleo e a imagem da matriz

⎛3 1 2 4 1⎞
𝐴 = ⎜1 1 1 1 2⎟ .
⎜ ⎟
⎝2 2 2 1 1⎠
Para obter o núcleo, resolvemos 𝐴𝒙 = 0 levando a matriz 𝐴 à sua forma
escalonada reduzida por linhas 𝑅:

⎛3 1 2 4 1⎞ ⎛1 0 1/2 0 −5 ⎞
𝐴 = ⎜1 1 1 1 2⎟ ⟶ ⎜0 1 1/2 0 4 ⎟ = 𝑅.
⎜ ⎟ ⎜ ⎟
⎝2 2 2 1 1⎠ ⎝0 0 0 1 3⎠
Escrevendo as variáveis correspondentes aos pivôs em termos da variá-
veis livres, obtemos a solução geral do sistema homogêneo associado.

⎛𝑥1 ⎞ ⎛−1/2⎞ ⎛ 5⎞
⎜𝑥2 ⎟ ⎜−1/2⎟ ⎜−4 ⎟
⎜𝑥3 ⎟ = 𝑥3 ⎜ 1 ⎟ + 𝑥5 ⎜ 0 ⎟ (4.15)
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎜𝑥4 ⎟ ⎜ 0 ⎟ ⎜−3 ⎟
⎝𝑥5 ⎠ ⎝ 0 ⎠ ⎝ 1⎠
Assim, podemos concluir que o núcleo de 𝐴 é um subespaço de dimensão
2, gerado pelos vetores

⎛−1/2⎞ ⎛ 5⎞
⎜−1/2⎟ ⎜−4 ⎟
𝒖1 = ⎜ 1 ⎟ ∈ 𝕂5 e 𝒖2 = ⎜ 0 ⎟ ∈ 𝕂 5 .
⎜ ⎟ ⎜ ⎟
⎜ 0 ⎟ ⎜−3 ⎟
⎝ 0 ⎠ ⎝ 1⎠
Agora passamos a considerar im 𝐴. De acordo com o Corolário 4.37,
temos que os vetores

⎛3⎞ ⎛1⎞ ⎛4⎞


𝒗1 = ⎜1⎟ ∈ 𝕂3 , 𝒗2 = ⎜1⎟ ∈ 𝕂3 e 𝒗4 = ⎜1⎟ ∈ 𝕂3
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝2⎠ ⎝2⎠ ⎝1⎠
formam uma base da imagem de 𝐴, pois estes vetores coluna correspondem
às posições dos pivôs na forma escalonada reduzida por linhas de 𝐴.
Vamos aproveitar este exemplo e ilustrar a demonstração do Corolário
4.37. Se denotarmos as colunas de 𝑅 por 𝒄1 , … , 𝒄5 , é claro que −5𝒄1 +
4.5. SISTEMAS LINEARES, PIVÔS E VARIÁVEIS LIVRES 107

4𝒄2 + 0𝒄3 + 3𝒄4 = 𝒄5 , isto é, o vetor 𝒙t = (−5 4 0 3 − 1) é uma solução de


𝑅𝒙 = 0. Logo, esse vetor é solução de 𝐴𝒙 = 0. Assim,

⎛3⎞ ⎛1⎞ ⎛2⎞ ⎛4⎞ ⎛1⎞ ⎛0⎞


−5 ⎜1⎟ + 4 ⎜1⎟ + 0 ⎜1⎟ + 3 ⎜1⎟ − 1 ⎜2⎟ = ⎜0⎟ ,
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝2⎠ ⎝2⎠ ⎝2⎠ ⎝1⎠ ⎝1⎠ ⎝0⎠
ou seja,
⎛1⎞ ⎛3⎞ ⎛1⎞ ⎛4⎞
⎜2⎟ = −5 ⎜1⎟ + 4 ⎜1⎟ + 3 ⎜1⎟ .
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝1⎠ ⎝2⎠ ⎝2⎠ ⎝1⎠
De modo análogo, considerando 𝒚t = (𝑦1 𝑦2 0 𝑦4 0) e 𝑅𝒚 = 0, o fato das
colunas dos pivôs de 𝑅 serem linearmente independentes implica que 𝑦1 =
𝑦2 = 𝑦4 = 0. Como 𝐴𝒚 = 0, vemos que as colunas de 𝐴 correspondentes
aos pivôs de 𝑅 são linearmente independentes, o que ilustra o Corolário
4.37. ⊲

Observação 4.39 Comparando os métodos apresentado no Corolário 4.37


(e Exemplo 4.38) com aquele introduzido no Exemplo 2.48, notamos que,
para obter bases para o núcleo e imagem de uma matriz 𝐴, nesse último
temos que escalonar duas matrizes distintas: a matriz 𝐴, para obter uma
base para ker 𝐴, e a matriz 𝐴t , para produzir uma base para im 𝐴. O método
do Corolário 4.37 é mais eficaz, pois faz isso apenas levando a matriz 𝐴 à
sua forma escalonada reduzida por linhas. Por outro lado, a base de im 𝐴
obtida ao se escalonar 𝐴t tem vetores com mais entradas nulas do que o
método do Corolário 4.37. Veja novamente o Exemplo 2.48. ⊲

4.5 Sistemas Lineares, Pivôs e Variáveis Livres


É certo que, após a apresentação do Teorema do Núcleo e da Imagem,
mostramos algumas consequências deste no estudo de sistemas lineares.
Mas agora podemos aprofundar nossas conclusões.
Para isso, restringiremos nossa atenção a sistemas na forma (𝑅|𝒄), em
que 𝑅 é uma matriz na forma escalonada reduzida por linhas. Esse sistema
não tem solução se, e somente se, tiver uma linha no formato (0 0 … 0|𝑐1 ),
com 𝑐1 ≠ 0. É claro que um sistema com uma linha nesse formato não
tem solução. Reciprocamente, supondo que tal tipo de linha não exista, o
número de linhas não nulas da matriz 𝑅 corresponde ao número máximo de
coordenadas não nulas do vetor 𝒄. Como as colunas de 𝑅 correspondentes
aos pivôs formam uma base do espaço coluna, o vetor 𝒄 está no espaço
coluna e o sistema tem solução.
Consideremos então um sistema (𝑅|𝒄) que possua solução. O Teorema
1.35 nos mostra como os sistemas (𝑅|𝒄) e (𝑅|0) estão relacionados: solu-
ções do sistema não homogêneo são obtidas à partir de uma única solução
(no teorema denotada por 𝒙0 ), se conhecermos todas as soluções do sistema
homogêneo associado.
Por esse motivo, podemos restringir nossa análise ao caso de sistemas
homogêneos 𝑅𝒙 = 0. A dimensão do núcleo de 𝑅 é dada pelo número de
variáveis livres em 𝑅. De fato, a cada variável livre corresponde um vetor
108 CAPÍTULO 4. APLICAÇÕES LINEARES

coluna com entrada igual a 1 justamente na coordenada correspondente à


variável livre.5 Uma vez que apenas o vetor correspondente à variável li-
vre tem coordenada igual a 1 nessa posição, esses vetores são linearmente
independentes.

Exemplo 4.40 Consideremos a matriz (já dada na forma escalonada redu-


zida por linhas)
⎛1 2 0 0 0 2⎞
⎜0 0 0 1 0 3⎟ .
⎜ ⎟
⎝0 0 0 0 1 1⎠
No sistema homogêneo associado, as variáveis 𝑥1 , 𝑥4 e 𝑥5 correspondem
aos pivôs; as variáveis 𝑥2 , 𝑥3 e 𝑥6 são variáveis livres.
A solução do sistema pode ser escrita na forma

⎛𝑥1 ⎞ −2𝑥2 − 2𝑥6 ⎞ ⎛−2⎞ ⎛0⎞ ⎛−2⎞


⎜𝑥2 ⎟ ⎛ ⎜ 1⎟ ⎜0⎟ ⎜ 0⎟
⎜𝑥 ⎟ ⎜ 𝑥2 ⎟ ⎜ 0⎟ ⎜1⎟ ⎜ ⎟
⎜ 3⎟ = ⎜ 𝑥3 ⎟ = 𝑥 2 ⎜ ⎟ + 𝑥3 ⎜ ⎟ + 𝑥6 ⎜ 0 ⎟ .
⎜𝑥4 ⎟ ⎜ ⎟ ⎜ 0⎟ ⎜0⎟ ⎜ 0⎟
⎜𝑥 ⎟ ⎜ −3𝑥6 ⎟ ⎜ 0⎟ ⎜0⎟ ⎜−3⎟
⎜ 5⎟ ⎝ −𝑥6 ⎠ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝𝑥6 ⎠ ⎝ 0⎠ ⎝0⎠ ⎝ 1⎠

As soluções do sistema homogêneo são obtidas como combinação linear


dos vetores 𝒗1 = (−2 1 0 0 0 0)𝒕 , 𝒗2 = (0 0 1 0 0 0)𝒕 e
𝒗3 = (−2 0 0 0 −3 1)𝒕 . Esses vetores são linearmente independen-
tes, pois apenas o vetor associado à variável livre 𝑥2 tem entrada não nula
(igual a 1) na segunda coordenada; e assim por diante. ⊲

Por outro lado, o Corolário 4.37 garante que a dimensão do espaço co-
luna de 𝑅 (e, portanto, da imagem da aplicação linear 𝑅) é igual ao número
de pivôs na matriz 𝑅 e que esse número é igual à dimensão do espaço co-
luna de 𝐴; ou seja, o número de pivôs da matriz 𝑅 é igual à dimensão da
imagem de 𝐴.
Visto sobre essa ótica, o Teorema do Núcleo e da Imagem é um resultado
trivial quando no contexto de matrizes: se 𝐴 for uma matriz 𝑚×𝑛, passando
à sua forma escalonada reduzida por linhas 𝑅, concluímos:

Número total Número de Número de


= +
de variáveis pivôs variáveis livres

dimensão da dimensão do
n = +
imagem de 𝑅 núcleo de 𝑅

dimensão do dimensão da dimensão do


= +
domínio de 𝐴 imagem de 𝐴 núcleo de 𝐴

5
No Exemplo 1.27, o vetor é (0 −2/3 1)𝒕 e sua coordenada 1 corresponde justamente
à variável 𝑥3 ; no Exemplo 1.30, supondo 𝒃 = 0, os vetores correspondentes às variáveis
livres 𝑥4 e 𝑥6 também tem coordenada igual a 1 nessas posições.
4.6. BASES ORTOGONAIS E APLICAÇÕES LINEARES 109

4.6 Bases Ortogonais e Aplicações Lineares


Seja 𝐸 um espaço com produto interno. Como vimos no Teorema 3.28,
dado um subespaço 𝑊 ⊂ 𝐸 de dimensão finita, temos a decomposição
ortogonal
𝐸 = 𝑊 ⊕ 𝑊 ⟂.

Definição 4.41 Na soma direta ortogonal

𝐸 = 𝑊 ⊕ 𝑊⟂
𝒙 = 𝒘 + 𝒛,

denotamos a projeção ortogonal de 𝒙 em 𝑊 por 𝜋𝑊 𝒙 = 𝒘. A aplicação

𝜋𝑊 ∶ 𝐸 → 𝑊

é a projeção ortogonal do espaço 𝐸 em 𝑊.

Relembramos que, se tivermos uma base ortogonal do subespaço 𝑊,


então o vetor dado é obtido por meio do processo de ortogonalização de
Gram-Schmidt: veja o Teorema 3.28. O complemento ortogonal do subes-
paço 𝑊 depende do produto interno considerado no espaço 𝐸.

Proposição 4.42 Sejam ⟨⋅, ⋅⟩ um produto interno no espaço 𝐸 e 𝑊 ⊂ 𝐸 um


subespaço de dimensão 𝑚. Então, 𝜋𝑊 ∶ 𝐸 → 𝑊 é uma aplicação linear.

Demonstração: Sejam 𝒙, 𝒚 ∈ ℝ𝑛 vetores arbitrários e {𝒘1 , … , 𝒘𝑚 } uma


base ortonormal de 𝑊. Então, de acordo com o Teorema 3.28, temos

𝜋𝑊 (𝒙 + 𝒚) = ⟨𝒙 + 𝒚, 𝒘1 ⟩ 𝒘1 + … + ⟨𝒙 + 𝒚, 𝒘𝑚 ⟩ 𝒘𝑚
= ⟨𝒙, 𝒘1 ⟩ 𝒘1 + … + ⟨𝒙, 𝒘𝑚 ⟩ 𝒘𝑚
+⟨𝒚, 𝒘1 ⟩ 𝒘1 + … + ⟨𝒚, 𝒘𝑚 ⟩ 𝒘𝑚
= 𝜋𝑊 𝒙 + 𝜋𝑊 𝒚,

mostrando o afirmado. 

Considerados um espaço 𝐸 de dimensão 𝑛 e um operador linear 𝑇 ∶ 𝐸 →


𝐸, a matriz 𝑇ℬ pode ser facilmente obtida, se ℬ = {𝒗1 , … , 𝒗𝑛 } for uma
base ortonormal de 𝐸. De fato, se denotarmos por 𝐴 = (𝑎𝑖𝑗 ) a matriz 𝑇ℬ ,
então 𝑗-ésima coluna de 𝐴 é obtida ao se calcular 𝑇 𝒗𝑗 e expressar esse vetor
na base ℬ como um vetor coluna. Quer dizer, 𝑇 𝒗𝑗 = ∑𝑛𝑖=1 𝑎𝑖𝑗 𝒗𝑖 . Por outro
lado, a Proposição 3.21 garante que a representação de 𝒚 na base ℬ é dada
por 𝒚 = ∑𝑛𝑖=1 ⟨𝒚, 𝒗𝑖 ⟩𝒗𝒊 para todo 𝒚 ∈ 𝐸; assim, vale 𝑇 𝒙 = ∑𝑛𝑖=1 ⟨𝑇 𝒙, 𝒗𝑖 ⟩𝒗𝑖
para todo 𝒙 ∈ ℝ𝑛 ; em particular, temos 𝑇 𝒗𝑗 = ∑𝑛𝑖=1 ⟨𝑇 𝒗𝑗 , 𝒗𝑖 ⟩𝒗𝒊 , de modo
que
𝑎𝑖𝑗 = ⟨𝑇 𝒗𝑗 , 𝒗𝑖 ⟩. (4.16)

Observação 4.43 Observe que, se 𝐸 for um espaço real, então podemos


escrever 𝑎𝑖𝑗 = ⟨𝑣𝑖 , 𝑇 𝑣𝑗 ⟩, mas essa expressão não é válida se 𝐸 for um espaço
complexo. ⊲
110 CAPÍTULO 4. APLICAÇÕES LINEARES

Exemplo 4.44 Considere a base

1 1
ℬ= (1, 1, 0), (−1, 1, 0), (0, 0, 1) ⊂ 𝕂3 ,
{ √2 √2 }

que é ortonormal com relação ao produto interno canônico do 𝕂3 (verifi-


que!). Vamos obter 𝑇ℬ , em que 𝑇 ∶ 𝕂3 → 𝕂3 é a aplicação linear definida
por 𝑇 (𝑥1 , 𝑥2 , 𝑥3 ) = (𝑥1 + 𝑥2 − 𝑥3 , 𝑥2 , 𝑥3 ). Claramente temos
2
⎛ √2 ⎞ ⎛0⎞ ⎛−1⎞
⎜ ⎟ 1
𝑇 𝒗1 = ⎜ 1 ⎟ , 𝑇 𝒗2 = ⎜ √2 ⎟ e 𝑇 𝒗3 = ⎜ 0 ⎟ .
⎜ √2 ⎟ ⎜ ⎟ ⎜ ⎟
⎝ 0 ⎠ ⎝0⎠ ⎝ 1⎠

Calculando, obtemos

𝑇 𝒗1 ⋅ 𝒗1 = 32 , 𝑇 𝒗2 ⋅ 𝒗1 = 12 , 𝑇 𝒗3 ⋅ 𝒗1 = − 1
√2
𝑇 𝒗1 ⋅ 𝒗2 = − 12 , 𝑇 𝒗2 ⋅ 𝒗2 = 12 , 𝑇 𝒗3 ⋅ 𝒗2 = 1 ,
√2
𝑇 𝒗1 ⋅ 𝒗3 = 0, 𝑇 𝒗2 ⋅ 𝒗3 = 0, 𝑇 𝒗 3 ⋅ 𝒗3 = 1

de modo que
3 1 1
⎛ 2 2
− ⎞
⎜ √2 ⎟
𝑇ℬ = ⎜− 1 1 1 ⎟.
⎜ 2 2 √2 ⎟
⎜ ⎟
⎝ 0 0 1 ⎠ ⊲

Exercício 4.19 Sem considerar que a base ℬ do Exemplo 4.44 é ortonormal, obtenha 𝑇ℬ utili-
zando apenas a teoria desenvolvida no Capítulo 4, isto é, utilizando o Teorema 4.17. Compare sua
solução com aquela do Exemplo 4.44.
Se tivermos bases ortonormais nos espaços 𝐸 e 𝐹 (relativos a produ-
tos internos arbitrários em cada um desses espaços), então o procedimento
utilizado no Exemplo 4.44 pode ser generalizado:

Teorema 4.45 Sejam ℬ = {𝒗1 , 𝒗2 , … , 𝒗𝑛 } e 𝒞 = {𝒘1 , 𝒘2 , … , 𝒘𝑚 } bases


ortonormais nos espaços 𝐸 e 𝐹, respectivamente (com relação a produtos
𝒞
internos arbitrários nesses espaços). Então a matriz 𝑇ℬ = (𝑎𝑖𝑗 ) da aplica-
ção linear 𝑇 ∶ 𝐸 → 𝐹 é dada por

𝑎𝑖𝑗 = ⟨𝑇 𝒗𝑗 , 𝒘𝑖 ⟩.

Demonstração: Apesar dos argumentos serem inteiramente análogos aos


apresentados anteriormente, vamos detalhar essa demonstração.
𝒞
A matriz (𝑎𝑖𝑗 ) = 𝑇ℬ tem como 𝑗-ésima coluna o vetor 𝑇 𝒗𝑗 escrito na
base 𝒞 como vetor coluna. Assim,

⎛ 𝑎1𝑗 ⎞
⎜𝑎 ⎟
[𝑇 𝒗𝑗 ]𝒞 = ⎜ 2𝑗 ⎟ ,

⎜ ⎟
𝑎
⎝ 𝑚𝑗 ⎠
4.7. O TEOREMA DE REPRESENTAÇÃO DE RIESZ 111

quer dizer, 𝑇 𝒗𝑗 = ∑𝑚 𝑖=1 𝑎𝑖𝑗 𝒘𝑖 .


Por outro lado, a Proposição 3.21 garante que qualquer vetor 𝒚 ∈ 𝐹 é es-
crito na base 𝒞 como 𝒚 = ∑𝑚 𝑖=1 ⟨𝒚, 𝒘𝑗 ⟩𝒘𝑗 . Tomando 𝒚 = 𝑇 𝒗𝑗 , concluímos
que a 𝑖-ésima coordenadas de 𝑇 𝒗𝑗 é dada por

𝑎𝑖𝑗 = ⟨𝑇 𝒗𝑗 , 𝒘𝑖 ⟩. 

4.7 O Teorema de Representação de Riesz


Consideremos um produto interno arbitrário no espaço vetorial 𝐸. Fi-
xado 𝒚 ∈ 𝐸, a aplicação 𝒙 ↦ ⟨𝒙, 𝒚⟩ ∈ 𝕂 define um funcional linear.
Reciprocamente, temos o importante
Teorema 4.46 (de Representação de Riesz)
Seja 𝐸 um espaço com produto interno de dimensão finita. Todo fun-
cional linear ℓ ∶ 𝐸 → 𝕂 pode ser escrito como um produto interno. Mais
precisamente, existe um único vetor 𝒚 ∈ 𝐸 tal que

ℓ(𝒙) = ⟨𝒙, 𝒚⟩ ∀ 𝒙 ∈ 𝐸.

Demonstração: Considere uma base ortonormal {𝒙1 , … , 𝒙𝑛 } ⊂ 𝐸. Se


𝒙 ∈ 𝐸, a Proposição 3.21 garante que 𝒙 = ⟨𝒙, 𝒙1 ⟩ 𝒙1 + … + ⟨𝒙, 𝒙𝑛 ⟩ 𝒙𝑛 .
Portanto,

ℓ(𝒙) = ℓ (⟨𝒙, 𝒙1 ⟩ 𝒙1 + … + ⟨𝒙, 𝒙𝑛 ⟩ 𝒙𝑛 )


= ⟨𝒙, 𝒙1 ⟩ ℓ(𝒙1 ) + … + ⟨𝒙, 𝒙𝑛 ⟩ ℓ(𝒙𝑛 )
= ⟨𝒙, ℓ(𝒙1 ) 𝒙1 ⟩ + … + ⟨𝒙, ℓ(𝒙𝑛 ) 𝒙𝑛 ⟩

= ⟨𝒙, ℓ(𝒙1 ) 𝒙1 + … + ℓ(𝒙𝑛 ) 𝒙𝑛 ⟩ .

Defina 𝒚 = ℓ(𝒙1 ) 𝒙1 + … + ℓ(𝑥𝑛 ) 𝒙𝑛 . Como {𝒙1 , … , 𝒙𝑛 } é uma base, 𝒚 é


único. 

Em espaços com produto interno de dimensão infinita, em geral o Teo-


rema de Riesz não é válido. (Veja o Exercício 27, no final do capítulo.)
Suponhamos que 𝐸 seja um espaço com produto interno. Denotaremos

𝐸 ′ = {ℓ ∶ 𝐸 → 𝕂 ∶ ℓ é linear }.

(Em outras palavras, 𝐸 ′ = ℒ (𝐸, 𝕂). Como consequência, se 𝐸 tiver di-


mensão finita, dim 𝐸 ′ = dim 𝐸.)
Fixado 𝒚 ∈ 𝐸, a aplicação 𝒙 ↦ ⟨𝒙, 𝒚⟩ define um funcional linear em 𝐸 ′ .
Reciprocamente, se 𝐸 tiver dimensão finita, o Teorema de Representação de
Riesz estabelece que todo elemento ℓ ∈ 𝐸 ′ tem a forma ℓ(𝒙) = ⟨𝒙, 𝒚⟩ para
algum vetor 𝒚 ∈ 𝐸. Assim, o Teorema de Representação de Riesz nos
permite identificar os espaços 𝐸 e 𝐸 ′ .
Corolário 4.47 Seja 𝐸 um espaço real com produto interno, dim 𝐸 < ∞.
A aplicação Φ ∶ 𝐸 → 𝐸 ′ definida por Φ(𝒚) = ⟨⋅, 𝒚⟩ ∈ 𝐸 ′ estabelece um
isomorfismo entre 𝐸 e 𝐸 ′ .
112 CAPÍTULO 4. APLICAÇÕES LINEARES

Demonstração: Dados 𝒚, 𝒛 ∈ 𝐸 e 𝛼 ∈ ℝ,

Φ(𝒚 + 𝛼𝒛) = ⟨⋅, 𝒚 + 𝛼𝒛⟩ = ⟨⋅, 𝒚⟩ + 𝛼⟨⋅, 𝒛⟩ = Φ(𝒚) + 𝛼Φ(𝒛)

prova a linearidade de Φ. Suponhamos que Φ(𝒚) = ⟨⋅, 𝒚⟩ seja o funcional


identicamente nulo. Então, em particular, ⟨𝒚, 𝒚⟩ = 0, o que implica que
𝒚 = 0. Como dim 𝐸 ′ = dim 𝐸, a prova está completa. 

Observe que, se 𝐸 for um espaço complexo, então Φ ∶ 𝐸 → 𝐸 ′ satisfaz


Φ(𝒚 + 𝛼𝒛) = Φ(𝒚) + 𝛼Φ(𝒛).
̄

4.8 A Adjunta de uma Aplicação Linear


Definição 4.48 Sejam 𝐸, 𝐹 espaços com produto interno e 𝑇 ∶ 𝐸 → 𝐹 uma
aplicação linear. Uma aplicação 𝑇 ∗ ∶ 𝐹 → 𝐸 é adjunta de 𝑇, se satisfizer

⟨𝑇 𝒙, 𝒚⟩ = ⟨𝒙, 𝑇 ∗ 𝒚⟩ ∀ 𝒙 ∈ 𝐸, 𝒚 ∈ 𝐹 .

Note que, do lado esquerdo da igualdade, o produto interno é o utilizado


no espaço 𝐹, enquanto no lado direito é o produto interno utilizado em 𝐸.

Teorema 4.49 Sejam 𝐸, 𝐹 espaços com produto interno, o espaço 𝐸 tendo


dimensão finita. Se 𝑇 ∶ 𝐸 → 𝐹 for uma aplicação linear, então existe uma
única adjunta 𝑇 ∗ ∶ 𝐹 → 𝐸, a qual é linear

Demonstração: Como 𝑇 é linear, a aplicação 𝒙 ↦ ⟨𝒙, 𝒚⟩ pertence ao dual


𝐸 ′ , para todo 𝒚 ∈ 𝐹 fixo. O Teorema de Representação de Riesz garante,
então, que existe um único 𝒘 ∈ 𝐸 (dependendo de 𝒚 ∈ 𝐹) tal que

⟨𝑇 𝒙, 𝒚⟩ = ⟨𝒙, 𝒘⟩

para todo 𝒙 ∈ 𝐸. Defina 𝑇 ∗ 𝒚 = 𝒘. Está assim definida, para cada 𝒚 ∈ 𝐹,


uma aplicação 𝑇 ∗ ∶ 𝐹 → 𝐸.
Para mostrar a linearidade de 𝑇 ∗ , sejam 𝒚, 𝒛 ∈ 𝐹 e 𝜆 ∈ 𝕂. Então,

̄ 𝒙, 𝒛⟩
⟨𝒙, 𝑇 ∗ (𝒚 + 𝜆𝒛)⟩ = ⟨𝑇 𝒙, 𝒚 + 𝜆𝒛⟩ = ⟨𝑇 𝒙, 𝒚⟩ + 𝜆⟨𝑇
= ⟨𝒙, 𝑇 ∗ 𝒚⟩ + ⟨𝒙, 𝜆𝑇 ∗ 𝒛⟩.

Assim,

⟨𝒙, 𝑇 ∗ (𝒚 + 𝜆𝒛) − 𝑇 ∗ 𝒚 − 𝜆𝑇 ∗ 𝒛⟩ = 0, ∀ 𝒙 ∈ 𝐸.

Escolhendo 𝒙 = 𝑇 ∗ (𝒚 + 𝜆𝒛) − 𝑇 ∗ 𝒚 − 𝜆𝑇 ∗ 𝒛, concluímos que

‖𝑇 ∗ (𝒚 + 𝜆𝒛) − 𝑇 ∗ 𝒚 − 𝜆𝑇 ∗ 𝒛‖2 = 0,

o que implica 𝑇 ∗ (𝒚 + 𝜆𝒛) − 𝑇 ∗ 𝒚 − 𝜆𝑇 ∗ 𝒛 = 0, provando a linearidade de 𝑇 ∗ .


Argumento similar prova sua unicidade. 
4.8. A ADJUNTA DE UMA APLICAÇÃO LINEAR 113

Exemplo 4.50 Seja 𝑇 ∶ ℝ2 → ℝ2 dada por 𝑇 (𝑥, 𝑦) = (𝑎𝑥 + 𝑏𝑦, 𝑐𝑥 + 𝑑𝑦),


com ℝ2 considerado com o produto interno canônico. A base canônica é,
então, ortonormal e a representação de 𝑇 nessa base é a matriz

𝑎 𝑏
𝑇ℰ = .
( 𝑐 𝑑)

Logo,

⟨𝑇 (𝑥1 , 𝑦1 ), (𝑥2 , 𝑦2 )⟩ = (𝑎𝑥1 + 𝑏𝑦1 )𝑥2 + (𝑐𝑥1 + 𝑑𝑦1 )𝑦2


= (𝑎𝑥2 + 𝑐𝑦2 )𝑥1 + (𝑏𝑥2 + 𝑑𝑦2 )𝑦1
= ⟨(𝑥1 , 𝑦1 ), (𝑎𝑥2 + 𝑐𝑦2 , 𝑏𝑥2 + 𝑑𝑦2 )⟩,

de onde concluímos que

𝑎 𝑐
[𝑇 ∗ ]ℰ = = (𝑇ℰ )𝒕 .
(𝑏 𝑑)

Os cálculos efetuados no exemplo anterior sugerem que o tratamento do


caso geral de uma matriz 𝑛 × 𝑛 deve ser bastante difícil. Como veremos, a
identificação da adjunta de uma matriz 𝑛 × 𝑛 qualquer com relação a uma
base ortonormal é bastante simples e mostra a utilidade do tratamento abs-
trato que estamos adotando. Na verdade, o tratamento abstrato tem como
um de seus objetivos exatamente este: simplificar a obtenção de resultados
gerais, ao ignorar todas as informações adicionais implicitamente obtidas
ao se tratar de um exemplo específico. (Note que, no Exemplo 4.50, foi
escolhida a base canônica ℰ do ℝ2 .)

Exercício 4.20 Seja 𝑇 ∶ ℝ𝑛 → ℝ𝑚 uma aplicação linear. Mostre que (𝑇 ∗ )∗ = 𝑇.


Exercício 4.21 No Exemplo 4.50, considere 𝑇 ∶ ℂ2 → ℂ2 , isto é, suponha que 𝑎, 𝑏, 𝑐, 𝑑 ∈ ℂ.
Tomando o produto interno canônico em ℂ2 , calcule a adjunta da matriz 𝑇ℰ .

Proposição 4.51 Sejam ℬ = {𝑤1 , … , 𝑤𝑛 } e 𝒞 = {𝑧1 , … , 𝑧𝑚 } bases or-


tonormais dos espaços 𝐸 e 𝐹, respectivamente, e 𝑇 ∶ 𝐸 → 𝐹 linear. Então

(𝑇 ∗ )ℬ
𝒞
𝒞 ∗
= (𝑇ℬ ) .

𝒞
Demonstração: Denotamos por 𝐴 = (𝛼𝑖𝑗 ) e 𝐵 = (𝛽𝑖𝑗 ) as matrizes 𝑇ℬ e
∗ ℬ
[𝑇 ]𝒞 , respectivamente. De acordo com o Teorema 4.45, temos que 𝛽𝑖𝑗 =
⟨𝑇 ∗ 𝑧𝑗 , 𝑤𝑖 ⟩, de modo que

𝛽𝑖𝑗 = ⟨𝑇 ∗ 𝑧𝑗 , 𝑤𝑖 ⟩ = ⟨𝑤𝑖 , 𝑇 ∗ 𝑧𝑗 ⟩ = ⟨𝑇 𝑤𝑖 , 𝑧𝑗 ⟩ = 𝛼𝑗𝑖 .

Em outras palavras, 𝐵 é a matriz transposta conjugada da matriz 𝐴, isto é,


𝐵 = 𝐴∗ ou, o que é o mesmo, [𝑇 ∗ ]ℬ𝒞
= ([𝑇 ]𝒞

)∗ . 
114 CAPÍTULO 4. APLICAÇÕES LINEARES

Exemplo 4.52 Seja 𝑇 ∶ ℂ3 → ℂ3 definida por

𝑇 (𝑥1 , 𝑥2 , 𝑥3 ) = (𝑖𝑥1 + 3𝑥2 − 4𝑥3 , −6𝑥2 + (1 + 𝑖)𝑥3 , −8𝑥1 + (3 + 𝑖)𝑥2 ).

Vamos encontrar 𝑇 ∗ . Para isso, achamos a representação de 𝑇 na base canô-


nica do ℂ3 :
⎛ 𝑖 3 −4 ⎞
𝐴 = 𝑇ℰ = 0 −6 1 + 𝑖⎟ .

⎜ ⎟
⎝−8 3 + 𝑖 0 ⎠
Aplicamos a Proposição 4.51 e obtemos

⎛ −𝑖 0 −8 ⎞
𝐴∗ = 𝐴𝒕̄ = ⎜ 3 −6 3 − 𝑖⎟ ,
⎜ ⎟
⎝−4 1 − 𝑖 0 ⎠

que implica que

𝑇 ∗ (𝑥1 , 𝑥2 , 𝑥3 ) = (−𝑖𝑥1 − 8𝑥3 , 3𝑥1 − 6𝑥2 + (3 − 𝑖)𝑥3 , −4𝑥1 + (1 − 𝑖)𝑥2 ).


Proposição 4.53 Sejam 𝐸, 𝐹 , 𝐺 espaços com produto interno, 𝑆, 𝑇 ∶ 𝐸 →


𝐹 e 𝑅 ∶ 𝐹 → 𝐺 aplicações lineares e 𝜆 ∈ 𝕂. Então vale:

(𝑖) I∗ = I;
(𝑖𝑖) (𝑆 + 𝑇 )∗ = 𝑆 ∗ + 𝑇 ∗ ;
̄ ∗;
(𝑖𝑖𝑖) (𝜆𝑇 )∗ = 𝜆𝑇
(𝑖𝑣) se dim 𝐹 < ∞, então (𝑅𝑇 )∗ = 𝑇 ∗ 𝑅∗ ;

(𝑣) (𝑇 ∗ )∗ = 𝑇;
(𝑣𝑖) se 𝐹 = 𝐸 e 𝑇 ou 𝑇 ∗ for invertível, então (𝑇 −1 )∗ = (𝑇 ∗ )−1 .
Demonstração: As provas dos resultados afirmados são muito semelhan-
tes. Faremos apenas algumas delas.
(𝑖𝑖) Para todos 𝒙 ∈ 𝐸 e 𝒚 ∈ 𝐹, vale: ⟨(𝑆 +𝑇 )𝒙, 𝒚⟩ = ⟨𝑆𝒙, 𝒚⟩+⟨𝑇 𝒙, 𝒚⟩ =
⟨𝒙, 𝑆 ∗ 𝒚⟩+⟨𝒙, 𝑇 ∗ 𝒚⟩ = ⟨𝒙, (𝑆 ∗ +𝑇 ∗ )𝒚⟩. A unicidade da adjunta garante então
que (𝑆 + 𝑇 )∗ = 𝑆 ∗ + 𝑇 ∗ .
(𝑣) Para 𝒙 ∈ 𝐸 e 𝒚 ∈ 𝐹 temos ⟨𝑇 ∗ 𝒚, 𝒙⟩ = ⟨𝒙, 𝑇 ∗ 𝒚⟩ = ⟨𝑇 𝒙, 𝒚⟩ =
⟨𝒚, 𝑇 𝒙⟩. A unicidade da adjunta garante o afirmado.
Suponhamos que exista 𝑇 −1 . Então, tomando a adjunta em 𝑇 𝑇 −1 = I =
𝑇 𝑇 e, aplicando (𝑣), obtemos (𝑇 −1 )∗ 𝑇 ∗ = I = 𝑇 ∗ (𝑇 −1 )∗ . O caso em que
−1

existe (𝑇 ∗ )−1 é análogo, provando (𝑣𝑖). 

4.9 Decomposições Ortogonais de Espaços


A demonstração simples do próximo resultado está em oposição à sua
importância...

Teorema 4.54 Sejam 𝐸, 𝐹 espaços com produto interno, ambos de dimen-


são finita, e 𝑇 ∶ 𝐸 → 𝐹 uma aplicação linear. Então vale:

(𝑖) ker 𝑇 ∗ = (im 𝑇 )⟂ ;


4.9. DECOMPOSIÇÕES ORTOGONAIS DE ESPAÇOS 115

(𝑖𝑖) ker 𝑇 = (im 𝑇 ∗ )⟂ ;

(𝑖𝑖𝑖) im 𝑇 ∗ = (ker 𝑇 )⟂ ;

(𝑖𝑣) im 𝑇 = (ker 𝑇 ∗ )⟂ ;

(𝑣) posto 𝑇 = posto 𝑇 ∗ .

Em particular, valem as decomposições ortogonais6

𝐸 = ker 𝑇 ∗ ⊕ im 𝑇 e 𝐹 = ker 𝑇 ⊕ im 𝑇 ∗ .

ker T ker T 

✂ ✂ ✂ ✂
✂ im T  ✂ ✂ im T ✂
✂ ✂
T ✂ ✂
✂ ✂ ✛ ✂ ✂
✂ ✂ ✂ ✂
✂ ✂ ✲ ✂ ✂
✂  ✂ ✂  ✂
✂ ✂ T ✂ ✂
✂ ✂ ✂ ✂
✂ ✂ ✂ ✂
✂ ✂ ✂ ✂
✂ ✂ ✂ ✂
E F

Figura 4.2: As aplicações 𝑇 e 𝑇 ∗ decompõem ortogonalmente os espaços


𝐸 e 𝐹.

Demonstração: As demonstrações são muito semelhantes. A afirmação (𝑖)


mostra-se assim:
𝒚 ∈ ker 𝑇 ∗ ⇔ 𝑇 ∗ 𝒚 = 0 ⇔ ⟨𝒙, 𝑇 ∗ 𝒚⟩ = 0 ∀ 𝒙 ∈ 𝐸
⇔ ⟨𝑇 𝒙, 𝒚⟩ = 0 ∀ 𝒙 ∈ 𝐸 ⇔ 𝒚 ⟂ im 𝑇 .

Do mesmo modo mostra-se (𝑖𝑖). As relações (𝑖𝑖𝑖) e (𝑖𝑣) são obtidas


passando-se ao complementar ortogonal.
Finalmente, (𝑣) decorre de

posto 𝑇 ∗ = dim(im 𝑇 ∗ ) = dim(ker 𝑇 )⟂ = dim 𝐸 − dim(ker 𝑇 )


= dim(im 𝑇 )
= posto 𝑇 . 

Corolário 4.55 (Alternativa de Fredholm)


Sejam 𝐸 um espaço com produto interno de dimensão finita e 𝑇 ∶ 𝐸 →
𝐸 um operador. Consideremos as seguintes equações:

𝑇 𝒙 = 𝒚, 𝑇 ∗𝒖 = 𝒗 (4.17)
6
Observe que, em 𝐸 = ker 𝑇 ∗ ⊕ im 𝑇, a notação ⊕ é insatisfatória, uma vez que a orto-
gonalidade entre os subespaços ker 𝑇 ∗ e im 𝑇 é informação primordial da afirmação. Assim,
vamos salientar a ortogonalidade dos espaços envolvidos em uma soma direta dizendo que
ela é ortogonal.
116 CAPÍTULO 4. APLICAÇÕES LINEARES

e
𝑇 𝒙 = 0, 𝑇 ∗ 𝒖 = 0. (4.18)
Então

(𝑖) ou as equações em (4.17) têm solução para quaisquer 𝒙, 𝒚, 𝒖, 𝒗 ∈ 𝐸;7

(𝑖𝑖) ou as equações em (4.18) possuem exatamente o mesmo número de


soluções linearmente independentes. Se 𝒙 ∈ ker 𝑇 e 𝒖 ∈ ker 𝑇 ∗ ,
então ⟨𝒖, 𝒚⟩ = 0 e ⟨𝒙, 𝒗⟩ = 0 para quaisquer 𝒚 ∈ im 𝑇 e 𝒗 ∈ im 𝑇 ∗ .

Demonstração: Suponhamos que 𝑇 𝒙 = 𝒚 tenha solução para quaisquer


𝒙, 𝒚 ∈ 𝐸. Isso que dizer que im 𝑇 = 𝐸 = ker(𝑇 ∗ )⟂ e, portanto, ker 𝑇 ∗ =
{0}. Isso implica que im 𝑇 ∗ = 𝐸. Analogamente, im 𝑇 ∗ = 𝐸 implica
im 𝑇 = 𝐸.
Se (4.17) não ocorrer, temos dim(ker 𝑇 ) = dim(ker 𝑇 ∗ ) como con-
sequência do Teorema 4.54(𝑣). Aplicando o Teorema 4.54 no caso 𝐸 = 𝐹,
concluímos a afirmação restante. 

4.10 Exercícios

1. (aplic linear - proposto no corpo do texto. Tirar?) Sejam ℬ = {𝒖1 , … , 𝒖𝑛 } uma base do ℝ𝑛
e 𝑆, 𝑇 ∶ ℝ𝑛 → ℝ𝑚 aplicações lineares. Mostre que, se 𝑆(𝒖𝑖 ) = 𝑇 (𝒖𝑖 ) = 𝑤𝑖 ∈ ℝ𝑚 para todo
𝑖 ∈ {1, … , 𝑛}, então 𝑆 = 𝑇.
2. (aplic linear) Considere a base ℬ = {𝒗1 = (1, 1, 0), 𝒗2 = (1, 2, 0), 𝒗3 = (1, 1, 1)} do ℝ3 .
Ache a aplicação linear 𝑇 ∶ ℝ3 → ℝ4 tal que 𝑇 𝒗1 = (1, 0, 0, 0), 𝑇 𝒗2 = (0, 0, 0, 1) e 𝑇 𝒗3 =
(1, 1, 1, 1).
3. (projeção) Sejam 𝑋 um espaço vetorial e ∶ 𝑋 → 𝑋 um operador linear satisfazendo 2 = ( é
uma projeção). Sejam 𝑈 = im e 𝑊 = ker . Mostre:
(a) 𝒖 = 𝒖 para todo 𝒖 ∈ 𝑈;
(b) se ≠ I, então 𝑊 ≠ {0};
(c) 𝑋 = 𝑈 ⊕ 𝑊.
4. (t.n.i.) Sejam 𝑋, 𝑌 espaços vetoriais e 𝑇 ∶ 𝑋 → 𝑌 uma aplicação linear. Se {𝒗1 , … , 𝒗𝑘 } ⊂ 𝑋
for tal que {𝑇 𝒗1 , … , 𝑇 𝒗𝑘 } é linearmente independente, conclua que {𝒗1 , … , 𝒗𝑘 } é linear-
mente independente.
5. (núcleo e imagem) Dê exemplos de operadores lineares 𝑇 ∶ ℝ3 → ℝ3 tais que
(a) ker 𝑇 = {𝑥 ∈ ℝ3 ∶ 𝑥3 = −𝑥1 };
(b) im 𝑇 = {𝑥 ∈ ℝ3 ∶ 𝑥1 = 𝑥2 }.
6. (teorema do núcleo e da imagem) Mostre que uma matriz quadrada 𝐴 tem inversa se, e so-
mente se, o sistema 𝐴𝒙 = 0 só possuir a solução trivial.
7. (t.n.i.) Seja 𝐴 uma matriz 𝑛 × 𝑛. Mostre que 𝐴 possui inversa se, e somente se, suas colunas
𝑐1 , … , 𝑐𝑛 ∈ 𝕂𝑛 forem vetores linearmente independentes.
8. (teorema do núcleo e da imagem) Seja 𝐴 ∈ 𝕄𝑛×𝑛 (𝕂). Utilizando o Teorema do Núcleo e da
Imagem e o Exercício 6, mostre a equivalência das seguintes afirmações:8
7
Claro que, então, ambas as equações em (4.18) possuem apenas a solução trivial.
8
Compare com a Proposição 1.41.
4.10. EXERCÍCIOS 117

(a) existe uma matriz 𝐵, 𝑛 × 𝑛, tal que 𝐵𝐴 = I;


(b) a matriz 𝐴 é invertível.
9. (t.n.i.) Escolhendo as bases canônicas dos respectivos espaços, interprete o Corolário 4.13
em termos de um sistema homogêneo 𝐴𝒙 = 0.
10. (núcleo e imagem) Seja 𝑇 ∶ ℝ𝑛 → ℝ𝑚 uma aplicação linear. Mostre que 𝑇 é injetora se, e
somente se, a imagem de todo conjunto linearmente independente (no ℝ𝑛 ) for um conjunto
linearmente independente (no ℝ𝑚 ).
11. (composição de operadores - não isomorfismo - tni) Considere o espaço 𝒫 (𝑡) e o operador 𝑅
definido no Exemplo 4.15. Defina também 𝐿 ∶ 𝒫 (𝑡) → 𝒫 (𝑡) por

𝐿𝒑 = 𝐿(𝑎0 + 𝑎1 𝑡 + 𝑎2 𝑡2 + … + 𝑎𝑚 𝑡𝑚 ) = 𝑎1 + 𝑎2 𝑡 + … + 𝑎𝑚 𝑡𝑚−1 ∈ 𝒫 (𝑡).

(a) Mostre que 𝐿𝑅 = I;


(b) mostre que 𝐿 é sobrejetor, mas não é injetor;
(c) mostre que 𝑅𝐿 ≠ I.
12. (representação matricial) Considere as aplicações do ℝ2

1∶ ℝ2 → ℝ 2 2∶ ℝ2 → ℝ 2
(a) (b)
1 (𝑥1 , 𝑥2 ) = (𝑥1 , 0) 1 (𝑥1 , 𝑥2 ) = (0, 𝑥2 )

𝑅1 ∶ ℝ 2 → ℝ 2 𝑅2 ∶ ℝ 2 → ℝ 2
(c) (d) .
𝑅1 (𝑥1 , 𝑥2 ) = (𝑥1 , −𝑥2 ) 𝑅2 (𝑥1 , 𝑥2 ) = (−𝑥1 , 𝑥2 )
Mostre que cada uma dessas aplicações é linear e encontre sua representação matricial (com
relação à base canônica do ℝ2 ). Interprete-as geometricamente.
13. (representação matricial - mudança de base) Considere o operador 𝐴 ∶ 𝕂3 → 𝕂3 definido
pela matriz
⎛1 3 1 ⎞
⎜2 7 4 ⎟ .
⎜ ⎟
⎝1 4 3 ⎠
Encontre a matriz que representa esse operador na base ℬ = {(1 1 1)𝒕 , (0 1 1)𝒕 , (1 2 3)𝒕 }.
14. (Representação em uma base) Considere o operador linear 𝑇 ∶ ℝ2 → ℝ2 , definido por 𝑇 (𝑥1 , 𝑥2 ) =
(−𝑥1 , 𝑥2 ). Mostre que 𝑇 é invertível. Escolha bases ℬ no domínio e 𝒞 no contradomínio de
𝒞
modo que 𝑇ℬ seja a matriz identidade.
15. (Mudança de base) Considere o operador linear 𝐴 ∶ ℝ3 → ℝ3 definido por meio da matriz

⎛3 −1 −2 ⎞
𝐴 = ⎜0 0 −2 ⎟ .
⎜ ⎟
⎝0 0 −1 ⎠

Seja ℬ = {𝒗1 = (1, 0, 0), 𝒗2 = (1, 2, 0), 𝒗3 = (0, −2, 1)}.


(a) Mostre que ℬ é uma base do ℝ3 ;
(b) Calcule 𝐵 = 𝑇ℬ ;

(c) Calcule as matrizes mudança de base 𝑃ℬ e 𝑃ℰℬ
(d) Escreva 𝐵 em termos de 𝐴 utilizando essas matrizes mudança de base.
16. (representação em uma base, mudança de base) Seja ℬ = {(1 −4) , (−2 9))}. Então ℬ
é uma base do ℝ2 . Encontre a aplicação linear 𝑇 ∶ ℝ2 → ℝ2 determinada pela representação
de um vetor 𝒙 na base ℬ.
118 CAPÍTULO 4. APLICAÇÕES LINEARES

17. Generalizando o exercício anterior, seja ℬ = {𝑣1 , … , 𝑣𝑛 } uma base do 𝕂𝑛 . Determine a


matriz 𝐴 que representa a aplicação linear 𝑥 ↦ [𝑥]ℬ .
18. (mudança de base, composta) Seja 𝑇 ∶ ℝ3 → ℝ3 a aplicação linear definida por

𝑇 (𝑥1 , 𝑥2 , 𝑥3 ) = (𝑥1 + 𝑥2 + 2𝑥3 , 𝑥2 + 2𝑥3 , 𝑥3 ).

(a) Ache 𝐴 = 𝑇ℰ , em que ℰ é a base canônica do ℝ3 ;


(b) Calcule 𝐴−1 ;
(c) Obtenha então a expressão de 𝑇 −1 .
19. (composição de operadores) Dê exemplo de operadores 𝑆, 𝑇 ∶ ℝ2 → ℝ2 tais que 𝑆𝑇 = 0
mas 𝑇 𝑆 ≠ 0, em que 0 denota o operador identicamente nulo.
20. (espaço linha espaço coluna) Escreva a equação

⎛1⎞ ⎛1⎞ ⎛2⎞ ⎛3⎞


⎜2⎟ = 𝑥1 ⎜2⎟ + 𝑥2 ⎜5⎟ + 𝑥3 ⎜2⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝3⎠ ⎝3⎠ ⎝8⎠ ⎝3⎠
na forma de um sistema não homogêneo 𝐴𝒙 = 𝒃. Resolva-o, se esse sistema possuir solução.
21. (espaço linha e espaço coluna) Encontre bases para o espaço linha e para o espaço coluna da
matriz 𝐴, dada por

⎛1 2 1 1⎞ ⎛1 2 1 1⎞
⎛ 1 −2 1⎞
⎜2 1 2 1⎟
(a) ⎜2 1 2 1⎟ ; (b) ⎜ ⎜
(c) 2 1 −2⎟ .
⎜ ⎟ 0 1 1 0⎟ ⎜ ⎟
⎝0 1 1 0⎠ ⎜ ⎟ ⎝ 0 −1 1⎠
⎝1 0 0 0⎠

22. (espaço linha e espaço coluna) Encontre bases para o núcleo e imagem da matriz

⎛1 2 2 3 1 4⎞
⎜2 4 5 5 4 9⎟ .
⎜ ⎟
⎝3 6 7 8 5 9⎠
Determine o posto dessa matriz.
23. (espaço linha espaço coluna) Sejam 𝐴, 𝐵 matrizes 𝑛 × 𝑛. Mostre que 𝐴𝐵 = 0 se, e somente
se, o espaço coluna de 𝐵 estiver contido no núcleo de 𝐴.
24. (Teorema de Riesz) Seja ℓ ∶ ℝ3 → ℝ um funcional linear.
(a) Mostre que existem escalares 𝑎, 𝑏 e 𝑐 tais que ℓ(𝑥1 , 𝑥2 , 𝑥3 ) = 𝑎𝑥1 + 𝑏𝑥2 + 𝑐𝑥3 ;
(b) Descreva geometricamente todas as possibilidade para ker ℓ.
25. (Mudança de base ortogonal) Sejam 𝑇 (𝑥, 𝑦, 𝑥) = (𝑥+𝑦+𝑧, 𝑦+𝑧, 𝑥) e ℬ = {(1, 0, 1), (0, 1, 0), (−1, 0, 1)}.
Então:
(a) ache a matriz 𝑇ℬ ;
(b) usando essa matriz, especifique uma base para ker 𝑇 e im 𝑇;
(c) calcule 𝑇 (1, 1, 1) utilizando a representação matricial calculada em (𝑎).
26. Sejam 𝑡0 , 𝑡1 , … , 𝑡𝑛 números reais distintos. Considere o espaço 𝒫𝑛+1 (𝑡) de todos os polinô-
mios com coeficientes reais e grau menor do que ou igual a 𝑛. Para 𝒑, 𝒒 ∈ 𝒫𝑛+1 (𝑡), defina

⟨𝒑, 𝒒⟩ = 𝒑(𝑡0 )𝒒(𝑡0 ) + 𝒑(𝑡1 )𝒒(𝑡1 ) + … + 𝒑(𝑡𝑛 )𝒒(𝑡𝑛 ).


4.10. EXERCÍCIOS 119

(a) Mostre que ⟨⋅, ⋅⟩ define um produto interno em 𝒫𝑛+1 (𝑡);


(b) em 𝒫5 (𝑡), considere os pontos 𝑡0 = −2, 𝑡1 = −1, 𝑡2 = 0, 𝑡3 = 1 e 𝑡4 = 2. Construa
uma base ortogonal para o espaço 𝒫3 (𝑡) aplicando o processo de Gram-Schmidt aos
polinômios 𝒑1 = 1, 𝒑2 = 𝑡 e 𝒑2 = 𝑡2 ;
(c) No espaço 𝒫5 (𝑡), encontre a melhor aproximação do polinômio 𝒑 = 5 − (1/2)𝑡4 por
polinômios em 𝒫3 (𝑡).
27. (Riesz) Considere o espaço 𝒫 (𝑡) ⊂ 𝐶([0, 1]), ℝ) de todos os polinômios em 𝑡 com coeficien-
tes reais. Em 𝒫 (𝑡) considere o produto interno
1
⟨𝒑, 𝒒⟩ = 𝒑(𝑡) 𝒒(𝑡) d𝑡.
∫0

(Veja o Exemplo 3.5.)


(a) Verifique que 𝜙 ∶ 𝒫 (𝑡) → 𝕂 definido por 𝜙(𝒑) = 𝒑(0) define um funcional linear;
(b) suponha que exista um polinômio 𝒓 ∈ 𝒫 (𝑡) tal que

𝜙(𝒑) = ⟨𝒑, 𝒓⟩

para todo 𝒑 ∈ 𝒫 (𝑡). Conclua que 𝜙(𝑡𝒒) = 0 para todo polinômio 𝒒(𝑡) ∈ 𝒫 (𝑡);
(c) escolha 𝒒 = 𝑡𝒓 e obtenha uma contradição.
28. (adjunta) Considere o operador linear 𝑇 ∶ ℂ3 → ℂ3 definido por

𝑇 (𝑧1 , 𝑧2 , 𝑧3 ) = (2𝑧1 + (1 − 𝑖)𝑧2 , (3 + 2𝑖)𝑧1 − 4𝑖𝑧3 , 2𝑖𝑧1 + (4 − 3𝑖)𝑧2 − 3𝑧3 ).

Determine 𝑇 ∗ .
29. Sejam 𝐸, 𝐹 espaços com produto interno, ambos de dimensão finita.
(a) Mostre que ker(𝑇 ∗ 𝑇 ) = ker 𝑇;
(b) se 𝑇 for injetora, mostre que 𝑇 ∗ 𝑇 possui inversa;
(c) mostre que im 𝑇 ∗ = im (𝑇 ∗ 𝑇 );
(d) se 𝑇 ∗ for sobrejetora, mostre que 𝑇 𝑇 ∗ possui inversa.
30. (adjunta) Seja 𝑇 ∶ 𝐸 → 𝐸 um operador linear no espaço com produto interno de dimensão
finita 𝐸. Se 𝑇 𝑇 ∗ = 𝑇 ∗ 𝑇 mostre que ‖𝑇 𝒙‖ = ‖𝑇 ∗ 𝒙‖ para todo 𝒙 ∈ 𝐸.
31. (adjunta - invariância de subespaço) Sejam 𝐸 um espaço com produto interno de dimensão
finita e 𝑇 ∶ 𝐸 → 𝐸 um operador linear. Suponha que 𝑊 ⊂ 𝐸 seja um subespaço satisfazendo
𝑇 (𝑊 ) ⊂ 𝑊. Mostre que 𝑇 ∗ (𝑊 ⟂ ) ⊂ 𝑊 ⟂ .
32. (adjunta) Seja 𝐸 um espaço complexo com produto interno. Mostre que, se 𝐸 tiver dimensão
finita e 𝑇 ∶ 𝐸 → 𝐸 satisfizer ⟨𝑇 𝒖, 𝒖⟩ = 0 para todo 𝒖 ∈ 𝐸, então 𝑇 = 0. Dê um exemplo
mostrando que esse resultado pode ser falso se 𝐸 for um espaço real.
33. (adjunta) Sejam 𝐸 um espaço com produto interno de dimensão finita e 𝑇 ∶ 𝐸 → 𝐸 um
operador linear satisfazendo 𝑇 ∗ = 𝑇. Mostre que, se ⟨𝑇 𝒖, 𝒖⟩ = 0 para todo 𝒖 ∈ 𝐸, então
𝑇 = 0. (Compare com o Exercício 32.)
34. (adjunta) Seja 𝑇 ∶ 𝐸 → 𝐸 um operador em um espaço com produto interno de dimensão
finita. Mostre que as seguintes afirmações são equivalentes:
(a) ⟨𝑇 𝒖, 𝑇 𝒗⟩ = ⟨𝒖, 𝒗⟩ para quaisquer 𝒖, 𝒗 ∈ 𝐸;
(b) 𝑇 leva toda base ortonormal em base ortonormal;
(c) existe uma base ortonormal ℬ = {𝒗1 , 𝒗2 , … , 𝒗𝑛 } tal que {𝑇 𝒗1 , 𝑇 𝒗2 , … , 𝑇 𝒗𝑛 } é uma
base ortonormal de 𝐸.
120 CAPÍTULO 4. APLICAÇÕES LINEARES

35. (adjunta) Sejam ℬ = {𝒗1 , 𝒗2 , … , 𝒗𝑛 } e ℬ ′ = {𝒖1 , 𝒗2 , … , 𝒖𝑛 } bases ortonormais de 𝐸.


ℬ′
Mostre que a matriz mudança de base 𝑃 = 𝑃ℬ satisfaz 𝑃 ∗ = 𝑃 −1 .
36. (adjunta) Sejam 𝐸 um espaço com produto interno de dimensão finita e 𝑈 ∶ 𝐸 → 𝐸 um
operador linear. Mostre que as três condições seguintes são equivalentes:
(a) 𝑈 ∗ = 𝑈 −1 ;
(b) ⟨𝑈 𝒖, 𝑈 𝒗⟩ = ⟨𝒖, 𝒗⟩;
(c) ‖𝑈 𝒖‖ = ‖𝒖‖.
37. (adjunta e decomposições ortogonais) Seja 𝑇 ∶ 𝕂4 → 𝕂4 definida por 𝑇 𝒙 = 𝐴𝒙, sendo 𝐴 a
matriz
⎛1 0 0 1⎞
⎜0 1 1 1⎟
𝐴=⎜ .
0 1 0 1⎟
⎜ ⎟
⎝1 1 1 1⎠
Encontre bases para os subespaços ker 𝑇, im 𝑇, ker 𝑇 ∗ e im 𝑇 ∗ .
38. (adjunta e decomposições ortogonais) Considere o sistema homogêneo 𝐴𝒙 = 0. Mostre que
ker 𝐴 = < ℒ >⟂ , em que ℒ é o espaço linha da matriz 𝐴.
Capítulo 5

Diagonalização

Objetivos: No final do capítulo o aluno deve:

1. saber caracterizar operadores diagonalizáveis em termos de seus au-


tovetores;

2. saber encontrar uma representação diagonal de um operador linear


em um espaço de dimensão finita.

5.1 Subespaços Invariantes


Dada uma aplicação linear 𝑇 ∶ 𝑋 → 𝑌 entre espaços de dimensão finita,
já vimos que a escolha de bases ℬ no domínio e 𝒞 no contradomínio pode
𝒞
fazer com que a representação matricial 𝑇ℬ se torne bastante simples (veja
a Observação 4.20 e o Exercício 14 do Capítulo 4). Mas essa simplicidade
tem um preço: desprezar informações importantes fornecidas por 𝑇, como
mostrado naquele exercício.
Aqui, sendo 𝑋 um espaço de dimensão finita, restringiremos nossa aten-
ção à obtenção de uma representação matricial simples do operador 𝑇 ∶ 𝑋 →
𝑋, representação essa que contenha informações importantes fornecidas por
𝑇. Para isso, consideraremos uma única base ℬ, utilizada tanto no domínio
quanto no contradomínio, e tentaremos obter uma forma simples para 𝑇ℬ .
Dependendo de nossos objetivos, existem várias maneiras para se fazer
isso. Neste texto restringiremos nossa atenção a operadores que podem ser
representados por uma matriz diagonal. Embora não seja válida para todos
os operadores lineares, a representação diagonal de um operador é muito
importante.

Definição 5.1 Seja 𝑇 ∶ 𝑋 → 𝑋 um operador linear e 𝑊 um subespaço.


Dizemos que 𝑊 é invariante por 𝑇 se 𝑇 (𝑊 ) ⊂ 𝑊.

Note que se 𝑊 ⊂ 𝑋 for invariante por 𝑇, podemos considerar a restrição


𝑇 |𝑊 , isto é, a aplicação 𝑇 ∶ 𝑊 → 𝑊.

Exemplo 5.2 Suponhamos que, para alguma aplicação linear 𝑇 ∶ 𝑋 → 𝑋,


tenhamos 𝑇 𝒗 = 𝜆𝒗, para 𝒗 ∈ 𝑋 e 𝜆 ∈ 𝕂. Considere 𝑊 = < 𝒗 >, o espaço
gerado por 𝒗. Se 𝒘 ∈ 𝑊, então 𝒘 = 𝜇𝒗 para algum escalar 𝜇 ∈ 𝕂. Como
𝑇 (𝜇𝒗) = 𝜇𝑇 𝒗 = (𝜇𝜆)𝒗 ∈ 𝑊, vemos que 𝑊 é invariante por 𝑇. ⊲

121
122 CAPÍTULO 5. DIAGONALIZAÇÃO

O próximo resultado é bastante importante:

Proposição 5.3 Sejam 𝐸 um espaço com produto interno de dimensão fi-


nita e 𝑊 ⊂ 𝐸 um subespaço. Se 𝑊 for invariante pelo operador 𝑇 ∶ 𝐸 →
𝐸. Então 𝑊 ⟂ é invariante por 𝑇 ∗ .

Demonstração: Sejam 𝒙 ∈ 𝑊 e 𝒚 ∈ 𝑊 ⟂ . Então 0 = ⟨𝑇 𝒙, 𝒚⟩ = ⟨𝒙, 𝑇 ∗ 𝒚⟩.


Assim, 𝑇 ∗ 𝒚 é perpendicular a 𝒙 para todo 𝒙 ∈ 𝑊. Logo, 𝑇 ∗ 𝒚 ∈ 𝑊 ⟂ . 

A hipótese de 𝐸 ter dimensão finita foi apenas utilizada para garantir a


existência de 𝑇 ∗ .
5.2 Autovalores e Autovetores
Definição 5.4 Duas matrizes 𝐴 e 𝐵 são semelhantes, se existir uma matriz
invertível 𝑃 tal que 𝐵 = 𝑃 −1 𝐴𝑃.

Lema 5.5 Matrizes semelhantes possuem o mesmo determinante.

Demonstração: Temos

det 𝐵 = det(𝑃 −1 𝐴𝑃 ) = det 𝑃 −1 det 𝐴 det 𝑃


= det 𝐴 det(𝑃 −1 𝑃 ) = det 𝐴 det I
= det 𝐴. 

Exercício 5.1 Interprete, em termos de mudança de base, a semelhança de matrizes. Nesses ter-
mos, qual é a relação entre as matrizes 𝐴 e 𝐵?
O exercício anterior torna possível a seguinte definição:

Definição 5.6 Seja 𝑇 ∶ 𝑋 → 𝑋 uma aplicação linear. Definimos



det 𝑇 = det 𝑇ℬ = det 𝑇ℬ ,

em que ℬ é qualquer base do espaço 𝑋.

Exemplo 5.7 Considere o operador linear 𝑇 ∶ ℝ2 → ℝ2 definido por

𝑇 (𝑥1 , 𝑥2 ) = (2𝑥1 + 3𝑥2 , 4𝑥1 − 5𝑥2 ).

Para obter det 𝑇, escolhemos uma base ℬ e encontramos a matriz 𝑇ℬ . Por


exemplo, se ℬ = {𝒗1 = (1, 2), 𝒗2 = (2, 5)}, então (verifique!)

52 129
𝑇ℬ = .
( −22 −55 )

Então verificamos que det 𝑇ℬ = −22.


Se tivéssemos escolhido a base canônica ℰ, teríamos (verifique!)

2 3
𝑇ℰ =
( 4 −5 )

e det 𝑇ℰ também é igual a −22. ⊲


5.2. AUTOVALORES E AUTOVETORES 123

Definição 5.8 Seja 𝑇 ∶ 𝑋 → 𝑋 um operador linear sobre o corpo 𝕂. O


polinômio
𝑝(𝜆) = det(𝜆I − 𝑇 )

é o polinômio característico de 𝑇. As raízes 𝜆𝑖 ∈ 𝕂 desse polinômio são


os autovalores de 𝑇. Os elementos não nulos de ker(𝜆𝑖 I − 𝑇 ) são os auto-
vetores associados ao autovalor 𝜆𝑖 , ou simplesmente autovetores de 𝑇. O
autoespaço 𝑋𝜆𝑖 associado ao autovalor 𝜆𝑖 é definido por

𝑋𝜆𝑖 = ker(𝜆𝑖 I − 𝑇 ) = {𝒙 ∈ 𝑋 ; (𝜆𝑖 I − 𝑇 )𝒙 = 0} .

Alguns comentários são pertinentes. Exigimos que um autovetor seja


não nulo: se aceitássemos 0 como um autovetor, como 𝑇0 = 𝜆0 para todo
𝜆 ∈ 𝕂, teríamos que concluir que qualquer escalar 𝜆 seria um autovalor.
Dizer que 𝜆𝑖 ∈ 𝕂 é um autovalor de 𝑇 é garantir a existência de 𝒗 ≠ 0
no espaço 𝑋 tal que (𝜆𝑖 I − 𝑇 )𝒗 = 0. Assim, um autovetor associado ao
autovalor 𝜆𝑖 ∈ 𝕂 é um vetor não nulo pertencente a ker(𝜆𝑖 I − 𝑇 ) ⊂ 𝑋, ou,
o que é o mesmo, um vetor não nulo pertencente ao autoespaço 𝑋𝜆𝑖 .
A existência de um vetor não nulo 𝒗 tal que (𝜆𝑖 I−𝑇 )𝒗 = 0 implica que o
operador (𝜆𝑖 I − 𝑇 ) ∶ 𝑋 → 𝑋 não possui inversa. Como está bem definido o
determinante de um operador (Definição 5.6), devemos ter det(𝜆𝑖 I−𝑇 ) = 0.
A expressão 𝑝(𝜆) = det(𝜆I − 𝑇 ) define um polinômio mônico1 de grau 𝑛
na variável 𝜆. Segundo o Teorema Fundamental da Álgebra, um polinômio
de grau 𝑛 com coeficientes no corpo ℂ (e, portanto, também no corpo ℝ)
possui exatamente 𝑛 raízes complexas, contada a multiplicidade da raiz.2
Por esse motivo, a teoria de autovalores e autovetores é melhor desenvolvida
quando o corpo de escalares é o corpo dos complexos e não o corpo dos
reais. Veja, a esse respeito, o Exemplo 5.9.
É claro que se 𝒗 ∈ 𝑋 for um autovetor de 𝑇 associado ao autovalor
𝜆𝑖 ∈ 𝕂, então qualquer múltiplo escalar não nulo de 𝒗 continua sendo um
autovetor associado a 𝜆𝑖 . De fato, se 𝒘 = 𝜇𝒗 para algum escalar 𝜇 ≠ 0,
então
𝑇 𝒘 = 𝑇 (𝜇𝒗) = 𝜇𝑇 𝒗 = 𝜇(𝜆𝑖 𝒗) = 𝜆𝑖 (𝜇𝒗) = 𝜆𝑖 𝒘,

mostrando o afirmado.
Mas ao mesmo autovalor 𝜆𝑖 ∈ 𝕂 podem estar associados autovetores
𝒗, 𝒘 linearmente independentes. Um exemplo simples é dado pelo opera-
dor identidade I ∶ 𝕂𝑛 → 𝕂𝑛 , I𝒙 = 𝒙 para todo 𝒙. É fácil verificar que
qualquer vetor 0 ≠ 𝒙 ∈ 𝕂𝑛 é um autovetor associado ao autovalor 𝜆1 = 1.
Em particular, a base canônica é formada por autovetores associados ao au-
tovalor 𝜆1 = 1.
Podemos interpretar que um autovetor 𝒗 de 𝑇 define uma direção privi-
legiada do operador 𝑇: pontos na reta determinada por 𝒗 são levados por 𝑇
à essa mesma reta. Se tivermos dois autovetores linearmente independentes
associados ao mesmo autovalor 𝜆, então pontos do plano determinado por
esses dois autovetores serão levados nesse mesmo plano e assim por diante.
1
Isto é, o coeficiente do termo de maior grau é igual a 1.
2
Esse é o caso, por exemplo, do polinômio (de grau 𝑛) 𝑝(𝜆) = (𝜆 − 3)𝑛−2 (𝜆 − 𝑖)2 .
124 CAPÍTULO 5. DIAGONALIZAÇÃO

Os próximos exercícios agrupam propriedades do polinômio caracterís-


tico:

Exercício 5.2 Seja 𝐴 uma matriz 𝑛 × 𝑛. Mostre que: det(𝜆I − 𝐴) é um polinômio mônico de grau
𝑛 na variável 𝜆.
Exercício 5.3 Sejam 𝑋 um espaço de dimensão finita e 𝑇 ∶ 𝑋 → 𝑋 um operador linear. Mostre
que det(𝜆I − 𝑇 ) = det(𝜆I − 𝑇 )ℬ para qualquer base ℬ do espaço 𝑋, adaptando a demonstração do
Lema 5.5.
Exercício 5.4 Se 𝑇 ∶ 𝑋 → 𝑋 for um operador e dim 𝑋 = 𝑛, mostre que
det(𝑇 − 𝜆I) = (−1)𝑛 det(𝜆I − 𝑇 ).
O Exercício 5.3 enfatiza que, para calcular os autovalores de um ope-
rador 𝑇 ∶ 𝑋 → 𝑋 definido no espaço de dimensão finita 𝑋, basta escolher
uma base ℬ de 𝑋 e calcular o polinômio característico da representação
matricial 𝑇ℬ de 𝑇. (Isso já estava afirmado na Definição 5.6.)
Se dim 𝑋 = 𝑛, como o polinômio característico do operador 𝑇 ∶ 𝑋 →
𝑋 é especialmente importante por causa de suas raízes, é usual chamar de
polinômio característico de 𝑇 também ao polinômio det(𝑇 − 𝜆I), pois esse
possui as mesmas raízes de det(𝜆I − 𝑇 ), de acordo com o Exercício 5.4.
Exemplo 5.9 Considere 𝑇 ∶ 𝕂2 → 𝕂2 definida por
𝑇 (𝑥1 , 𝑥2 ) = (−𝑥2 , 𝑥1 ).
A representação de 𝑇 com relação à base canônica do 𝕂𝑛 é dada por
0 −1
𝑇ℰ = 𝐴 = ,
(1 0)
de modo que det(𝐴 − 𝜆I) = 𝜆2 + 1, pois
−𝜆 −1
(𝐴 − 𝜆I) = .
( 1 −𝜆)
Agora precisamos considerar dois casos distintos: se estivermos traba-
lhando no corpo dos reais (isto é, 𝕂𝑛 = ℝ), 𝜆2 + 1 = 0 não tem solução e 𝐴
(e, portanto 𝑇) não possui autovalores.
Por outro lado, no corpo dos complexos (isto é, 𝕂𝑛 = ℂ), 𝜆2 + 1 = 0
implica 𝜆 = ±𝑖 e 𝐴 (e, portanto, 𝑇) possui dois autovalores distintos.
Em outras palavras, os casos em que 𝕂 = ℝ e 𝕂 = ℂ são completamente
distintos. No caso real, não existem autovalores e, portanto, autovetores.
Continuando no caso 𝕂 = ℂ podemos calcular os autovetores associa-
dos aos autovalores 𝜆 = ±𝑖. Resolvemos o sistema homogêneo (𝐴 − 𝜆I)𝒙 =
0 ao obtermos a forma escalonada reduzida por linhas da matriz 𝐴 − 𝜆I:
−𝑖 −1 1 −𝑖
(𝐴 − 𝑖I) = → .
( 1 −𝑖) (0 0)
Denotando 𝒙 = (𝑥1 𝑥2 )𝒕 , então 𝑥1 = 𝑖𝑥2 , de modo que a solução geral
desse sistema homogêneo é dada por
𝑖𝑥2 𝑖
= 𝑥2 .
( 𝑥2 ) (1)
Quer dizer, (𝑖 1)𝒕 é um autovetor associado a 𝜆 = 𝑖.
5.2. AUTOVALORES E AUTOVETORES 125

Considerando agora o autovalor 𝜆 = −𝑖, cálculos análogos nos dão


𝑖 −1 1 𝑖
(𝐴 + 𝑖I) = →
(1 𝑖) (0 0)
e a solução geral do sistema homogêneo associado é dada por
−𝑖𝑥2 −𝑖
= 𝑥2 .
( 𝑥2 ) ( 1)

Quer dizer, (−𝑖 1)𝒕 é um autovetor associado a 𝜆 = 𝑖.


Considerando a base ordenada ℬ = {(𝑖 1)𝒕 , (−𝑖 1)𝒕 }, então a re-
presentação de 𝑇 na base ℬ é a matriz
𝑖 0
𝑇ℬ = .
(0 −𝑖)
Em outras palavras, na base formada por seus autovetores, 𝑇 é representado
por uma matriz bastante simples. ⊲

Exercício 5.5 Considere novamente a matriz


−𝜆 −1
(𝐴 − 𝜆I) = ,
( 1 −𝜆)
estudada no Exemplo 5.9. Escalonando essa matriz, mostre que 𝐴 não possui autovalores reais,
mas possui dois autovalores complexos distintos.

Exemplo 5.10 Considere 𝑇 ∶ ℝ4 → ℝ4 definida por


𝑇 (𝑥1 , 𝑥2 , 𝑥3 , 𝑥4 ) = (3𝑥1 −4𝑥2 +𝑥3 +𝑥4 , 2𝑥1 −6𝑥2 +2𝑥3 +2𝑥4 , 2𝑥3 +2𝑥4 , 𝑥3 +3𝑥4 ).
A representação de 𝑇 na base canônica do ℝ4 é dada por

⎛3 −4 1 1 ⎞ ⎛𝜆 − 3 4 −1 −1 ⎞
⎜2 −6 2 2 ⎟ ⎜ −2 𝜆 + 6 −2 −2 ⎟
𝑇ℰ = ⎜ ⇒ (𝜆I − 𝑇 )ℰ = ⎜
0 0 2 2⎟ 0 0 𝜆 − 2 −2 ⎟
⎜ ⎟ ⎜ ⎟
⎝0 0 1 3⎠ ⎝ 0 0 −1 𝜆 − 3⎠
que é uma matriz diagonal em blocos, com blocos diagonais
𝜆−3 4 𝜆 − 2 −2
𝜆I − 𝐴 = e 𝜆I − 𝐷 = .
( −2 𝜆 + 6) ( −1 𝜆 − 3)

Como sabemos (veja Introdução à Álgebra Linear, Teorema 1.28), o deter-


minante da matriz (𝜆I − 𝑇 )ℰ é obtido como o produto dos determinantes das
matrizes (𝜆I − 𝐴) e (𝜆I − 𝐷). Assim, vemos que o polinômio característico
de 𝑇 é o polinômio 𝑝(𝜆) = det(𝜆I − 𝑇 ) com
𝑝(𝜆) = det(𝜆I − 𝑇 ) = det(𝜆I − 𝑇 )ℰ
= det(𝜆I − 𝐴) det(𝜆I − 𝐷)
= (𝜆2 + 3𝜆 − 10)(𝜆2 − 5𝜆 + 4)
= (𝜆 − 2)(𝜆 + 5)(𝜆 − 1)(𝜆 − 4).
Desse modo, os autovalores de 𝑇 são −5, 1, 2 e 4. ⊲
126 CAPÍTULO 5. DIAGONALIZAÇÃO

Exercício 5.6 Encontre os autovetores do operador 𝑇 apresentado no Exemplo 5.10.


Exercício 5.7 Encontre os autovalores e autovetores da matriz

⎛1 1 1 1⎞
⎜0 2 3 4⎟
𝐴=⎜ .
0 0 3 3⎟
⎜ ⎟
⎝0 0 0 4⎠

5.3 Autovetores e Diagonalização


Neste seção mostraremos condições que estabelecem condições para
que um operador linear 𝑇 ∶ 𝑋 → 𝑋 possua como representação matricial
uma matriz diagonal.

Lema 5.11 Seja 𝑇 ∶ 𝑋 → 𝑋 um operador linear no espaço 𝑋, dim 𝑋 =


𝑛. Suponhamos a existência de uma decomposição do 𝑋 em 𝑛 subespaços
invariantes por 𝑇:

𝑋 = 𝑊1 ⊕ 𝑊2 ⊕ ⋯ ⊕ 𝑊𝑛 , dim 𝑊𝑖 = 1, 1 ≤ 𝑖 ≤ 𝑛. (5.1)

Então existe uma base ℬ do espaço 𝑋 tal que

⎛𝜆1 0 ⋯ 0⎞
⎜ 0 𝜆2 ⋯ 0⎟
𝑇ℬ =⎜ .
⋮ ⋮ ⋱ ⋮⎟
⎜ ⎟
⎝0 0 ⋯ 𝜆𝑛 ⎠

(Nesse caso, dizemos que 𝑇 é diagonalizável.)

Demonstração: Seja {𝒘𝑖 } uma base de 𝑊𝑖 . Então ℬ = {𝒘1 , … , 𝒘𝑛 } é


uma base do espaço 𝑋, de acordo com o Teorema 2.61 e Exercício 2.44.
Como 𝑇 (𝑊𝑖 ) ⊂ 𝑊𝑖 , existe 𝜆𝑖 ∈ 𝕂 tal que 𝑇 𝒘𝑖 = 𝜆𝑖 𝒘𝑖 . A representação de
𝑇 na base ℬ é a matriz diagonal dada. 

Observe que, no Lema 5.11, podemos ter 𝜆𝑖 = 𝜆𝑗 para 𝑖 ≠ 𝑗.

Exercício 5.8 Suponha que 𝕂𝑛 = 𝑊1 ⊕ 𝑊2 ⊕ ⋯ ⊕ 𝑊𝑛 seja uma decomposição de 𝕂𝑛 em 𝑛


subespaços 𝑊𝑖 . Conclua que dim 𝑊𝑖 = 1 para todo 1 ≤ 𝑖 ≤ 𝑛.
Se 𝑋 for um espaço de dimensão 𝑛 e se forem distintos todos os autova-
lores de 𝑇 ∶ 𝑋 → 𝑋, vamos mostrar que 𝑇 é diagonalizável.

Teorema 5.12 Se 𝒘𝑖 , 1 ≤ 𝑖 ≤ 𝑘, for um autovetor do operador linear


𝑇 ∶ 𝑋 → 𝑋 associado ao autovalor 𝜆𝑖 ∈ 𝕂, e se 𝜆𝑖 ≠ 𝜆𝑗 para 𝑖 ≠ 𝑗, então
o conjunto {𝒘1 , … , 𝒘𝑘 } é linearmente independente.

Demonstração: Faremos indução no número 𝑘 de elementos do conjunto


{𝒘1 , … , 𝒘𝑘 }. Se 𝑘 = 1, o resultado é óbvio. Suponhamos verdadeiro para
𝑘 − 1 vetores e consideremos o caso de 𝑘 vetores. Se

𝛼1 𝒘1 + 𝛼2 𝒘2 + … + 𝛼𝑘 𝒘𝑘 = 0, (5.2)
5.3. AUTOVETORES E DIAGONALIZAÇÃO 127

aplicando 𝑇 em (5.2), obtemos

𝛼1 𝑇 𝒘1 + 𝛼2 𝑇 𝒘2 + … + 𝛼𝑘 𝑇 𝒘𝑘 = 0.

Mas 𝑇 𝒘𝑖 = 𝜆𝑖 𝒘𝑖 . Assim,

𝛼1 𝜆1 𝒘1 + … + 𝛼𝑘 𝜆𝑘 𝒘𝑘 = 0.

Por outro lado, multiplicando (5.2) por 𝜆𝑘 , vem

𝛼1 𝜆𝑘 𝒘1 + 𝛼2 𝜆𝑘 𝒘2 + … + 𝛼𝑘 𝜆𝑘 𝒘𝑘 = 0.

Subtraindo essas duas últimas equações, concluímos que

𝛼1 (𝜆1 − 𝜆𝑘 )𝒘1 + 𝛼2 (𝜆2 − 𝜆𝑘 )𝒘2 + … + 𝛼𝑘−1 (𝜆𝑘−1 − 𝜆𝑘 )𝒘𝑘−1 = 0.

Como 𝜆𝑖 − 𝜆𝑘 ≠ 0 para todo 𝑖 = 1, … , 𝑘 − 1, a hipótese de indução


garante que 𝛼𝑖 = 0 para 𝑖 ∈ {1, … , 𝑘 − 1}. Levando em (5.2), concluímos
que 𝛼𝑘 = 0 e que {𝒘1 , … , 𝒘𝑘 } é linearmente independente. 

Corolário 5.13 Seja 𝑋 um espaço de dimensão 𝑛. Se o operador linear


𝑇 ∶ 𝑋 → 𝑋 possuir polinômio característico com 𝑛 raízes distintas, então
𝑋 possui uma base ℬ formada por autovetores de 𝑇. A aplicação 𝑇 repre-
sentada na base ℬ é uma matriz diagonal, sendo os elementos da diagonal
principal os autovalores de 𝑇.

Exemplo 5.14 Considere a aplicação linear 𝑇 ∶ ℝ2 → ℝ2 definida por

𝑇 (𝑥1 , 𝑥2 ) = (3𝑥1 − 4𝑥2 , , 2𝑥1 − 6𝑥2 ),

cuja representação na base canônica ℰ do ℝ2 é

3 −4 𝜆−3 4
𝑇ℰ = ⇒ 𝜆I − 𝑇ℰ = (5.3)
(2 −6) ( −2 𝜆 + 6)

Então o polinômio característico de 𝑇 é o mesmo que o polinômio ca-


racterístico de 𝑇ℰ :

𝜆−3 4
𝑝(𝜆) = det(𝜆I − 𝑇 )ℰ = det = 𝜆2 + 3𝜆 − 10
( −2 𝜆 + 6)
= (𝜆 − 2)(𝜆 + 5).

Assim, os autovalores de 𝑇 são 𝜆1 = −5 e 𝜆2 = 2 e o Corolário 5.13


pode ser aplicado.
Substituindo 𝜆1 = −5 na expressão de 𝜆I − 𝑇ℰ dada por (5.3), obtemos
o sistema homogêneo representado matricialmente por

8 −4 𝑥1 0
= ,
(2 −1) (𝑥2 ) (0)

que conduz à forma escalonada reduzida por linhas

1 − 12
.
(0 0)
128 CAPÍTULO 5. DIAGONALIZAÇÃO

Assim, as soluções do sistema são dadas por

1/2
𝒖=𝜆 .
(1)

O autoespaço associado ao autovalor 𝜆1 = −5 é dado por

1/2
𝐸−5 = ker(−5I − 𝑇 ) = 𝒙 ∈ ℝ2 ∶ 𝒙 = 𝜆 , 𝜆∈ℝ .
{ (1) }

(Note que, tomando 𝜆 = 0, verificamos que 0 ∈ 𝐸−5 , mas 0 não é um


autovetor associado ao autovalor −5.)
Eliminando frações (ou, o que é o mesmo, tomando 𝜆 = 2), encontra-
mos o autovetor
1
𝒗1 = ,
(2)
que gera o autoespaço 𝐸−5 .
Do mesmo modo, considerando o autovalor 𝜆2 = 2, chegamos ao sis-
tema homogêneo cuja matriz na forma escalonada reduzida por linhas é

1 −4
,
(0 0)
de modo que suas soluções são dadas por

4
𝒘=𝜆 .
(1)

Assim, o autoespaço associado ao autovalor 𝜆2 = 2 é dado por

4
𝐸2 = ker(2I − 𝑇 ) = 𝒙 ∈ ℝ2 ∶ 𝒙 = 𝜆 , 𝜆∈ℝ ,
{ (1) }

que é gerado pelo vetor


4
𝒗2 = .
(1)

Ao tomarmos a base ℬ = {𝒗 = (1 2)𝒕 , 𝒘 = (4 1)𝒕 }, a represen-


tação de 𝑇 na base ℬ é
−5 0
𝐷= ,
( 0 2)

enquanto a matriz 𝑃 = 𝑃ℬ é dada por

ℰ 4 1
𝑃 = 𝑃ℬ = .
(1 2)

Verifique que 𝐷 = 𝑃 −1 𝑇ℰ 𝑃. ⊲

Exercício 5.9 Seja 𝑇 ∶ 𝕂2 → 𝕂2 definida por

𝑇 (𝑥1 , 𝑥2 ) = (2𝑥1 + 2𝑥2 , 𝑥1 + 3𝑥2 ).

Encontre uma base ℬ de modo que a representação de 𝑇 nessa base seja uma matriz diagonal.
5.3. AUTOVETORES E DIAGONALIZAÇÃO 129

Exercício 5.10 De acordo com o Corolário 5.13, o operador 𝑇 definido no Exemplo 5.10 é diago-
nalizável, pois possui 4 autovalores distintos. Você consegue encontrar uma base ℬ de modo que
𝑇ℬ seja uma matriz diagonal, utilizando apenas os resultados do Exemplo 5.14 e do Exercício 5.9?
Se você não conseguir, ache diretamente a base procurada ℬ e compare seu resultado com aqueles
do Exemplo 5.14 e do Exercício 5.9.

Teorema 5.15 Seja 𝑋 um espaço de dimensão 𝑛. Uma aplicação linear


𝑇 ∶ 𝑋 → 𝑋 é diagonalizável se, e somente se, existir uma base ℬ do espaço
𝑋 formada por autovetores de 𝑇.

Demonstração: Suponhamos que ℬ = {𝒗1 , … , 𝒗𝑛 } seja uma base de 𝑋


tal que 𝑇ℬ seja uma matriz diagonal (não estamos supondo que os 𝜆𝑖 sejam
distintos!):
⎛𝜆1 0 ⋯ 0 ⎞
⎜ 0 𝜆2 ⋯ 0 ⎟
𝑇ℬ = 𝐷 = ⎜ .
⋮ ⋮ ⋱ ⋮⎟
⎜ ⎟
⎝ 0 0 ⋯ 𝜆𝑛 ⎠
De acordo com a equação (4.7), temos

[𝑇 𝒗𝑖 ]ℬ = 𝑇ℬ [𝒗𝑖 ]ℬ = 𝐷𝒆𝑖 = 𝜆𝑖 𝒆𝑖 .

Isso quer dizer que

𝑇 𝒗𝑖 = 0𝒗1 + … + 𝜆𝑖 𝒗𝑖 + … + 0𝒗𝑛 ,

mostrando que 𝑇 𝒗𝑖 = 𝜆𝑖 𝒗𝑖 .
A recíproca é dada pelo Lema 5.11. 

Recordamos o caso do operador I ∶ 𝕂𝑛 → 𝕂𝑛 . Apenas 1 é autovalor de


𝑇. Contudo, qualquer que seja a base tomada do espaço 𝕂𝑛 , a representação
de I nessa base será a matriz identidade.

Exercício 5.11 O operador 𝑇 do Exemplo 5.10 é diagonalizável? E a matriz 𝐴 do Exercício 5.12?


É fácil dar exemplos de operadores que não são diagonalizáveis:
Exemplo 5.16 Consideremos o operador 𝑇 ∶ ℂ2 → ℂ2 , cuja representação
matricial na base canônica do ℂ2 é
0 1
𝐴= .
(0 0)

O polinômio característico de 𝐴 (e de 𝑇) é 𝑝(𝜆) = 𝜆2 , de modo que seu


único autovalor é 𝜆0 = 0. A esse autovalor de 𝐴 está associado um único
autovetor: 𝐴𝒆1 = 0𝒆1 . Pelo Teorema 5.15, não existe uma base ℬ de ℂ2 na
qual 𝐴 assuma uma representação diagonal. ⊲

Exercício 5.12 Considere a matriz

⎛ 4 1 −1 ⎞
𝐴 = ⎜ 2 5 −2 ⎟ .
⎜ ⎟
⎝1 1 2⎠
130 CAPÍTULO 5. DIAGONALIZAÇÃO

(a) Verifique que o polinômio característico de 𝐴 é 𝑝(𝜆) = 𝜆3 − 11𝜆2 + 39𝜆 − 45.


(b) Verifique que 𝜆 = 3 é uma das raízes do polinômio característico de 𝐴.3
(c) Encontre as raízes restantes de 𝑝(𝜆).
(d) Encontre autovetores 𝒗1 , 𝒗2 e 𝒗3 , cada um associado a uma dessas raízes.
(e) Responda: o conjunto {𝒗1 , 𝒗2 , 𝒗3 } é linearmente independente?
Exercício 5.13 Suponha que vetores 𝒗1 , 𝒗2 e 𝒗3 estejam associados, respectivamente, aos autova-
lores 1, 1 e 2. O conjunto {𝒗1 , 𝒗2 , 𝒗3 } é linearmente independente?

Exemplo 5.17 Consideremos a matriz 𝐴


2 2
𝐴=
(1 3)

Os autovalores da matriz 𝐴 são iguais a 𝜆 = 1 e 𝜆 = 4 (verifique!), o que


garante que a matriz 𝐴 é diagonalizável.
É fácil ver (2 −1)𝒕 é um autovetor associado a 𝜆 = 1, enquanto (1 1)𝒕
é um autovetor associado a 𝜆 = 4. Esses vetores são linearmente indepen-
dentes, seja por aplicação do Teorema 5.12, seja por inspeção direta. For-
mamos então a matriz 𝑃
2 1
𝑃 = ,
(−1 1)
cuja inversa é
1
−1 3
− 13
𝑃 = .
(1 2
)
3 3
Temos que
1
1 0 − 13 2 2 2 1
= 𝑃 −1 𝐴𝑃 = 31 ,
(0 4) ( 2
) (1 3) (−1 1)
3 3

como podemos verificar.


A forma 𝐴 = 𝑃 𝐷𝑃 −1 nos permite calcular potências da matriz 𝐴. Por
exemplo,
𝐴3 = (𝑃 𝐷𝑃 −1 )(𝑃 𝐷𝑃 −1 )𝑃 𝐷𝑃 −1 = 𝑃 𝐷3 𝑃 −1 ,
o que garante que
1
2 1 13 0 − 13
𝐴3 = 3
(−1 1) ( 0 43 ) ( 1 2
)
3 3
1
2 1 3
− 13 22 42
= = .
(−1 1) ( 64 128
) (21 43)
3 3

Nesse exemplo, calculamos uma potência pequena de 𝐴: 𝐴3 . Mas ele mos-


tra como esse procedimento pode simplificar o cálculo de potências grandes
da matriz 𝐴. ⊲
3
Para tentar encontrar raízes inteiras de um polinômio mônico 𝑝(𝜆) com coeficientes
inteiros, devemos testar os divisores do coeficiente do termo de grau zero −45. Assim, uma
raiz de 𝑝(𝜆) deve ser procurada entre {±1, ±3, ±5, ±9, ±15, ±45}. Mas existem polinômios
com coeficientes inteiros que não possuem raiz inteira. Você consegue dar um exemplo?
5.3. AUTOVETORES E DIAGONALIZAÇÃO 131

Exemplo 5.18 Consideremos a matriz

⎛ 3 −2 4⎞
𝐴 = ⎜−2 6 2⎟ .
⎜ ⎟
⎝ 4 2 3⎠

Seu polinômio característico é

𝑝(𝜆) = 𝜆3 − 12𝜆2 + 21𝜆 + 98,

que pode ser fatorado como (verifique!)

𝑝(𝜆) = (𝜆 − 7)2 (𝜆 + 2).

Vamos mostrar que existem dois autovetores linearmente independentes,


𝒗1 e 𝒗2 , associados ao autovalor 𝜆 = 7 e um autovetor, 𝒗3 , associado
ao autovalor 𝜆 = −2. Como consequência do Teorema 5.12, o conjunto
ℬ = {𝒗1 , 𝒗2 , 𝒗3 } é linearmente independente (e, portanto, uma base de 𝕂3
formada por autovetores de 𝐴). De fato, basta notar que qualquer combina-
ção linear 𝛼1 𝒗1 + 𝛼2 𝒗2 ≠ 0 é um autovetor associado ao autovalor 𝜆 = 7
e, como consequência daquele teorema, {𝛼1 𝒗1 + 𝛼2 𝒗2 , 𝒗3 } é linearmente
independente. Daí decorre o afirmado.
Resolvendo o sistema homogêneo (𝐴 − 7I)𝒙 = 0, encontramos

⎛−4 −2 4⎞ ⎛𝑥1 ⎞ ⎛−1⎞ ⎛1⎞


(𝐴 − 7I) = ⎜−2 −1 2⎟ → ⎜𝑥2 ⎟ = 𝛼 ⎜ 2⎟ + 𝛽 ⎜0⎟ ,
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝ 4 2 −4⎠ ⎝𝑥3 ⎠ ⎝ 0⎠ ⎝1⎠

que nos fornece os vetores 𝒗1 = (−1 2 0)𝒕 e 𝒗2 = (1 0 1)𝒕 .


Analogamente, encontramos o vetor 𝒗3 = (−2 −1 1)𝒕 .
Dessa forma, definindo

⎛−1 1 −2⎞ ⎛7 0 0⎞
𝑃 = ⎜ 2 0 −1⎟ e ⎜
𝐷= 0 7 0⎟ ,
⎜ ⎟ ⎜ ⎟
⎝ 0 1 1⎠ ⎝0 0 −2⎠
temos
𝐷 = 𝑃 −1 𝐴𝑃 . ⊲

Exercício 5.14 Comprove as afirmações feitas no Exemplo 5.18.

Exemplo 5.19 Sem fazer cálculos, vamos encontrar uma base de autoveto-
res para a matriz
⎛1 1 1⎞
⎜1 1 1⎟ .
⎜ ⎟
⎝1 1 1⎠
É fácil ver que seu espaço coluna tem dimensão 1. Pelo Teorema do Nú-
cleo e da Imagem, ker 𝐴 tem dimensão 2. Isso quer dizer que 0 é autovalor
de 𝐴 e que existem dois autovetores associados ao autovalor 0.
132 CAPÍTULO 5. DIAGONALIZAÇÃO

Claramente ker 𝐴 é dado por

⎛𝑥⎞ ⎛−1⎞ ⎛ 0⎞
⎜𝑦⎟ = 𝑦 ⎜ 1⎟ + 𝑧 ⎜−1⎟ ,
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝𝑧⎠ ⎝ 0⎠ ⎝ 1⎠

o que nos fornece os autovetores 𝒗1 = (−1 1 0)𝒕 e 𝒗2 = (0 −1 1)𝒕 ,


que são linearmente independentes.
O terceiro autovetor é obtido ao notar que a soma de cada linha da matriz
𝐴 assume sempre o mesmo valor 3. Como consequência, a imagem do vetor
𝒗3 = (1 1 1)𝒕 pela matriz 𝐴 é igual a (3 3 3)𝒕 , o que implica que 𝒗3
é um autovetor de 𝐴 associado ao autovalor 3.
Claramente {𝒗1 , 𝒗2 , 𝒗3 } é uma base de 𝕂3 . ⊲

5.4 Exercícios
1. Sejam 𝑋 um espaço vetorial e 𝑇 ∶ 𝑋 → 𝑋 um operador. Mostre que,
se 𝜆 for um autovalor de 𝑇, então o autoespaço 𝑋𝜆 é invariante por 𝑇.

2. Seja 𝑇 ∶ 𝑋 → 𝑋 um operador no espaço de dimensão finita 𝑋. Mos-


tre que 0 é autovalor de 𝑇 se, e somente se, 𝑇 não possuir inversa.

3. Sem fazer qualquer cálculo, encontre um autovalor para a matriz

⎛1 2 1⎞
𝐴 = ⎜1 2 1⎟ .
⎜ ⎟
⎝1 2 1⎠
Justifique sua resposta.

4. Seja 𝐴 uma matriz quadrada triangular (superior ou inferior). Mostre


que seus autovalores são os elementos de sua diagonal principal.

5. Seja uma matriz quadrada. Mostre que 𝐴 e 𝐴𝒕 têm os mesmos auto-


valores.

6. Seja 𝐴 uma matriz quadrada tal que 𝐴2 é a matriz nula. Mostre que
0 é o único autovalor de 𝐴.

7. Seja 𝐴 uma matriz 𝑛 × 𝑛 invertível e 𝜆∞𝕂 um autovalor de 𝐴. Mostre


que 𝜆−1 é um autovalor de 𝐴−1 .

8. Seja 𝜆 ∈ 𝕂 um autovalor da matriz quadrada 𝐴. Mostre que 𝜆2 é um


autovalor da matriz 𝐴2 .

9. Acho o polinômio característico da matriz

⎛2 1 1 1⎞
⎜1 1 2 2⎟
𝐴=⎜ .
0 0 1 3⎟
⎜ ⎟
⎝0 0 2 1⎠
5.4. EXERCÍCIOS 133

10. Considere a matriz


⎛ 3 −1 1 ⎞
𝐴 = ⎜ 7 −5 1 ⎟ .
⎜ ⎟
⎝ 6 −6 2 ⎠
(a) Acho o polinômio característico de 𝐴.
(b) Ache os autovalores de 𝐴.4
(c) Ache autovetores associados a cada um dos autovalores.
(d) A matriz 𝐴 é diagonalizável? Se for, encontre uma base ℬ na
qual 𝐴 assume uma representação diagonal.

11. Encontre uma base ℬ do ℝ2 tal que a expressão da matriz

1 −1
𝐴=
(−4 1)

na base ℬ seja uma matriz diagonal. Os autovetores de 𝐴 são orto-


gonais?

12. Considere a matriz


⎛−1 0 5⎞
⎜−2 1 0⎟ .
⎜ ⎟
⎝ 0 0 −1⎠
Encontre 𝐴−25 .

13. Considere o operador linear 𝑇 ∶ ℝ3 → ℝ3 definido por

𝑇 (𝑥1 , 𝑥2 , 𝑥3 ) = (4𝑥1 + 2𝑥2 + 2𝑥3 , 2𝑥1 + 4𝑥2 + 2𝑥3 , 2𝑥1 + 2𝑥2 + 4𝑥3 ).

(a) Encontre 𝑇ℰ , a representação de 𝑇 na base canônica do ℝ3 .


(b) Encontre o polinômio característico de 𝑇.
(c) Encontre bases para os autoespaços associados a cada um dos
autovalores.
(d) Aplique o processo de ortogonalização de Gram-Schmidt à base
do autoespaço 𝐸2 .
(e) Considere o conjunto formado pelas bases ortogonais de cada
um dos autoespaços. Esse conjunto é uma base do ℝ3 ? Essa
conjunto é ortogonal?

14. Considere a matriz


3 −5
𝐴= .
(2 −3)

(a) Encontre o polinômio característico de 𝐴


(b) Quais são os autovalores de 𝐴 em ℝ? E em ℂ?
(c) Se possível, encontre uma base ℬ na qual 𝐴 é representada por
uma matriz diagonal.
4
Veja o Exercício 5.12.
134 CAPÍTULO 5. DIAGONALIZAÇÃO

15. Repita o exercício anterior para a matriz

1 −1
𝐴= .
(2 −1)

16. Encontre uma base ℬ, a matriz 𝑃 e a matriz diagonal 𝐷 = 𝑇ℬ de


modo que 𝐷 = 𝑃 −1 𝐴𝑃, se

⎛2 5 1 1⎞
⎜1 4 2 2⎟
𝐴=⎜ .
0 0 6 −5⎟
⎜ ⎟
⎝0 0 2 3⎠

17. Seja 𝑉 = < 𝒄𝒐𝒔 𝑡, 𝒔𝒆𝒏 𝑡 > o espaço das combinações lineares com
coeficientes complexos das funções 𝒄𝒐𝒔 𝑡 e 𝒔𝒆𝒏 𝑡. Considere o opera-
dor 𝐷 ∶ 𝑉 → 𝑉 definido por 𝐷𝒇 = 𝒇 ′ , a derivada da função 𝒇.

(a) Encontre os autovalores de 𝐷.


(b) Se o operador 𝐷 for diagonalizável, encontre uma base ℬ tal
que 𝐷ℬ seja uma matriz diagonal.

18. Encontre os autovalores de matriz

⎛4 1 −1⎞
𝐴 = ⎜2 5 −2⎟ .
⎜ ⎟
⎝1 1 2⎠

A matriz 𝐴 é diagonalizável? Se for, encontre uma base ℬ e matrizes


𝑃 e 𝐷 tais que 𝐴ℬ = 𝑃 −1 𝐴𝑃.

19. Diagonalize, se possível, a matriz

⎛ 5 0 0 0⎞
⎜ 0 5 0 0⎟
𝐴=⎜
1 4 −3 0⎟
⎜ ⎟
⎝−1 −2 0 −3⎠

20. Encontre uma matriz 𝐵 tal que 𝐵 2 = 𝐴, se

3 1
𝐴= .
(2 2)

Quantas matrizes 𝐵, distintas, satisfazem 𝐵 2 = 𝐴?


Capítulo 6

O Teorema Espectral

Objetivos: No final do capítulo o aluno deve:


1. entender a relação entre matrizes e a complexificação de um operador
𝑇 ∶ 𝑋 → 𝑋 definido em um espaço real de dimensão finita;

2. saber operar com bases ortonormais;

3. saber obter, de um conjunto linearmente independente, um conjunto


ortonormal.

6.1 A Complexificação de um Espaço Vetorial


Sejam 𝑋, 𝑌 espaços vetoriais reais, com dim 𝑋 = 𝑛 e dim 𝑌 = 𝑚. Dada
uma aplicação 𝑇 ∶ 𝑋 → 𝑌, escolhidas bases de 𝑋 e 𝑌, obtemos uma ma-
triz 𝐴, 𝑚 × 𝑛, com entradas reais. É claro que podemos ver essa matriz
como uma aplicação 𝐴 ∶ ℝ𝑛 → ℝ𝑚 ou como uma aplicação 𝐴 ∶ ℂ𝑛 → ℂ𝑚 .
Escolhida a segunda opção, gostaríamos de definir novos espaços vetori-
ais (complexos) e uma aplicação linear entre esses espaços de modo que a
representação desta em bases adequadas dos novos espaços corresponda à
matriz 𝐴 ∶ ℂ𝑛 → ℂ𝑚 .

Exemplo 6.1 A aplicação linear 𝑇 ∶ ℝ3 → ℝ2 dada por

𝑇 (𝑥1 , 𝑥2 , 𝑥3 ) = (𝑥1 + 2𝑥2 + 𝑥3 , 2𝑥1 + 𝑥2 + 𝑥3 )

é representada, nas bases canônicas dos espaços ℝ3 e ℝ2 pela matriz 2 × 3

1 2 1
𝐴= .
(2 1 1)

Dado o vetor 𝒛 = (𝑖 2 𝑖)𝒕 ∈ ℂ3 , faz sentido calcular 𝐴𝒛:

𝑖
1 2 1 ⎛⎜ ⎞⎟ 4 + 2𝑖
𝐴𝒛 = 2 = ∈ ℂ2 .
(2 1 1) ⎜ ⎟ (2 + 3𝑖)
⎝𝑖⎠
Neste caso, considerando 𝑇 como a aplicação 𝑇 ∶ ℂ3 → ℂ2 definida de
maneira idêntica (isto é, apenas pensando que (𝑥1 , 𝑥2 , 𝑥3 ) ∈ ℂ3 ), temos que
a representação de 𝑇 nas bases canônicas do espaços ℂ3 e ℂ2 é justamente
a matriz 𝐴. ⊲
135
136 CAPÍTULO 6. O TEOREMA ESPECTRAL

Exercício 6.1 Considere a aplicação linear 𝑇 ∶ ℂ3 → ℂ2 definida por

𝑇 (𝑥1 , 𝑥2 , 𝑥3 ) = (𝑥1 + 2𝑥2 + 𝑥3 , 2𝑥1 + 𝑥2 + 𝑥3 ).

Verifique que a representação de 𝑇 nas bases canônicas dos espaços ℂ3 e ℂ2 é justamente a matriz
𝐴 do Exemplo 6.1.
O Exemplo 6.1 foi particularmente simples: obtemos os espaços com-
plexos procurados e a aplicação entre esses espaços ao trocar ℝ3 e ℝ2 por ℂ3
e ℂ2 , respectivamente, e ao utilizar a mesma definição do operador 𝑇, agora
visto como uma aplicação 𝑇 ∶ ℂ3 → ℂ2 . Mas como proceder se tivermos
espaços reais 𝑋 e 𝑌 de dimensão finita? Como obter espaços complexos que
correspondam a 𝑋 e 𝑌, bem como a aplicação entre esses novos espaços?
A ideia é a mesma utilizada na definição do corpo dos complexos: um
número complexo 𝑧 nada mais é do uma soma 𝛼 + 𝑖𝛽, com 𝛼, 𝛽 ∈ ℝ:

Definição 6.2 Definimos a complexificação de um espaço vetorial real 𝑋


como sendo o conjunto

𝑋ℂ = {𝒖 + 𝑖𝒗 | 𝒖, 𝒗 ∈ 𝑋}.

Em 𝑋ℂ , definimos

(𝒖1 + 𝑖𝒗1 ) + (𝒖2 + 𝑖𝒗2 ) = (𝒖1 + 𝒖2 ) + 𝑖(𝒗1 + 𝒗2 )

e, se 𝜇 = 𝑎 + 𝑖𝑏 ∈ ℂ com 𝑎, 𝑏 ∈ ℝ,

(𝑎 + 𝑖𝑏)(𝒖 + 𝑖𝒗) = (𝑎𝒖 − 𝑏𝒗) + 𝑖(𝑏𝒖 + 𝑎𝒗).

É fácil verificar que 𝑋ℂ torna-se, assim, um espaço vetorial sobre os com-


plexos.

Uma vez definidos os espaços complexificados 𝑋ℂ e 𝑌ℂ , falta ainda


definir a aplicação 𝑇ℂ ∶ 𝑋ℂ → 𝑌ℂ . Para isso, usaremos o Exemplo 6.1
como modelo:

Exemplo 6.3 (Continuação do Exemplo 6.1) Escrevemos 𝒛 = (𝑖 2 𝑖)𝒕


na forma 𝒖 + 𝑖𝒗 = (0 2 0)𝒕 + 𝑖 (1 0 1)𝒕 :

𝑖 0 ⎛1⎞⎤
1 2 1 ⎛⎜ ⎞⎟ 1 2 1 ⎡⎢⎛⎜ ⎞⎟
2 = 2 + 𝑖 ⎜0⎟⎥
(2 1 1) ⎜ ⎟ (2 1 1) ⎢⎜ ⎟ ⎜ ⎟⎥
⎝𝑖⎠ ⎣⎝0⎠ ⎝1⎠⎦
4 2 4 + 2𝑖
= +𝑖 = .
(2) (3) (2 + 3𝑖) ⊲

De agora em diante restringiremos nossa atenção apenas ao caso de ope-


radores 𝑇 ∶ 𝑋 → 𝑋.

Definição 6.4 Sejam 𝑋 um espaço real e 𝑇 ∶ 𝑋 → 𝑋 uma aplicação linear.


Definimos a complexificação de 𝑇 como sendo a aplicação 𝑇ℂ ∶ 𝑋ℂ → 𝑋ℂ ,
dada por 𝑇ℂ (𝒖 + 𝑖𝒗) = 𝑇 𝒖 + 𝑖𝑇 𝒗.
6.1. A COMPLEXIFICAÇÃO DE UM ESPAÇO VETORIAL 137

Dada uma matriz 𝐴 ∶ ℝ𝑛 → ℝ𝑛 que representa 𝑇 ∶ 𝑋 → 𝑋 em uma


base, vamos mostrar que a representação de 𝑇ℂ ∶ 𝑋ℂ → 𝑋ℂ nessa mesma
base continua a ser a matriz 𝐴, agora vista como um operador 𝐴 ∶ ℂ𝑛 → ℂ𝑛 .
Proposição 6.5 Seja 𝑇 ∶ 𝑋 → 𝑋 um operador linear no espaço real de
dimensão finita 𝑋. As seguintes afirmativas são válidas:
(𝑖) toda base de 𝑋 sobre ℝ é uma base de 𝑋ℂ sobre ℂ;
(𝑖𝑖) os polinômios característicos de 𝑇 e 𝑇ℂ são iguais;
(𝑖𝑖𝑖) se 𝜆 for um autovalor de 𝑇ℂ , então 𝜆 ̄ também é um autovalor de 𝑇ℂ ;
as multiplicidades algébricas dos autovalores 𝜆 e 𝜆 ̄ são iguais;
Demonstração: Seja ℬ = {𝒙1 , … , 𝒙𝑛 } uma base de 𝑋. Uma vez que 𝒖
e 𝒗 podem ser escritas como combinação linear dos elementos da base ℬ,
essa gera 𝑋ℂ . Para verificar que ℬ é linearmente indepente, tome escalares
arbitrários Mas, se 𝑧1 , … , 𝑧𝑛 ∈ ℂ, com 𝑧𝑖 = 𝛼𝑖 + 𝑖𝛽𝑖 . Então
0 = 0 + 0𝑖 = 𝑧1 𝒙1 + … + 𝑧𝑛 𝒙𝑛
= 𝛼1 𝒙1 + … + 𝛼𝑛 𝒙𝑛 + 𝑖 (𝛽1 𝒙1 + … + 𝛽𝑛 𝒙𝑛 )
Como 𝛼𝑖 , 𝛽𝑖 ∈ ℝ e ℬ é uma base, concluímos que
𝛼1 , … , 𝛼𝑛 = 0 e 𝛽1 , … , 𝛽𝑛 = 0.
Isso conclui a prova de (𝑖).
Escolhida uma base de 𝑋 sobre os reais, (𝑖𝑖) decorre imediatamente de
(𝑖) e da Definição 5.6, pois as representações de 𝑇 e 𝑇ℂ nessa base são iguais.
Sejam 𝑝(𝜁) o polinômio característico de 𝑇ℂ e 𝜆 um autovalor. Como
𝑝(𝜁) também é o polinômio característico de 𝑇, os coeficientes de 𝑝(𝜁 ) são
reais. Tomando o conjugado na equação 𝑝(𝜆) = 0, obtemos 𝑝(𝜆)̄ = 0, o
que mostra que 𝜆 ̄ também é uma raiz do polinômio característico de 𝑇ℂ . Se
𝑝′ (𝜆) = … = 𝑝(𝑘−1) (𝜆) = 0 e 𝑝(𝑘) (𝜆) ≠ 0 (isto é, se 𝜆 for raiz de multipli-
cidade 𝑘 do polinômio característico), tomando o conjugado em cada uma
dessas equações obtemos 𝑝′ (𝜆)̄ = … = 𝑝(𝑘−1) (𝜆)̄ = 0 e 𝑝(𝑘) (𝜆)̄ ≠ 0, o que
garante que 𝜆 ̄ também tem multiplicidade 𝑘, mostrando (𝑖𝑖𝑖). 
Exemplo 6.6 Seja 𝑇 ∶ ℝ2 → ℝ2 o operador definido por
𝑇 (𝑥1 , 𝑥2 ) = (−𝑥2 , 𝑥1 ).
A complexificação 𝑇ℂ do operador 𝑇 é definida por
𝑇ℂ ((𝑥1 , 𝑥2 ) + 𝑖(𝑦1 , 𝑦2 )) = 𝑇 (𝑥1 , 𝑥2 ) + 𝑖𝑇 (𝑦1 , 𝑦2 ) = (−𝑥2 , 𝑥1 ) + 𝑖(−𝑦2 , 𝑦1 ).

As representações matriciais de 𝑇 e 𝑇ℂ com relação à base canônica de ℝ2


são dadas pela matriz 𝐴:
0 −1
𝐴= .
(1 0)
Assim, a representação de 𝐴 é uma matriz com entradas reais. De
acordo com a Proposição 6.5, se 𝜆 ∈ 𝕂 for um autovalor de 𝐴, então 𝜆 ̄
também será. Isso é fácil de verificar nesse exemplo: o polinômio caracte-
rístico de 𝐴 é 𝑝(𝜆) = 𝜆2 + 1, que tem raízes 𝜆 = ±𝑖. ⊲
138 CAPÍTULO 6. O TEOREMA ESPECTRAL

Dado um operador 𝑇 ∶ 𝑋 → 𝑋 definido em um espaço real, o Exemplo


5.9 nos mostra que esse operador pode não ter autovalores. Passando à sua
complexificação, obtemos todos os autovalores de 𝑇ℂ ∶ 𝑋ℂ → 𝑋ℂ . Esco-
lhida uma base de 𝑋, então a matriz que representa 𝑇 nessa base é a mesma
matriz que representa 𝑇ℂ . Desse modo, sempre podemos considerar que os
autovalores de um operador são escalares complexos.

6.2 Operadores Ortogonais


Definição 6.7 Sejam 𝑋, 𝑌 espaços normados e 𝑓 ∶ 𝑋 → 𝑌 uma aplica-
ção (não necessariamente linear). A aplicação 𝑓 é uma isometria se, para
quaisquer 𝒙1 , 𝒙2 ∈ 𝑋, tivermos

‖𝑓 (𝒙1 ) − 𝑓 (𝒙2 )‖ = ‖𝒙1 − 𝒙2 ‖. (6.1)

(Note que estamos denotando as normas nos espaços 𝑋 e 𝑌 pelo mesmo


símbolo ‖ ⋅ ‖.) Decorre imediatamente da definição que a composta de
duas isometrias é uma isometria e também que uma isometria sempre é uma
aplicação injetora.
Um exemplo elementar de isometria 𝑓 ∶ 𝑋 → 𝑋 é uma translação:

𝑓 (𝒖) = 𝒖 + 𝒂

para 𝒂 ∈ 𝑋 fixo.
Dada uma isometria 𝑓 ∶ 𝑋 → 𝑌, podemos compô-la com uma trans-
lação e produzir assim uma isometria que preserva a origem (isto é, leva
0 ∈ 𝑋 em 0 ∈ 𝑌 ). Reciprocamente, toda isometria é a composta de uma
isometria que preserva a origem com uma translação.

Teorema 6.8 Sejam 𝐸, 𝐹 espaços com produto interno, ambos de dimensão


finita, e 𝑇 ∶ 𝐸 → 𝐹 uma aplicação linear. As seguintes afirmativas são
equivalentes:

(𝑖) 𝑇 é uma isometria;

(𝑖𝑖) 𝑇 preserva o produto interno: ⟨𝑇 𝒙, 𝑇 𝒚⟩ = ⟨𝒙, 𝒚⟩;

(𝑖𝑖𝑖) 𝑇 ∗ 𝑇 = I.

Se dim 𝐸 = dim 𝐹, então essas condições são equivalentes a

(𝑖𝑣) 𝑇 e 𝑇 ∗ são isometrias.

Demonstração: A identidade de polarização (Exercício 10 do Capítulo 3)


adequada ao caso mostra que (𝑖) implica (𝑖𝑖). (Note que linearidade de 𝑇 é
essencial no caso complexo!)
Para quaisquer 𝒖, 𝒗 ∈ 𝐸, vale

⟨𝒖, 𝒗⟩ = ⟨𝑇 𝒖, 𝑇 𝒗⟩ = ⟨𝒖, 𝑇 ∗ 𝑇 𝒗⟩ ⇒ ⟨𝒖, 𝑇 ∗ 𝑇 𝒗 − 𝒗⟩ = 0.

Escolhendo 𝒖 = 𝑇 ∗ 𝑇 𝒗 − 𝒗, vemos que (𝑖𝑖) implica (𝑖𝑖𝑖).


6.2. OPERADORES ORTOGONAIS 139

Uma vez que


⟨𝒖, 𝒗⟩ = ⟨𝑇 ∗ 𝑇 𝒖, 𝒗⟩ = ⟨𝑇 𝒖, 𝑇 𝒗⟩,
temos que (𝑖𝑖𝑖) implica (𝑖).
Se dim 𝐸 = dim 𝐹, de 𝑇 ∗ 𝑇 = I decorre que 𝑇 −1 = 𝑇 ∗ e, portanto,
𝑇 𝑇 ∗ = I. Como ‖𝒖‖2 = ⟨𝒖, 𝑇 𝑇 ∗ 𝒖⟩ = ⟨𝑇 ∗ 𝒖, 𝑇 ∗ 𝒖⟩ = ‖𝑇 ∗ 𝒖‖2 , temos que
𝑇 ∗ é uma isometria. Assim, (𝑖𝑖𝑖) implica (𝑖𝑣).
É óbvio que (𝑖𝑣) implica (𝑖). 

Como uma isometria preserva a ortogonalidade, temos imediatamente:


Corolário 6.9 Sejam 𝐸, 𝐹 espaços com produto interno de dimensão finita
e 𝑇 ∶ 𝐸 → 𝐹 uma isometria linear. Então 𝑇 leva conjuntos ortogonais de
𝐸 em conjuntos ortogonais de 𝐹.
Demonstração: Sejam 𝒗1 , … , 𝒗𝑚 vetores ortogonais em 𝐸. Se 𝑖 ≠ 𝑗 ∈
{1, … , 𝑚}, então
⟨𝑇 𝒗𝑖 , 𝑇 𝒗𝑗 ⟩ = ⟨𝑇 ∗ 𝑇 𝒗𝑖 , 𝒗𝑗 ⟩ = ⟨𝒗𝑖 , 𝒗𝑗 ⟩,
provando o afirmado. 

Exemplo 6.10 Seja ℬ = {𝒗1 , 𝒗2 , … , 𝒗𝑛 } uma base ortonormal do espaço


𝐸. Denotemos por 𝐵 ∶ 𝐸 → 𝕂𝑛 a aplicação definida por 𝐵𝒗 = [𝒗]ℬ .
Já vimos que 𝐵 é uma aplicação linear (Proposição 2.55). Temos que 𝐵
estabelece uma isometria entre 𝐸 e 𝕂𝑛 , este considerado com seu produto
interno canônico.1 De fato, se
𝒗 = 𝛼 1 𝒗1 + … + 𝛼 𝑛 𝒗𝑛 e 𝒘 = 𝛽1 𝒗1 + … + 𝛽𝑛 𝒗𝑛 ,
ao expandirmos ambos os lados do produto interno ⟨𝒗, 𝒘⟩ obtemos
⟨𝛼1 𝒗1 + … + 𝛼𝑛 𝒗𝑛 , 𝛽1 𝒗1 + … + 𝛽𝑛 𝒗𝑛 ⟩ = 𝛼1 𝛽1 + … + 𝛼𝑛 𝛽𝑛
= [𝒗]ℬ ⋅ [𝒘]ℬ .
Em particular, a imagem {𝐵𝒗1 , 𝐵𝒗2 , … , 𝐵𝒗𝑛 } é uma base do 𝕂𝑛 . ⊲

Lema 6.11 Seja 𝑃 uma matriz quadrada cujas colunas formam uma base
ortonormal do 𝕂𝑛 considerado com seu produto interno canônico. Então
𝑃 ∗𝑃 = I = 𝑃 𝑃 ∗.

Demonstração: Seja ℬ = {𝒖1 , … , 𝒖𝑛 } uma base ortonormal de 𝕂𝑛 . Des-


crevendo 𝑃 ∗ por suas linhas e 𝑃 por suas colunas, temos
𝒕 𝒕 𝒕
⎛𝒖̄1𝒕 ⎞ ⎛𝒖̄1𝒕 𝒖1 𝒖̄1𝒕 𝒖2 … 𝒖̄𝒕1 𝒖𝑛 ⎞
⎜𝒖̄ ⎟ ⎜𝒖̄ 𝒖 𝒖̄ 𝒖 … 𝒖̄𝒕2 𝒖𝑛 ⎟
𝑃 ∗ 𝑃 = ⎜ 2 ⎟ (𝒖1 𝒖2 … 𝒖𝑛 ) = ⎜ 2 1 2 2 .
⋮ ⋮ ⋮ ⋱ ⋮ ⎟
⎜ 𝒕⎟ ⎜ 𝒕 𝒕 ⎟
𝒖 ̄
⎝ 𝑛⎠ ̄
⎝ 𝑛 1 𝑛 𝒖2
𝒖 𝒖 𝒖̄ … 𝒖̄𝒕𝑛 𝒖𝑛 ⎠
De acordo com os Exemplos 3.2 e 3.3, o resultado é a matriz identidade. Da
Proposição 1.41 concluímos que 𝑃 ∗ = 𝑃 −1 e o resultado decorre. 

1
Esse é o conteúdo da observação que antecede a Seção 3.4.
140 CAPÍTULO 6. O TEOREMA ESPECTRAL

Observação 6.12 Sejam ℬ = {𝒗1 , 𝒗2 , … , 𝒗𝑛 } e ℬ ′ = {𝒘1 , 𝒘2 , … , 𝒘𝑛 }


bases ortonormais do espaço 𝐸, com 𝒘𝑖 = ∑𝑛𝑗=1 𝛼𝑖𝑗 𝒗𝑗 . Nesse caso, a ma-
triz 𝑃 pode ser interpretada como a representação matricial da aplicação
𝐵 ∶ 𝐸 → 𝕂𝑛 definida no Exemplo 6.10, com 𝒖𝑖 = 𝐵𝒘𝑖 .
Em especial, com 𝕂𝑛 considerado com seu produto interno canônico,
se ℬ ′ = {𝒘1 , 𝒘2 , … , 𝒘𝑛 } for outra base ortonormal do 𝕂𝑛 , então a matriz

𝑃 = 𝑃ℰℬ é simplesmente

𝑃 = ([𝒘1 ]ℰ [𝒘2 ]ℰ … [𝒘𝑛 ]ℰ ) = (𝒘1 𝒘2 … 𝒘𝑛 ) .


Aplicando o Lema 6.11, temos 𝑃 −1 = 𝑃ℬ 𝒕
′ = 𝑃 . A matriz 𝑃 assim
definida será muito utilizada na próxima seção. ⊲

6.3 O Teorema Espectral


Definição 6.13 Seja 𝐸 um espaço com produto interno. Um operador li-
near 𝑇 ∶ 𝐸 → 𝐸 é autoadjunto se 𝑇 ∗ = 𝑇.
Se 𝐸 for um espaço real, o operador autoadjunto 𝑇 ∶ 𝐸 → 𝐸 também
é chamado simétrico. Se 𝐸 for um espaço complexo, 𝑇 também é chamado
hermitiano.

Lema 6.14 Valem as seguintes afirmativas:

(𝑖) se ℬ for uma base ortonormal do espaço de dimensão finita 𝐸 e


𝑇 ∶ 𝐸 → 𝐸 um operador autoadjunto, então 𝑇ℬ é uma matriz au-
toadjunta;

(𝑖𝑖) se ℬ = {𝒙1 , … , 𝒙𝑛 } for uma base ortonormal do espaço 𝐸 e 𝐴 uma


matriz autoadjunta 𝑛 × 𝑛, então 𝐴 é a representação na base ℬ de
um operador autoadjunto 𝑇 ∶ 𝐸 → 𝐸.

Demonstração: De acordo com o Lema 4.51, se ℬ for uma base orto-


normal do espaço 𝐸 e 𝑇ℬ = (𝑎𝑖𝑗 ), então (𝑇 ∗ )ℬ = (𝑎𝑗𝑖
̄ ) = (𝑇ℬ )∗ . Como
∗ ∗
𝑇 = 𝑇 , concluímos que (𝑎𝑖𝑗 ) = 𝑇ℬ = (𝑇ℬ ) = (𝑎𝑗𝑖
̄ ), mostrando (𝑖).
Como a matriz 𝐴 = (𝑎𝑖𝑗 ) é autoadjunta, ela satisfaz 𝑎𝑖𝑗 = 𝑎𝑗𝑖 ̄ para
todo 1 ≤ 𝑖 ≤ 𝑛. Defina 𝑇 ∶ 𝐸 → 𝐸 por 𝑎𝑖𝑗 = ⟨𝑇 𝒙𝑗 , 𝒙𝑖 ⟩. (Quer di-
zer, 𝑇 foi definida em todos os elementos de ℬ.) Como 𝑎𝑖𝑗 = 𝑎𝑗𝑖 ̄ , temos
⟨𝑇 𝒙𝑗 , 𝒙𝑖 ⟩ = ⟨𝑇 𝒙𝑖 , 𝒙𝑗 ⟩ = ⟨𝒙𝑗 , 𝑇 𝒙𝑖 ⟩. Como essa igualdade vale para todos
os elementos da base ℬ, também é válida para todos os elementos 𝒙 ∈ 𝐸.
Que a representação de 𝑇 na base ℬ é a matriz 𝐴 é consequência imediata
do Teorema 4.45, o que prova (𝑖𝑖). 

O Lema 6.14 nos mostra que a denominação de matrizes autoadjuntas


e simétricas (definidas no Capítulo 1) está de acordo com a Definição 6.13.

Exercício 6.2 Seja ℬ = {𝒙1 , … , 𝒙𝑛 } uma base do espaço 𝑋 e 𝑇 ∶ 𝑋 → 𝑋 um operador linear.


Mostre o afirmado na prova do Lema 6.14: se ⟨𝑇 𝒙𝑗 , 𝒙𝑖 ⟩ = ⟨𝒙𝑖 , 𝑇 𝒙𝑗 ⟩ para todos 𝒙𝑖 , 𝒙𝑗 ∈ ℬ, então
𝑇 é autoadjunto.
6.3. O TEOREMA ESPECTRAL 141

Lema 6.15 Sejam 𝐸 um espaço com produto interno ⟨⋅, ⋅⟩ e 𝑇 ∶ 𝐸 → 𝐸 um


operador autoadjunto. Então:
(𝑖) 𝑇 possui apenas autovalores reais;
(𝑖𝑖) autovetores correspondentes a autovalores distintos são ortogonais.
Demonstração: Suponhamos inicialmente que 𝐸 seja um espaço sobre os
complexos. O Teorema Fundamental da Álgebra garante que 𝑇 possui au-
tovalor 𝜆 ∈ ℂ. Seja 𝒖 ∈ 𝐸 um autovetor associado a esse autovalor. Então
̄ 𝒖⟩,
𝜆⟨𝒖, 𝒖⟩ = ⟨𝜆𝒖, 𝒖⟩ = ⟨𝑇 𝒖, 𝒖⟩ = ⟨𝒖, 𝑇 𝒖⟩ = ⟨𝒖, 𝜆𝒖⟩ = 𝜆⟨𝒖,
̄
de modo que (𝜆 − 𝜆)⟨𝒖, 𝒖⟩ = 0. Isso mostra que 𝜆 = 𝜆 ̄ e prova que todos os
autovalores de 𝑇 são reais se o espaço 𝐸 for complexo.
Se 𝐸 for um espaço sobre os reais, consideremos a complexificação
𝑇ℂ ∶ 𝐸ℂ → 𝐸ℂ . Como os polinômios característicos de 𝑇 e 𝑇ℂ são iguais,
todos os autovalores de 𝑇 são reais. (Note que a cada autovalor de 𝑇 está
necessariamente associado um autovetor real: det(𝑇 − 𝜆I) = 0 implica que
existe 𝒗 ∈ 𝐸 tal que (𝑇 − 𝜆I)𝒗 = 0.) Isso dito, não precisamos distinguir
entre os casos real e complexo ao tratar de (𝑖𝑖).
Sejam 𝒖, 𝒗 autovetores associados aos autovalores distintos 𝜆, 𝜇 ∈ ℝ.
Quer dizer, 𝑇 𝒖 = 𝜆𝒖 e 𝑇 𝒗 = 𝜇𝒗, com 𝜆 ≠ 𝜇. Então
𝜆⟨𝒖, 𝒗⟩ = ⟨𝑇 𝒖, 𝒗⟩ = ⟨𝒖, 𝑇 𝒗⟩ = ⟨𝒖, 𝜇𝒗⟩ = 𝜇⟨𝒖, 𝒗⟩,
de modo que
(𝜆 − 𝜇)⟨𝒖, 𝒗⟩ = 0.
Como 𝜆 ≠ 𝜇, isso implica 𝒖 ⟂ 𝒗, completando a prova. 

Note que um operador autoadjunto pode possuir diversos autovetores


linearmente independentes associados ao mesmo autovalor 𝜆. Nesse caso,
aplicamos o processo de ortogonalização de Gram-Schimdt ao autoespaço
𝐸𝜆 para encontrar uma base ortogonal do autoespaço 𝐸𝜆 .
Veja que interessante: consideramos um operador 𝑇 ∶ 𝐸 → 𝐸 sobre
um espaço real. Pelo menos em princípio, esse operador poderia não ter
autovalores (Exemplo 5.9). Passando a sua complexificação 𝑇ℂ , verificamos
que todos os autovalores são reais! Garantimos assim que 𝑇 possui apenas
autovalores reais. O Teorema Espectral 6.17 garantirá que 𝐸 possui uma
base formada por autovalores de 𝑇.
Lema 6.16 Se 𝑇 ∶ 𝐸 → 𝐸 for um operador autoadjunto e 𝑊 for invariante
por 𝑇, então 𝑊 ⟂ também é invariante por 𝑇;
Demonstração: A Proposição 5.3 garante que, se 𝑊 for invariante por 𝑇,
então 𝑊 ⟂ é invariante por 𝑇 ∗ . Como 𝑇 ∗ = 𝑇, temos o afirmado. 

Teorema 6.17 (Espectral) Sejam 𝐸 um espaço com produto interno de di-


mensão finita e 𝑇 ∶ 𝐸 → 𝐸 um operador autoadjunto. Então 𝑇 é ortogonal-
mente diagonalizável, isto é, existe uma base ortonormal ℬ = {𝒗1 , … , 𝒗𝑛 }
de 𝐸, formada por autovetores de 𝑇, tal que
𝑇ℬ = 𝐷,
em que 𝐷 é uma matriz diagonal formada pelos autovalores 𝜆1 , … , 𝜆𝑛 de
𝑇 associados, respectivamente, aos autovetores 𝒗1 , … , 𝒗𝑛 .
142 CAPÍTULO 6. O TEOREMA ESPECTRAL

Demonstração: Seja 𝑇 ∶ 𝐸 → 𝐸 um operador autoadjunto no espaço 𝐸,


real ou complexo. Faremos a demonstração por indução na dimensão 𝑛. Se
𝑛 = 1, dado 0 ≠ 𝑥 ∈ 𝐸, como 𝑇 𝑥 ∈ 𝐸, existe 𝜆 ∈ ℝ tal que 𝑇 𝑥 = 𝜆𝑥,
de acordo com o Lema 6.15. A representação de 𝑇 na base ℬ = {𝑥} á a
matriz diagonal (𝜆). Suponhamos o resultado válido em qualquer espaço 𝐸
de dimensão 𝑛 − 1 e consideremos o caso de um espaço 𝐸 de dimensão 𝑛.
Seja 𝜆 um autovalor de 𝑇 (que sabemos ser real) e 𝒙 um autovetor cor-
respondente, que sabemos pertencer a 𝐸. Considere a decomposição

𝐸 = < 𝑥 > ⊕ < 𝑥 >⟂ = 𝑊 ⊕ 𝑊 ⟂ .

Temos que 𝑊 = < 𝑥 > é invariante por 𝑇. De acordo com o Lema 6.16,
𝑊 ⟂ = < 𝑥 >⟂ também é invariante por 𝑇. Como a restrição de 𝑇 ao
subespaço (𝑛 − 1)-dimensional 𝑊 é um operador autoadjunto, o resultado
está demonstrado. 

A versão matricial do Teorema 6.17 é dada pelo

Teorema 6.18 Seja 𝐴 ∈ 𝕄𝑛×𝑛 (𝕂) uma matriz autoadjunta. Então existe
uma matriz 𝑃 = (𝒗1 𝒗2 … 𝒗𝑛 ) (em que 𝒗𝑖 denota a coluna 𝑖 de 𝑃)
formada pela base ortonormal ℬ = {𝒗1 , … , 𝒗𝑛 } ⊂ 𝕂𝑛 de autovetores de
𝐴, de modo que
𝐴 = 𝑃 ∗ 𝐷𝑃 ,

sendo 𝐷 a matriz diagonal tendo como entradas os autovalores reais 𝜆1 , … , 𝜆𝑛


correspondentes aos autovetores 𝒗1 , … , 𝒗𝑛 e 𝑃 ∗ = 𝑃 −1 .

Demonstração: A matriz 𝐴 define o operador linear 𝐴 ∶ 𝕂𝑛 → 𝕂𝑛 . Pelo


Teorema 6.17, existe uma base ortonormal ℬ = {𝒗1 , … , 𝒗𝑛 } ⊂ 𝕂𝑛 for-
mada por autovetores de 𝐴 associados aos autovalores reais corresponden-
tes 𝜆1 , … , 𝜆𝑛 . Temos 𝑃 = 𝑃ℰℬ (mudança da base ℰ para a base ℰ), sendo
𝐷 a representação de 𝐴 na base ℬ. 

Nos próximos exemplos utilizaremos livremente a identificação

⎛𝑥1 ⎞
(𝑥1 , … , 𝑥𝑛 ) ∈ 𝕂 𝑛
⟷ ⎜ ⋮ ⎟ ∈ 𝕄1×𝑛 .
⎜ ⎟
⎝ 𝑥𝑛 ⎠

Exemplo 6.19 Considere a matriz

⎛ 11 −8 4⎞
𝐴 = ⎜ −8 −1 −2⎟ .
⎜ ⎟
⎝ 4 −2 −4⎠

O polinômio característico de 𝐴 é 𝑝(𝜆) = 𝜆3 −6𝜆2 −135𝜆−400. Procurando


entre os divisores de 400, verificamos que 𝜆 = −5 é uma raiz do polinômio
característico e

𝑝(𝜆) = (𝜆 + 5)(𝜆2 − 11𝜆 − 80) = (𝜆 + 5)2 (𝜆 − 16).


6.3. O TEOREMA ESPECTRAL 143

Para encontrar autovetores ortogonais associados ao autovalor 𝜆 = −5,


escalonamos a matriz 𝐴 − (−5)I = 𝐴 + 5I:

⎛ 16 −8 4⎞ ⎛4 −2 1⎞
(𝐴 + 5I) = ⎜ −8 4 −2⎟ → ⎜0 0 0⎟ .
⎜ ⎟ ⎜ ⎟
⎝ 4 −2 1⎠ ⎝0 0 0⎠

(Observe que já sabíamos que a forma escalonada da matriz 𝐴 + 5I deveria


ter duas variáveis livres, pois devem existir dois autovalores ortonormais
associados ao autovalor 𝜆 = −5. Não levamos até a forma escalonada re-
duzida por linhas apenas para evitar frações...)
Nesse exemplo utilizaremos um método para encontrar dois autovetores
ortogonais associados ao autovalor 𝜆 = −5. No Exemplo 6.20 utilizaremos
o processo de ortogonalização de Gram-Schmidt.
Claramente 𝒗−5 = (0, 1, 2) é um autovetor associado a 𝜆 = −5, pois
satisfaz a equação 4𝑥1 − 2𝑥2 + 𝑥2 = 0. Vamos encontrar um segundo
autovetor 𝒗′−5 = (𝑎, 𝑏, 𝑐) nesse autoespaço (isto é, satisfazendo a equação
anterior) que seja ortogonal ao vetor 𝒗−5 . Para que isso aconteça, 𝒗′−5 tem
que satisfazer as equações

4𝑎 − 2𝑏 + 𝑐 = 0 e 𝑏 + 2𝑐 = 0.

A primeira equação garante que 𝒗′−5 pertence ao autoespaço associado ao


autovalor 𝜆 = −5; como (0, 1, 2) ⋅ (𝑎, 𝑏, 𝑐) = 𝑏 + 2𝑐, a a segunda equação
garante que 𝒗′−5 é ortogonal a 𝒗−5 .
Resolvendo esse sistema, encontramos, por exemplo, a solução 𝒗′−5 =
(−5, −8, 4). Portanto 𝒗−5 e 𝒗′−5 são dois autovetores ortogonais associados
ao autovalor 𝜆 = −5.
Agora encontramos um autovetor associado ao autovalor 𝜆 = 16. Para
isso, escalonamos a matriz 𝐴 − 16I:

⎛−5 −8 4⎞ ⎛4 −2 −20⎞
𝐴 − 16I = ⎜−8 −17 −2 ⎟ → ⎜0 −21 −42⎟ .
⎜ ⎟ ⎜ ⎟
⎝ 4 −2 −20⎠ ⎝0 0 0⎠

Nesse escalonamento, preservamos a última linha que, multiplicada por 2


e somada à segunda linha, gerou a nova segunda linha. Sem efetuar qual-
quer conta com a primeira linha, essa foi desprezada, pois já percebemos a
existência de dois pivôs (ainda não igualados a 1) na matriz obtida.
Agora completamos o escalonamento dividindo a segunda linha por
(−21) e então anulando em cima do pivô da segunda linha:

⎛4 −2 −20⎞ ⎛4 0 −16⎞
⎜0 −21 −42⎟ → ⎜0 1 2 ⎟.
⎜ ⎟ ⎜ ⎟
⎝0 0 0⎠ ⎝0 0 0⎠

Dividindo a primeira linha por 4, obtemos a solução

⎛𝑥⎞ ⎛ 4𝑧⎞ ⎛ 4⎞
⎜𝑦⎟ = ⎜−2𝑧⎟ = 𝑧 ⎜−2⎟ ,
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝𝑧⎠ ⎝ 𝑧 ⎠ ⎝ 1⎠
144 CAPÍTULO 6. O TEOREMA ESPECTRAL

que nos dá o autovetor 𝒗16 = (4, −2, 1). Note que, de acordo com o Lema
6.15, esse vetor já é ortogonal ao vetores 𝒗−5 e 𝒗′−5 .
Para obter uma matriz ortogonal, basta dividirmos os autovetores 𝒗−5 , 𝒗′−5
e 𝒗16 por sua norma. Chegamos então à matriz ortogonal

−5 4
⎛0 ⎞
⎜ 1 √105 √21 ⎟
−8 −2
𝑃 = ⎜ √5 ⎟.
⎜ 2 √105
4
√21 ⎟
1
⎜ ⎟
⎝ √5 √105 √21 ⎠

Cada vetor coluna de 𝑃 é ortogonal aos vetores coluna restantes e cada um


deles tem norma igual a 1. Pelo Lema 6.11, 𝑃 −1 = 𝑃 𝒕 .
A representação de 𝐴 na base formada pelas colunas de 𝑃 é:

⎛−5 0 0⎞
𝐷 = 0 −5 0 ⎟ .

⎜ ⎟
⎝ 0 0 16⎠

As duas primeiras colunas da matriz 𝑃 estão associadas ao autovalor 𝜆 =


−5, enquanto a última coluna está associada ao autovalor 𝜆 = 16. ⊲

Exemplo 6.20 Consideremos a matriz simétrica

⎛2 1 1 ⎞
𝐴 = ⎜1 2 1 ⎟ ,
⎜ ⎟
⎝1 1 2 ⎠

cujo polinômio característico é 𝑝(𝜆) = (𝜆 − 1)2 (𝜆 − 4). A matriz 𝐴 possui


uma base formada por autovetores, na qual ela é representada pela matriz

⎛1 0 0 ⎞
𝐷 = ⎜0 1 0 ⎟ .
⎜ ⎟
⎝0 0 4 ⎠

Escalonando a matriz 𝐴 − I, encontramos que o autoespaço bidimensi-


onal 𝑉1 = {(−𝑥2 − 𝑥3 , 𝑥2 , 𝑥3 ) ∈ ℝ3 } está associado ao autovalor 𝜆 = 1, de
modo que
ℬ1 = {𝒖 = (−1, 0, 1), 𝒗 = (−1, 1.0)}

é uma base de 𝑉1 . Uma base ortonormal é encontrada aplicando-se o pro-


cesso de ortogonalização de Gram-Schmidt:
𝒗⋅𝒖
𝒘1 = 𝒗 − proj𝒖 𝒗 = 𝒗 − 𝒖
‖𝒖‖2
(−1, 1, 0) ⋅ (−1, 0, 1)
= (−1, 1, 0) − (−1, 0, 1)
‖(−1, 0, 1)‖2
1
= (−1, 1, 0) − (−1, 0, 1)
2
1 1
= (− , 1, − ) .
2 2
6.4. IDENTIFICAÇÃO DE CÔNICAS 145

Eliminando frações, concluímos que o vetor (−1, 2, −1) é ortogonal ao vetor


𝒖. Transformando os vetores em unitários, temos que os vetores

−1 1 −1 2 −1
𝒗1 = , 0, e 𝒗′1 = , ,
( √2 √2 ) ( √6 √6 √6 )

formam uma base ortonormal do autoespaço 𝑉1 .


O espaço unidimensional 𝑉4 = {(𝑥3 , 𝑥3 , 𝑥3 ) ∈ ℝ3 } está associado ao
autovalor 𝜆 = 4, de modo que

1 1 1
𝒗4 = , ,
( √3 √3 √3 )

é uma base ortonormal de 𝑉2 . (Note que o vetor 𝒗4 é ortogonal aos vetores


𝒗1 e 𝒗′1 , como consequência do Lema 6.15.) Assim, a matriz
−1 −1 1
⎛ ⎞
⎜ √2 √6
2
√3
1

𝑃 =⎜ 0 ⎟
⎜ 1 √6
−1
√3
1

⎜ ⎟
⎝ √2 √6 √3 ⎠
é unitária e 𝑃 𝒕 𝐴𝑃 = 𝐷. ⊲

Exercício 6.3 Encontre uma matriz ortogonal 𝑃 e uma matriz diagonal 𝐷 satisfazendo 𝑃 𝒕 𝐴𝑃 = 𝐷,
para as matrizes
⎛4 2 2⎞
(a) 𝐴 = ⎜2 4 2⎟;
⎜ ⎟
⎝2 2 4⎠
2 1
(b) ;
(1 2)

⎛2 1 0 0⎞
⎜1 2 0 0⎟
(c) ⎜ .
0 0 2 1⎟
⎜ ⎟
⎝0 0 1 2⎠

6.4 Identificação de Cônicas


Consideremos um polinômio geral de grau menor do que ou igual a dois
nas variáveis 𝑥1 e 𝑥2 :

𝑝(𝑥1 , 𝑥2 ) = 𝐴𝑥21 + 𝐵𝑥1 𝑥2 + 𝐶𝑥22 + 𝐷𝑥1 + 𝐸𝑥2 + 𝐹 ,

em que os coeficientes 𝐴, 𝐵, 𝐶, 𝐷, 𝐸 e 𝐹 são números reais. Como con-


sequência quase direta do que faremos, pode-se verificar que os zeros desse
polinômio, isto é, as soluções reais da equação

𝐴𝑥21 + 𝐵𝑥1 𝑥2 + 𝐶𝑥22 + 𝐷𝑥1 + 𝐸𝑥2 + 𝐹 = 0 (6.2)

podem representar:
146 CAPÍTULO 6. O TEOREMA ESPECTRAL

• o conjunto vazio;

• um único ponto;

• uma reta;

• um par de retas;

• uma parábola;

• uma hipérbole;

• uma elipse.

Observação 6.21 É usual representar um polinômio em duas variáveis uti-


lizando as incógnitas 𝑥 e 𝑦. Assim, a equação (6.2) é escrita como 𝐴𝑥2 +
𝐵𝑥𝑦 + 𝐶𝑦2 + 𝐷𝑥 + 𝐸𝑦 + 𝐹 = 0. Contudo, vamos nos ater à convenção de
denotarmos pontos do ℝ2 por 𝒙 = (𝑥1 , 𝑥2 ). ⊲

Exemplo 6.22 Consideremos o polinômio

𝑥21 + 𝑥22 − 1.

Nesse polinômio temos 𝐴 = 𝐶 = 1, 𝐹 = −1 e os coeficientes restantes


iguais a zero. A equação

𝑥21 + 𝑥22 − 1 = 0 (6.3)

não tem solução real. Assim, é vazio o conjunto de soluções de (6.3). ⊲

Exemplo 6.23 A equação 𝑥2 = 3 tem como solução o par de retas 𝑥1 = 3


e 𝑥1 = −3. ⊲

Exercício 6.4 Dê exemplo de um polinômio de grau menor do que ou igual a dois com coeficientes
reais em duas variáveis cujo conjunto de zeros é
(𝑖) apenas um ponto;
(𝑖𝑖) uma reta.
Para melhor estudarmos a equação (6.2), faremos uma breve revisão das
equações das cônicas em posição padrão.

6.4.1 Elipse
A elipse é o conjunto dos pontos 𝑃 = (𝑥1 , 𝑥2 ) ∈ ℝ2 cuja soma das
distâncias de 𝑃 a dois pontos fixos do plano 𝐹1 ≠ 𝐹2 (chamados focos) é
constante.
Denotando dist(𝐹1 , 𝐹2 ) = 2𝑐 (a distância entre os focos), então a elipse
é expressa pela equação
dist(𝑃 , 𝐹1 ) + dist(𝑃 , 𝐹2 ) = 2𝑎, (6.4)

em que 𝑎 é uma constante maior do que 𝑐.


6.4. IDENTIFICAÇÃO DE CÔNICAS 147

Considerando os focos 𝐹1 = (−𝑐, 0) e 𝐹2 = (𝑐, 0), a equação da elipse é


dada por
𝑥21 𝑥22
+ = 1, (6.5)
𝑎2 𝑏2
enquanto se os focos forem 𝐹1 = (0, −𝑐) e 𝐹2 = (0, 𝑐), então a equação da
elipse é dada por
2
𝑥2 𝑥2
+ = 1. (6.6)
𝑏2 𝑎2
Em ambos os casos, 𝑏 = √𝑎2 − 𝑐 2 > 0. Essas elipses estão em posição
padrão. O maior entre os valores de 𝑎 e 𝑏 determina o semieixo maior, isto é,
a distância da origem ao ponto da elipse mais afastado dela; analogamente,
o menor entre os valores de 𝑎 e 𝑏 determina o semieixo menor.
𝑥2 ✻

𝑥2 ✻

✲ ✲
𝑥1 𝑥1

Figura 6.1: Elipses em posição padrão, com focos no eixo 𝑥1 e eixo 𝑥2 ,


respectivamente.

De fato, consideremos o caso em que os focos estão no eixo 𝑥1 . Mos-


traremos que um ponto 𝑃 = (𝑥1 , 𝑥2 ) da elipse satisfaz a equação (6.5). De
acordo com a equação (6.4), se 𝑃 for um ponto da elipse, ele satisfaz a equa-
ção
2 2 2 2
√(𝑥1 + 𝑐) + 𝑥2 + √(𝑥1 − 𝑐) + 𝑥2 = 2𝑎.
Elevando ao quadrado a expressão

2 2 2 2
√(𝑥1 + 𝑐) + 𝑥2 = 2𝑎 − √(𝑥1 − 𝑐) + 𝑥2
e simplificando, obtemos

𝑎√(𝑥1 − 𝑐)2 + 𝑥22 = 𝑎2 − 𝑐𝑥1 .


Elevando novamente ao quadrado e simplificando, obtemos
(𝑎2 − 𝑐 2 )𝑥21 + 𝑎2 𝑥22 = 𝑎2 (𝑎2 − 𝑐 2 ).

Definindo 𝑏 = √𝑎2 − 𝑐 2 e dividindo a equação pelo lado direito da igual-


dade, chegamos à expressão (6.5). Se trocarmos 𝑥1 por 𝑥2 , obtemos a ex-
pressão (6.6).
Observe que, se 𝐹1 = 𝐹2 , então a elipse transforma-se no círculo de raio
𝑎: esse é o caso 𝑎 = 𝑏, que acontece quando 𝑐 = 0.
O valor 𝑒 = 𝑐/𝑎 é chamado excentricidade da elipse. Como 𝑐 < 𝑎,
temos 0 < 𝑒 < 1. No caso do círculo, temos 𝑒 = 0.
148 CAPÍTULO 6. O TEOREMA ESPECTRAL

Exercício 6.5 Mostre que um ponto 𝑃 = (𝑥1 , 𝑥2 ) que satisfaz ou a equação (6.5) ou a equação
(6.6) necessariamente satisfaz à equação (6.4).

6.4.2 Hipérbole
A hipérbole é o conjunto dos pontos 𝑃 = (𝑥1 , 𝑥2 ) ∈ ℝ2 cuja valor
absoluto da diferença das distâncias de 𝑃 a dois pontos fixos do plano 𝐹1 ≠
𝐹2 (chamados focos) é constante.
Denotando dist(𝐹1 , 𝐹2 ) = 2𝑐 (a distância entre os focos), então a hipér-
bole é expressa pela equação

|dist(𝑃 , 𝐹1 ) − dist(𝑃 , 𝐹2 )| = 2𝑎, (6.7)

em que 𝑎 é uma constante menor do que 𝑐.


Considerando os focos 𝐹1 = (−𝑐, 0) e 𝐹2 = (𝑐, 0), a equação da hipér-
bole é dada por

𝑥21 𝑥22
− = 1, (6.8)
𝑎2 𝑏2
com assíntotas
𝑏
𝑥2 = ± 𝑥1 .
𝑎
Por outro lado, se os focos forem 𝐹1 = (0, −𝑐) e 𝐹2 = (0, 𝑐), então a
equação da hipérbole é dada por

𝑥22 𝑥21
− = 1, (6.9)
𝑎2 𝑏2
com assíntotas
𝑎
𝑥2 = ± 𝑥1 .
𝑏
Em ambos os casos, 𝑏 = √𝑎2 − 𝑐 2 > 0. Essas hipérboles estão em
posição padrão.
𝑥2 ✻ 𝑥2 ✻

✲ ✲
𝑥1 𝑥1

Figura 6.2: Hipérboles em posição padrão, com focos no eixo 𝑥1 e eixo 𝑥2 ,


respectivamente. Em cada caso, os pontos de interseção da hipérbole com
os eixos coordenados são chamados vértices da hipérbole.

De fato, consideremos o caso em que os focos estão no eixo 𝑥1 . Mos-


traremos que um ponto 𝑃 = (𝑥1 , 𝑥2 ) da hipérbole satisfaz a equação (6.8).
6.4. IDENTIFICAÇÃO DE CÔNICAS 149

De acordo com a equação (6.7), se 𝑃 for um ponto da elipse, ele satisfaz a


equação
2 2 2 2
√(𝑥1 + 𝑐) + 𝑥2 − √(𝑥1 − 𝑐) + 𝑥2 = ±2𝑎.
Elevando ao quadrado a expressão

2 2 2 2
√(𝑥1 + 𝑐) + 𝑥2 = √(𝑥1 − 𝑐) + 𝑥2 ± 2𝑎
e simplificando, obtemos

±𝑎√(𝑥1 − 𝑐)2 + 𝑥22 = 𝑎2 − 𝑐𝑥1 .

Elevando novamente ao quadrado e simplificando, obtemos

(𝑎2 − 𝑐 2 )𝑥21 + 𝑎2 𝑥22 = 𝑎2 (𝑎2 − 𝑐 2 ).

Definindo 𝑏 = √𝑐 2 − 𝑎2 > 0 e dividindo a equação pelo lado direito da


igualdade, chegamos à expressão (6.8).
Para obtermos as assíntotas de hipérbole, escrevemos a equação (6.8)
na forma
𝑏2 𝑎2
𝑥22 = 2 𝑥21 1 − 2 .
𝑎 ( 𝑥1 )
Para valores muito grandes de 𝑥1 (positivos ou negativos), e expressão do
𝑏2 2
lado direito da igualdade aproxima-se de 𝑥 ,
𝑎2 1
ou seja,

𝑏2 2 𝑏
𝑥22 = 𝑥 ⇒ 𝑥 2 = ± 𝑥1 .
𝑎2 1 𝑎
Se trocarmos 𝑥1 por 𝑥2 , obtemos tanto a expressão (6.9) como suas as-
síntotas.
O valor 𝑒 = 𝑐/𝑎 é chamado excentricidade da hipérbole. Como 𝑐 > 𝑎,
temos 𝑒 > 1.

Exercício 6.6 Mostre que um ponto 𝑃 = (𝑥1 , 𝑥2 ) que satisfaz ou a equação (6.8) ou a equação
(6.9) necessariamente satisfaz à equação (6.7).

6.4.3 Parábola
A parábola é o conjunto dos pontos 𝑃 = (𝑥1 , 𝑥2 ) ∈ ℝ2 equidistantes de
uma reta fixa 𝑟 (chamada diretriz) e de um ponto fixo 𝐹 (chamado foco) não
pertencente à diretriz. Assim, a equação da parábola é dada por

dist(𝑃 , 𝑟) = dist(𝑃 , 𝐹 ), (6.10)

em que dist(𝑃 , 𝑟) = min𝑄∈𝑟 dist(𝑃 , 𝑄), quer dizer, dist(𝑃 , 𝑟) é a distância


de 𝑃 ao ponto 𝑄 da reta mais próximo de 𝑃.
Considerando como foco o ponto 𝐹 = (𝑝, 0) e diretriz a reta 𝑟 dada por
𝑥1 = −𝑝, a equação da parábola é dada por

𝑥22 = 4𝑝𝑥1 . (6.11)


150 CAPÍTULO 6. O TEOREMA ESPECTRAL

𝑥2 ✻ 𝑥2 ✻

✲ ✲
𝑥1 𝑥1

Figura 6.3: Parábolas em posição padrão, com focos em (0, 𝑝) e (0, −𝑝)
respectivamente, com 𝑝 > 0.
𝑥2 ✻ 𝑥2 ✻


𝑥1


𝑥1

Figura 6.4: Parábolas em posição padrão, com focos em (𝑝, 0) e (−𝑝, 0)


respectivamente, com 𝑝 > 0.

Por outro lado, se o foco for 𝐹 = (0, 𝑝) e diretriz a reta 𝑟 dada por
𝑥2 = −𝑝, então a equação da parábola é dada por

𝑥21 = 4𝑝𝑥2 . (6.12)

De fato, consideremos o caso em que o foco está no eixo 𝑥1 . Mostrare-


mos que um ponto 𝑃 = (𝑥1 , 𝑥2 ) da parábola satisfaz a equação (6.11). De
acordo com a equação (6.10), se 𝑃 for um ponto da parábola, ele satisfaz a
equação
2 2
√(𝑥1 − 𝑝) + 𝑥2 = ±|𝑥1 + 𝑝|.
Elevando ao quadrado essa igualdade e então simplificando, obtemos ime-
diatamente a equação (6.11) .
Trocando 𝑥1 por 𝑥2 , obtemos a equação (6.12).
O ponto 𝑃0 da parábola mais próximo da reta diretriz 𝑟 é chamado vértice
de parábola. Esse ponto, no caso de parábolas em posição padrão, sempre
é a origem: 𝑃0 = (0, 0).

Exercício 6.7 Mostre que um ponto 𝑃 = (𝑥1 , 𝑥2 ) que satisfaz ou a equação (6.11) ou a equação
(6.12) necessariamente satisfaz à equação (6.10).

6.4.4 A equação 𝐴𝑥21 + 𝐵𝑥1 𝑥2 + 𝐶𝑥22 + 𝐹 = 0


Para mostrarmos como identificar cônicas dadas pela equação

𝐴𝑥21 + 𝐵𝑥1 𝑥2 + 𝐶𝑥22 + 𝐷𝑥1 + 𝐸𝑥2 + 𝐹 = 0,

começaremos considerando o caso em que 𝐷 = 𝐸 = 0. Mostraremos como


proceder nesse caso por meio de um exemplo:
6.4. IDENTIFICAÇÃO DE CÔNICAS 151

Exemplo 6.24 Consideremos a equação

5𝑥21 − 4𝑥1 𝑥2 + 5𝑥22 − 42 = 0. (6.13)

Essa equação é equivalente à equação matricial

5 −2 𝑥1
(𝑥1 𝑥2 ) (−2 5) (𝑥2 )
− 42 = 0. (6.14)

Note que os termos da diagonal principal da matriz

5 −2
𝐴=
(−2 5)

correspondem, respectivamente, aos monômios 5𝑥21 e 5𝑥22 , enquanto os ter-


mos restantes a −4𝑥1 𝑥2 , quer dizer, são iguais a −4/2 = −2.
Nosso procedimento visa eliminarmos, por meio de uma mudança de
variável, o termo em 𝑥1 𝑥2 . Como a matriz 𝐴 é simétrica, ela é ortogonal-
mente diagonalizável. Isto é, existem matrizes 𝑃 e 𝐷, com 𝑃 −1 = 𝑃 e 𝐷
diagonal, de modo que 𝐴 = 𝑃 𝐷𝑃 𝒕 . (Deixaremos para depois a determina-
ção de 𝑃 e 𝐷.)
Substituindo essa expressão de 𝐴 na equação (6.14) e denotando

𝑥1
𝑋=
( 𝑥2 )

obtemos
𝑋 𝒕 𝑃 𝐷𝑃 𝒕 𝑋 − 42 = 0. (6.15)
A ideia agora é fazermos uma mudança de variável:

𝑥′1 𝑥1
′ = 𝑋′ = 𝑃 𝒕 .
( 𝑥2 ) ( 𝑥2 )

Notando que (𝑋 ′ )𝒕 = 𝑋 𝒕 𝑃, a equação (6.15) é escrita como

′ ′ 𝜆1 0 𝑥′1
𝑥
( 1 𝑥 2) ( 0 − 42 = 0,
𝜆2 ) (𝑥′2 )

equação que é equivalente a

𝜆1 (𝑥′1 )2 + 𝜆2 (𝑥′2 )2 − 42 = 0, (6.16)

equação que não possui o termo em 𝑥′1 𝑥′2 .


Passemos então aos cálculos das matrizes 𝑃 e 𝐷, para fazermos as contas
específicas deste exemplo. Temos

5 − 𝜆 −2
det(𝐴 − 𝜆I) = det = (5 − 𝜆)2 − 4 = 𝜆2 − 10𝜆 − 21.
( −2 5 − 𝜆)

Os autovalores de 𝐴 são, portanto, 𝜆1 = 3 e 𝜆2 = 7. Calculemos o autovetor


associado ao autovalor 𝜆1 = 3. Uma vez que

2 −2
𝐴 − 3I = ,
(−2 2)
152 CAPÍTULO 6. O TEOREMA ESPECTRAL

obtemos que
1/√2
𝒗3 =
(1/√2)
é um autovetor unitário associado ao autovalor 𝜆1 = 3.
Uma vez que 𝜆2 ≠ 𝜆1 , o Lema 6.15 garante que o autovetor associado
ao autovalor 𝜆2 = 7 é ortogonal ao autovetor 𝒗3 . Assim, sem efetuarmos
qualquer cálculo, podemos garantir que

−1/√2
𝒗7 =
( 1/√2)

é um autovetor unitário associado ao autovalor 𝜆2 = 7.


Ao definirmos a matriz 𝑃, escolheremos suas colunas de modo que
det 𝑃 > 0. Pode-se mostrar que essa escolha corresponde a uma rotação
de coordenadas.
Em nosso caso específico, a escolha
1/√2 −1/√2 3 0
e
(1/√2 1/√2) (0 7)

é adequada. (Lembre-se que o ordenamento das colunas da matriz 𝑃 deter-


mina o ordenamento dos autovalores da matriz diagonal 𝐷.) Essa escolha
determina a base ordenada ℬ = {𝒗3 , 𝒗7 }.
Voltando à equação (6.13), já substituindo os valores encontrados para
𝜆1 e 𝜆2 (no ordenamento determinado pela matriz escolhida 𝑃), temos a
equação
3(𝑥′1 )2 + 7(𝑥′2 )2 = 42,
que é equivalente a
(𝑥′1 )2 (𝑥′2 )2
+ = 1.
16 6
Assim, nossa análise mostrou que, no sistema de eixo determinado por
𝑥′1 e 𝑥′2 , a cônica de equação (6.13) corresponde a uma elipse em posição
padrão com eixo maior √16 = 4 situado no eixo 𝑥′1 e eixo menor 𝑥′2 = √6
situado no eixo 𝑥′2 .

𝑥′2 ✻


𝑥′1

Figura 6.5: Nos eixos 𝑥′1 e 𝑥′2 , a cônica (6.13) assume posição padrão. O
semieixo maior é a distância entre a origem e a interseção da elipse com o
eixo 𝑥′1 .
6.4. IDENTIFICAÇÃO DE CÔNICAS 153

Para esboçarmos o gráfico desta elipse utilizando os eixos 𝑥1 e 𝑥2 , basta


localizarmos a posição dos eixos 𝑥′1 e 𝑥′2 nesse sistema referencial.
A posição do eixo 𝑥′1 corresponde, no sistema referencial formado por
𝑥1 e 𝑥2 , à posição da primeira coluna da matriz 𝑃; analogamente, o eixo 𝑥′2
corresponde à posição da segunda coluna da matriz 𝑃.
Vamos mostrar esse fato. A mudança de variável que realizamos, isto é,
𝑃 𝑋 = 𝑋 ′ nos dá a expressão 𝑋 = 𝑃 𝑋 ′ , ou seja,
𝒕

𝑥1 1/√2 −1/√2 𝑥′1


= ′ .
(𝑥2 ) (1/√2 1/√2) (𝑥2 )

A matriz 𝑃 corresponde à mudança da base ℬ para a base canônica ℰ (jus-


tifique!). No sistema formado por 𝑥′1 e 𝑥′2 , o eixo 𝑥′1 corresponde ao vetor
𝒕
(1 0) . Substituindo esse vetor na igualdade anterior, obtemos justamente
a primeira coluna da matriz 𝑃 (isto é, o vetor 𝒗3 ), mostrando que, no sistema
formado por 𝑥1 e 𝑥2 , o eixo 𝑥′1 tem a direção do vetor 𝒗3 . Analogamente, o
eixo 𝑥′2 corresponde ao vetor 𝒗7 .
Com base nesses dados, chegamos ao seguinte gráfico:

𝑥2 ✻

𝑥′
1

𝑥′
2


𝑥1

Figura 6.6: Representação da elipse de equação (6.13) no sistema de eixos


original, mostrando também a posição dos eixos 𝑥′1 e 𝑥′2 . ⊲
Em geral, dada um equação da forma

𝐴𝑥21 + 𝐵𝑥1 𝑥2 + 𝐶𝑥22 + 𝐹 = 0,

essa equação é equivalente à equação matricial

𝐴 𝐵/2 𝑥1
(𝑥1 𝑥2 ) (𝐵/2 𝐶 ) (𝑥 ) + 𝐹 = 0, (6.17)
2

como podemos verificar facilmente. O estudo da equação (6.17) é feito


seguindo o método utilizado no exemplo anterior.

Exemplo 6.25 Considere a equação

𝑥21 − 8𝑥1 𝑥2 − 5𝑥22 − 16 = 0, (6.18)


154 CAPÍTULO 6. O TEOREMA ESPECTRAL

que é equivalente à equação matricial


1 −4 𝑥1
(𝑥1 𝑥2 ) (−4 −5) (𝑥 ) − 16 = 0. (6.19)
2
Encontramos então os autovalores da matriz quadrada em (6.19), que deno-
taremos por 𝐴:
1−𝜆 −4
det(𝐴 − 𝜆I) = det = (1 − 𝜆)(−5 − 𝜆) − 16
( −4 −5 − 𝜆)
= 𝜆2 + 4𝜆 − 21 = (𝜆 − 3)(𝜆 + 7).
Calculamos então o autovetor associado ao autovalor 𝜆1 = 3:
−2 −4 1 2
𝐴 − 3I = → .
(−4 −8) (0 0)
(Observe que, sem efetuar qualquer cálculo, sabemos que a segunda linha
da matriz 𝐴 − 3I deverá ser um múltiplo da primeira linha: como 𝜆 = 3 é
um autovalor, necessariamente o sistema deverá possuir uma variável livre.)
Obtemos assim o autovetor unitário
−2/√5
𝒗3 = .
( 1/√5)
O autovetor associado ao autovalor 𝜆 = −7 deve ser ortogonal a esse. As-
sim, podemos tomar o autovetor unitário

1/√5
𝒗−7 = .
(2/√5)
Tomando os vetores nessa ordem, obteremos uma matriz 𝑃 com determi-
nante negativo. Assim, vamos inverter a ordem e escolher a base ℬ =
{𝒗−7 , 𝒗3 }:

1/√5 −2/√5 −7 0
𝑃 = ⇒ 𝐷= .
(2/√5 1/√5) ( 0 3)

Assim, temos 𝐴 = 𝑃 𝐷𝑃 𝒕 ; substituindo essa expressão em (6.19) e efe-


tuando a mudança de variável 𝑋 ′ = 𝑃 𝒕 𝑋 (veja a notação e justificativa para
essa mudança de variável no Exemplo 6.24), obtemos
−7(𝑥′1 )2 + 3(𝑥′2 )2 = 21,
que é equivalente à hipérbole em posição padrão
(𝑥′2 )2 (𝑥′1 )2
− = 1, (6.20)
7 3
cujo gráfico é esboçado como
Identificando a posição dos eixos 𝑥′1 e 𝑥′2 no sistema original formado
por 𝑥1 e 𝑥2 (quer dizer, no sistema dado pela base canônica), chegamos ao
esboço de gráfico mostrado na Figura 6.8. ⊲

Exercício 6.8 Esboce a cônica de equação 2𝑥21 − 4𝑥1 𝑥2 − 𝑥22 + 8 = 0.


Exercício 6.9 Esboce a cônica de equação 5𝑥21 − 4𝑥1 𝑥2 + 8𝑥22 − 36 = 0.
6.4. IDENTIFICAÇÃO DE CÔNICAS 155

Figura 6.7: Nos eixos 𝑥′1 e 𝑥′2 , a cônica (6.18) assume posição padrão.

𝑥2 ✻

𝑥′
1

𝑥′
2


𝑥1

Figura 6.8: Os eixos 𝑥′1 e 𝑥′2 estão apresentados com relação à base canônica,
isto é, no sistema formado por 𝑥1 e 𝑥2 .

6.4.5 O estudo da equação completa (6.2)


Para estudarmos a equação completa (6.2), começamos com um exem-
plo simples:

Exemplo 6.26 Consideremos a cônica de equação 𝑥22 + 4𝑥2 − 8𝑥1 + 2 = 0.


Completando o quadrado na equação, obtemos

8𝑥1 = 𝑥22 + 4𝑥2 + 1 = (𝑥2 + 2)2 − 2,

ou seja,
1
(𝑥2 + 2)2 = 8 (𝑥1 − ) .
4
′ ′
Definindo 𝑥2 = 𝑥2 + 2 e 𝑥1 = 𝑥 − 1/4, chegamos à equação

(𝑥′2 )2 = 8𝑥′1 ,

que representa uma parábola com vértice no ponto (1/4, −2), que é repre-
sentada pelo gráfico

156 CAPÍTULO 6. O TEOREMA ESPECTRAL

6.5 Exercícios
1. Sejam 𝐸 um espaço complexo com produto interno e 𝑇 ∶ 𝐸 → 𝐸 um
operador linear. Se 𝐸 tiver dimensão finita, mostre que 𝑇 é autoad-
junto se, e somente se ⟨𝑇 𝒙, 𝒙⟩ ∈ ℝ para todo 𝒙 ∈ 𝐸. Esse resultado
é verdadeiro se 𝐸 for um espaço real?

2. Sejam 𝐸, 𝐹 espaços com produto interno de mesma dimensão finita e


𝑇 ∶ 𝐸 → 𝐹 uma isometria linear. Mostre que, se esses espaços forem
reais, então det 𝑇 = ±1. No caso complexo, então vale | det 𝑇 | = 1.
Índice Remissivo

𝑋 coordenadas de um vetor, 57
norma no, 69 cálculo da matriz inversa, 26

adjunta, 112 desigualdade


alternativa de Fredholm, 115 de Bessel, 82
aplicação linear, 84 de Cauchy-Bunyakowsky-Schwarz,
adjunta, 112 71
autoespaço, 123 determinante
autovalor, 123 de um operador linear, 122
autovetor, 123 dimensão
complexificação de uma, 136 de um subespaço, 53
determinante de uma, 122 distância euclidiana, 72
diagonalizável, 126
imagem de uma, 85 elipse
invertível, 102 definição, 146
núcleo de uma, 85 equação em posição padrão, 146
nula, 85 excentricidade da, 147
polinômio característico, 123 posição padrão, 146
autoespaço, 123 semieixo maior, 146
autovetor, 123 semieixo menor, 146
autovetores, 123 escalar, 4
espaço
base coluna, 103
canônica do 𝕂𝑛 , 49 linha, 103
de um subespaço, 48 vetorial, 34
Bessel ℝ𝑛 , 31, 33
desigualdade de, 82 espaço gerado por um subconjunto,
41
Cauchy-Bunyakowsky-Schwarz
espaço vetorial
desigualdade de, 71
com produto interno, 65
combinação linear, 42
complexificação de um, 136
complemento
de dimensão finita, 51
ortogonal, 78
de dimensão infinita, 51
complexificação
normado, 69
de um espaço vetorial, 136
subespaço, 39
de um operador, 136
trivial, 39
conjunto
linearmente dependente, 45 Fredholm
linearmente independente, 45 alternativa de, 115
ordenado, 48 funcional linear, 84
ortogonal, 73
ortonormal, 73 Gauss

157
158 ÍNDICE REMISSIVO

método de Gauss-Jordan, 18 submatriz, 6


Gauss-Jordan, 11 transposta, 5
Gram-Schmidt transposta conjugada, 5
ortogonalização de, 76 triangular inferior, 5
triangular superior, 5
hipérbole matrizes
definição, 147 semelhantes, 122
equação em posição padrão, 147 soma de, 6
excentricidade da, 148 método
posição padrão, 148 de Gauss-Jordan, 18
vértices, 148, 152 método de Gauss-Jordan, 11

identidade norma, 69
de polarização, 81 da soma, 69
do paralelogramo, 72 do máximo, 69
inversa gerada pelo produto interno, 71
cálculo da, 26 núcleo
isometria, 138 de uma aplicação linear, 85
que preserva a origem, 138 de uma matriz, 22, 40
isomorfismo, 84
operador
Jordan autoadjunto, 140
método de Gauss-Jordan, 18 complexificação de um, 136
diagonalizável, 126
matriz hermitiano, 140
aumentada de um sistema, 12 polinômio característico
autoadjunta, 6 de um, 123
coluna, 5 simétrico, 140
complexa, 4 operador linear, 84
conjugada, 5 identidade, 85
cálculo da inversa de uma, 26 operações elementares
diagonal, 5 sobre as linhas de uma matriz,
diagonal principal de uma, 5 14
elementar, 23 ortogonalidade, 68
entrada de uma, 4
escalonamento de uma, 16 parábola
espaço coluna de uma, 103 diretriz, 149
espaço linha de uma, 103 equação em posição padrão, 149
forma escalonada, 15 foco, 149
reduzida por linhas, 17 vértice, 149
inversa, 10 Pitágoras
linha, 5 teorema de, 69
mudança de base, 96 pivô, 15
multiplicação por escalar, 6 polinômio
nula, 4 característico, 123
pivô, 15 mônico, 124
posto de uma, 105 posto
quadrada, 4 de uma matriz, 105
real, 4 processo de ortogonalização de Gram-
simétrica, 6 Schmidt, 76
ÍNDICE REMISSIVO 159

produto variáveis livres, 18


interno, 65 variável livre, 17
canônico do ℂ𝑛 , 66 vetor, 34
canônico do ℝ𝑛 , 66 representação em uma base, 57
projeção unitário, 69
de um vetor, 70 vetor projeção, 70
ortogonal, 109 vetores
colineares, 39
regra ortogonais, 68
da unidade, 7, 32, 34 perpendiculares, 68
reta pela origem, 39
Riesz
teorema de representação de, 111

semelhança de matrizes, 122


sistema linear, 11
escalonamento, 16
forma escalonada
reduzida por linhas, 17
homogêneo, 12
matriz aumentada de um, 12
não homogêneo, 12
homogêneo associado, 12
operações elementares, 14
variável livre, 17, 18
soma
de matrizes, 6
subespaço, 39
trivial, 39
subespaços
soma de, 59
soma direta de, 60
submatriz, 6

teorema
alternativa de Fredholm, 115
da base do espaço coluna, 105
da dimensão dos espaços linha e
coluna, 104
da soma direta ortogonal, 78
de Gram-Schmidt, 76
de Pitágoras, 69
de representação de Riesz, 111
de unicidade da forma escalonada
reduzida por linhas, 21
do núcleo e da imagem, 87
dos operadores diagonalizáveis,
129
transformação linear, 84
translação, 138

Você também pode gostar