Algebra Linear

Fazer download em pdf ou txt
Fazer download em pdf ou txt
Você está na página 1de 153

UNIVERSIDADE DE TRÁS-OS-MONTES E ALTO DOURO

Álgebra Linear: um texto de apoio às aulas teóricas e práticas

Paula Catarino
Paulo Vasco

Vila Real, 2021


1. Introdução
A Unidade Curricular de Álgebra Linear faz parte do plano de estudos dos mais
diversos ciclos de estudos inseridos na área das Ciências e Tecnologias.

1. Capítulo - Matrizes
De um modo simples comecemos por considerar que uma matriz é um “ser”
matemático que é crucial na Unidade Curricular de “Álgebra Linear”. Trata-se de uma
ferramenta matemática com muita aplicabilidade nas áreas das Ciências e Tecnologia,
daí o termos sempre presente esta ferramenta durante a lecionação dos conteúdos
programáticos desta Unidade Curricular. Os elementos constituintes de uma matriz
terão significados distintos quando as respetivas matrizes forem contextualizadas e
ajudarão à resolução dos problemas para os quais estão a ser usadas.

1.1. Generalidades sobre matrizes. A sua dimensão e a sua representação.


Dados dois números naturais 𝑚 e 𝑛, chama-se matriz de ordem (ou dimensão) 𝑚 × 𝑛 a
toda tabela 𝐴, da forma

𝑎11 𝑎12 ⋯ 𝑎1𝑛 𝑎11 𝑎12 ⋯ 𝑎1𝑛


𝐴=( ⋮ ⋱ ⋮ ) ou 𝐴 = [ ⋮ ⋱ ⋮ ],
𝑎𝑚1 𝑎𝑚2 ⋯ 𝑎𝑚𝑛 𝑎𝑚1 𝑎𝑚2 ⋯ 𝑎𝑚𝑛

cujos elementos são representados por 𝑎𝑖𝑗 sendo 𝑖 = 1, 2, … , 𝑚 e 𝑗 = 1, 2, … , 𝑛.


Reparemos que o elemento 𝑎𝑖𝑗 é aquele que se encontra na linha 𝑖 e na coluna 𝑗.

Uma matriz costuma ser representada por letras maiúsculas, da forma 𝐴 = (𝑎𝑖𝑗 )𝑖,𝑗 e os

elementos estão distribuídos por linhas e por colunas. Uma matriz com ordem 𝑚 × 𝑛 é
uma matriz que tem 𝑚 linhas e 𝑛 colunas e também é usual dizer-se que é uma matriz
de ordem 𝑚 por 𝑛.

As linhas e as colunas de uma matriz podem ser formadas por números (de todo o tipo),
ou por letras, ou por expressões matemáticas, ou ainda uma mistura de todos os casos
mencionados antes.
Por exemplo, a primeira matriz é constituída por números reais, a segunda matriz por
números complexos, a terceira matriz por letras, a quarta matriz por expressões
matemáticas e a quinta matriz por uma mistura de alguns deste tipo de elementos:

EXEMPLO 1

−1 5 1+𝑖 5 − 2𝑖 2 − 3𝑖 𝑎 𝑏
𝐴=( 2 ), 𝐴 = [1 − 𝑖 −1 + 4𝑖 𝑖 ], 𝐴 = ( 𝑥 𝑐 ), 𝐴 =
√7
3 −3𝑖 −2 + 3𝑖 4 − 7𝑖 𝑦 𝑧
𝑎+𝑏 𝑥 + 2𝑦 −2𝑥 + 3𝑦 + 𝑧
[− 5𝑥 2𝑥 + 2𝑦 1+𝑧 ],
2−𝑥 𝑥 𝑥+𝑦+𝑧+𝑡

2 7
1 + 2𝑖 − 19
19 1 0 0
𝐴 = (𝑎 + 𝑏 2 0 ), 𝐴 = (1 0 2).
𝑥 2𝑦 9

Relativamente à ordem das matrizes aqui apresentadas, temos que a primeira é uma
matriz de ordem 2 × 2 (ou de ordem 2), a segunda matriz é de ordem 3 × 3 (ou de
ordem 3), a terceira matriz tem ordem 3 × 2, a quarta e quinta matrizes são, ambas, de
ordem 3 tal como acontece com a segunda matriz apresentada. A última matriz tem
ordem 2 × 3.

Os elementos que constituem uma matriz chamam-se as entradas dessa matriz.


Recapitulando, devemos ter em atenção a representação de uma matriz, o número de
linhas e de colunas que ela possui, sendo a sua representação, em geral, dada por

Imagem retirada de
https://pt.wikipedia.org/wiki/Matriz_(matem%C3%A1tica)#/media/Ficheiro:Matriz_or
ganizacao.png
1.2. Diferentes tipos de matrizes e sua classificação.
De acordo com a ordem (ou dimensão) que cada matriz possui, dividimo-las em dois
grandes tipos de matrizes: matrizes quadradas e matrizes retangulares. Assim, temos:

1. Matriz quadrada

Uma matriz é dita quadrada se tem o mesmo número de linhas e colunas.

Reparemos nas matrizes apresentadas no EXEMPLO 1. Temos que todas elas são
matrizes quadradas à exceção da terceira matriz e da última matriz.

Notemos que a primeira matriz tem o mesmo número de linhas e de colunas que é 2, a
segunda, quarta e quinta matrizes têm exatamente 3 linhas e 3 colunas. No entanto,
para a terceira matriz isto já não é verdade, pois tem 3 linhas e 2 colunas e para a última
matriz temos 2 linhas e 3 colunas.

Muitas outras matrizes quadradas podem ser apresentadas. Deixamos mais alguns
exemplos desse tipo de matrizes, uma de ordem 2, outra de ordem 3 e uma de ordem
4:

EXEMPLO 2
2 −1 0 0
0 5 −2
2 5 0 2 1 1), etc.
𝐴=( ), 𝐴 = [−5 0 1 ], 𝐴 = (
−1 8 1 3 1 5
2 −1 0 2
3 1 −2

Numa matriz quadrada 𝐴 de ordem 𝑛 a diagonal principal é aquela formada pelos


elementos 𝑎𝑖𝑗 , tais que 𝑖 = 𝑗, para 𝑖 = 1, 2, … , 𝑛.

Também se pode falar na diagonal secundária que é formada pelos elementos 𝑎𝑖𝑗 , tais
que 𝑖 + 𝑗 = 𝑛 + 1, para 𝑖 = 1, 2, … , 𝑛.

Chamamos traço de uma matriz quadrada 𝐴 de ordem 𝑛 e representamos por 𝑡𝑟(𝐴), ao


resultado da adição dos elementos da matriz que se localizam na diagonal principal, ou
seja, o traço de 𝐴 é dado por:

𝑡𝑟(𝐴) = ∑ 𝑎𝑖𝑖
𝑖=1
A seguinte imagem1 mostra-nos as entradas da matriz que estão na diagonal principal e
na diagonal secundária de uma qualquer matriz quadrada.

No exemplo abaixo, a diagonal principal é formada pelos seguintes elementos: 1, -1 e 4.


Há também a diagonal secundária, que é formada pelos elementos cuja soma dos
índices da linha e da coluna é igual a 𝑛 + 1 = 3 + 1 = 4, sendo 𝑛 a ordem da matriz.
Na matriz seguinte, os elementos 2, -1 e 2 constituem a diagonal secundária:

EXEMPLO 3

1 5 2
𝐴 = [5 −1 0]
2 0 4

Chamamos traço de uma matriz quadrada 𝐴 de ordem 𝑛 e representamos por 𝑡𝑟(𝐴), ao


resultado da adição dos elementos da matriz que se localizam na diagonal principal, ou
seja, o traço de 𝐴 é dado por:
𝑛

𝑡𝑟(𝐴) = ∑ 𝑎𝑖𝑖
𝑖=1

Assim, o traço da última matriz apresentada é igual a 4, uma vez que


𝑡𝑟(𝐴) = ∑𝑛𝑖=1 𝑎𝑖𝑖 = 𝑎11 + 𝑎22 + 𝑎33 = 1 + (−1) + 4 = 4.

1
Imagem retirada de
https://www.google.com/search?q=diagonal+principal+matriz&rlz=1C1GCEA_enPT876PT876&sxsrf=ALe
Kk01cNbhvoHSbvThCsxqM2uhOs1foGw:1602342681964&tbm=isch&source=iu&ictx=1&fir=J48pDuv1n_
R7gM%252CLyJI6W1ZNNE_QM%252C%252Fm%252F01bpqr&vet=1&usg=AI4_-
kSDU0UqYlwwWiD_aHrabw_g5fv6eA&sa=X&ved=2ahUKEwjH4fLSp6rsAhWvzIUKHYm-
A8EQ_B16BAgMEAM#imgrc=gD24ASBmXk1HFM no dia 10 de outubro de 2020.
Exercício 1: Em relação às matrizes quadradas apresentadas nos Exemplos 1 e 2, indique
os elementos das diagonais principal e secundária de cada uma delas e calcule os
respetivos traços.

2. Matriz retangular

Uma matriz é dita retangular se o número de linhas é diferente do número de colunas.

Podemos ter matrizes retangulares cujo número de linhas é maior do que o número de
colunas, como também podemos ter matrizes onde a situação é contrária. Por exemplo,
duas matrizes do EXEMPLO 1 são retangulares (a terceira matriz e a última matriz). Na
terceira matriz temos mais linhas do que colunas, enquanto na última matriz temos mais
colunas do que linhas.

Apresentamos de seguida mais alguns exemplos de matrizes retangulares:

EXEMPLO 4

Neste exemplo, chamamos a atenção para duas das suas matrizes retangulares que têm
a particularidade de uma ter uma única linha e a outra ter uma única coluna. Vamos a
seguir falar sobre esse tipo de matrizes.

1. Matriz linha

Uma matriz linha é uma matriz que tem apenas uma linha. Assim uma matriz quadrada
de ordem 1, pode também ser considerada uma matriz linha uma vez que tem uma
linha. No EXEMPLO 4, existe uma matriz linha que possui 4 colunas.
Quanto à representação usual para uma matriz linha, podemos optar por separar as
entradas da matriz que estão distribuídas na sua linha como é o que se apresenta no
EXEMPLO 4, ou podemos usar vírgulas a separar essas entradas, como, por exemplo,
𝐴 = (1, −2, 3, −4).

2. Matriz coluna

Uma matriz coluna é uma matriz que tem apenas uma coluna. Assim uma matriz
quadrada de ordem 1, pode também ser considerada uma matriz coluna (e linha), uma
vez que tem uma coluna. No EXEMPLO 4, existe uma matriz coluna que possui 2 linhas.

3. Matriz triangular

Uma matriz é triangular quando é uma matriz quadrada cujos elementos acima ou
abaixo da diagonal principal são zero. A figura seguinte2 mostra dois tipos de matrizes
triangulares:

Reparemos que a matriz que figura do lado esquerdo tem todas as entradas abaixo da
diagonal principal iguais a zero, enquanto a matriz que está à direita, tem todas as
entradas acima da diagonal principal iguais a zero. Na primeira situação vamos dizer que
a matriz é triangular superior, enquanto no segundo caso, estamos perante uma matriz
triangular inferior.

Podemos formalmente dizer que, se 𝑎𝑖𝑗 = 0, para 𝑖 < 𝑗, então temos uma matriz
triangular inferior e se 𝑎𝑖𝑗 = 0, para 𝑖 > 𝑗, então a matriz é triangular superior.

2
Imagens retiradas de
https://www.google.com/search?q=matriz+triangular&rlz=1C1GCEA_enPT876PT876&sxsrf=ALeKk03Teu
6UY1busJvSUjOsDWfAHApl2g:1602362482334&source=lnms&tbm=isch&sa=X&ved=2ahUKEwiI8b208ar
sAhWDDmMBHaVoCNoQ_AUoAXoECBQQAw&biw=1600&bih=789#imgrc=kDVKSEVLHDyCCM
https://www.google.com/search?q=matriz+triangular&rlz=1C1GCEA_enPT876PT876&sxsrf=ALeKk03Teu
6UY1busJvSUjOsDWfAHApl2g:1602362482334&source=lnms&tbm=isch&sa=X&ved=2ahUKEwiI8b208ar
sAhWDDmMBHaVoCNoQ_AUoAXoECBQQAw&biw=1600&bih=789#imgrc=AbDVP3WZgJ8giM no dia 10
de outubro de 2020.
EXEMPLO 5

1 0 0 1 5 7
𝐴 = [−1 0 0] é uma matriz triangular inferior; 𝐴 = (0 2 2) é uma matriz
2 1 1 0 0 4
triangular superior.

4. Matriz diagonal

Uma matriz diagonal é uma matriz quadrada que é simultaneamente triangular superior
e inferior, ou seja, as entradas acima e abaixo da diagonal principal são zero.

EXEMPLO 6

1 0 0 2 0 0
𝐴 = (0 2 0), 𝐴 = (0 2 0) são matrizes diagonais de ordem 3.
0 0 0 0 0 2

Notemos que, neste exemplo, há uma diferença entre estas duas matrizes: na primeira
matriz as entradas da diagonal principal não são todas iguais entre si, enquanto na
segunda matriz, as entradas da diagonal principal são todas iguais entre si e iguais ao
número 2. Esta diferença vai distinguir um tipo particular de matrizes diagonais, o qual
apresentamos a seguir.

5. Matriz escalar

Quando estivermos perante uma matriz diagonal com a particularidade de as entradas


da sua diagonal principal serem todas iguais entre si e iguais a um número (ou letra, ou
expressão matemática), dizemos que a matriz é escalar. Consequentemente, a segunda
matriz do EXEMPLO 6 é um exemplo de uma matriz escalar.

6. Matriz Identidade

Uma matriz quadrada de ordem 𝑛 cujas entradas fazem parte do sistema binário (0 e 1)
e que estão distribuídas do seguinte modo
chama-se matriz Identidade de ordem 𝑛 e será denotada por 𝐼𝑛 conforme é
apresentado na figura anterior.

EXEMPLO 7

1 0 0 0
1 0 0
1 0 0 1 0 0 ) são exemplos de
𝐼1 = (1); 𝐼2 = ( ); 𝐼3 = (0 1 0); 𝐼4 = (
0 1 0 0 1 0
0 0 1 1
0 0 0
matrizes identidade de ordem 1, 2, 3 e 4, respetivamente.

7. Matriz nula

Uma qualquer matriz A quadrada ou retangular tal que todas as suas entradas são iguais
a zero, vai denominar-se de matriz nula.

EXEMPLO 8

0 0 0 0 0
𝑂3 = (0 0 0) é a matriz nula de ordem 3; 𝑂3×2 = (0 0) é a matriz nula de ordem
0 0 0 0 0
3 × 2.

Se a matriz nula for quadrada de ordem 𝑛, será representada por 𝑂𝑛 ; se a matriz nula
tiver 𝑚 linha e 𝑛 colunas será denotada por 𝑂𝑚×𝑛 .

2.3. Matriz transposta, matriz simétrica e matriz antissimétrica.

1. Matriz transposta de uma matriz

Dada uma qualquer matriz 𝐴 (quadrada ou retangular) é possível construir a chamada


matriz transposta de 𝐴 que será denotada por 𝐴𝑇 . A matriz transposta da matriz 𝐴
resulta da troca de linhas por colunas (ou colunas por linhas) na matriz dada 𝐴. Vejamos
os seguintes exemplos que ajudarão a perceber como determinar a matriz transposta
de cada uma das matrizes consideradas.

EXEMPLO 9

Matrizes Quadradas:

2 5 2 −1
𝐴=( ), a matriz transposta de 𝐴 é a matriz 𝐴𝑇 = ( );
−1 8 5 8
1 5 2 1 1 0
𝐵 = [1 −1 0], a matriz transposta de 𝐵 é a matriz 𝐵 𝑇 = [5 −1 −2].
0 −2 4 2 0 4

Reparem que as únicas entradas que permanecem inalteráveis são as entradas da


diagonal principal e isso acontece sempre no cálculo da transposta de matrizes
quadradas. Além disso a transposta de uma matriz quadrada é da mesma ordem da
matriz original.

Matrizes Retangulares:

2 −1
2 3 8
𝐴 = (3 0 ), a matriz transposta de 𝐴 é a matriz 𝐴𝑇 = ( );
−1 0 10
8 10

1
𝐵 = (1 2 3), a matriz transposta de 𝐵 é a matriz 𝐵 𝑇 = (2).
3

Reparem que no caso das matrizes retangulares, a ordem da matriz inicial e a da sua
matriz transposta não é igual como acontece nas matrizes quadradas.

No caso da matriz 𝐴 que é de ordem 3x2, a sua transposta já é de ordem 2x3.

No caso da matriz 𝐵 que é de ordem 1x3, enquanto a sua matriz transposta a ordem é
3x1.

2. Matriz simétrica e matriz antissimétrica

Relacionada com a matriz transposta de uma matriz quadrada, vamos agora introduzir
os conceitos de matrizes simétricas e de matrizes antissimétricas.

a) Matriz simétrica

Assim, uma matriz 𝐴 quadrada diz-se uma matriz simétrica se 𝐴 = 𝐴𝑇 . Reparem que
nem sempre isto acontece, como é o caso da matriz 𝐵 considerada acima e que
recordamos aqui:

1 5 2 1 1 0
𝑇
𝐵 = [1 −1 0], a matriz transposta de 𝐵 é a matriz 𝐵 = [5 −1 −2], sendo que
0 −2 4 2 0 4
𝐵 ≠ 𝐵𝑇 .

A seguir apresentamos um exemplo de uma matriz 𝐴 simétrica:


1 5 2 1 5 2
𝐴 = [5 −1 0], a matriz transposta de 𝐴 é a matriz 𝐴𝑇 = [5 −1 0], sendo que
2 0 4 2 0 4
𝐴 = 𝐴𝑇 .

Então repara que para uma matriz quadrada ser uma matriz simétrica é preciso que as
entradas acima e abaixo da diagonal principal sejam o “reflexo” umas das outras. No
caso da matriz 𝐴 referida anteriormente

1 5 2
𝐴 = [5 −1 0]
2 0 4

temos a tal “reflexão” como se a diagonal principal fosse o espelho. Outro modo visual
de verificar se a matriz quadrada é ou não uma matriz simétrica, basta dobrar a matriz
pela diagonal principal e verificar se as entradas coincidem ou não. Se coincidirem, a
matriz é uma matriz simétrica, caso contrário não será uma matriz simétrica, como é o
caso da matriz 𝐵.

b) Matriz antissimétrica

Uma matriz 𝐴 quadrada diz-se uma matriz antissimétrica se acontecer que 𝐴 = −𝐴𝑇 .
Repara que nem sempre isto acontece, como é o caso da matriz 𝐵 considerada acima.

A seguir apresentamos um exemplo de uma matriz 𝐴 que essa sim é uma matriz
antissimétrica:

0 5 −2 0 −5 2
𝐴 = [−5 0 1 ], a matriz transposta de 𝐴 é a matriz 𝐴𝑇 = [ 5 0 −1], sendo
2 −1 0 −2 1 0
que 𝐴 = −𝐴𝑇 .

Então repara que para uma matriz quadrada ser uma matriz antissimétrica é preciso que
as entradas da diagonal principal sejam todas iguais a zero e as entradas acima (abaixo)
da diagonal principal sejam simétricas das entradas abaixo (acima) da diagonal principal.
No caso da matriz A referida anteriormente,

0 5 −2
𝐴 = [−5 0 1]
2 −1 0
temos que a diagonal principal tem entradas todas nulas e as outras entradas ligadas
pelas “setas” são simétricas umas das outras. Outro modo visual de verificar se a matriz
quadrada é ou não uma matriz antissimétrica, basta dobrar a matriz pela diagonal
principal que é toda nula e verificar se as entradas que coincidem são simétricas umas
das outras.

_______________________________________________________________________

Como sugestão podem visualizar https://www.youtube.com/watch?v=3hTlEWrGtf8

_______________________________________________________________________

2.4. Matriz conjugada, matriz transconjugada, matriz hermítica e matriz anti-


hermítica.

1. Matriz conjugada de uma matriz

Dada uma qualquer matriz 𝐴 (quadrada ou retangular) é possível construir a chamada


matriz conjugada de 𝐴 que será denotada por𝐴̅. A matriz conjugada da matriz 𝐴 resulta
da conjugação de todas as entradas de 𝐴. Notemos que se alguma entrada da matriz 𝐴
é um número real, o seu conjugado é o próprio número real, não havendo qualquer
alteração nessa entrada, enquanto se alguma entrada de 𝐴 for um número complexo,
então efetuamos o conjugado desse número complexo e a respetiva entrada da matriz
conjugada de 𝐴 passa a ser o conjugado desse número complexo. Vejamos os seguintes
exemplos que ajudarão a perceber como determinar a matriz conjugada de cada uma
das matrizes consideradas.

EXEMPLO 10

2 5 2 5
𝐴=( ), a matriz conjugada de 𝐴 é a matriz 𝐴̅ = ( ), pois as entradas são
−1 8 −1 8
todas números reais;

1+𝑖 5 2 1−𝑖 5 2
𝐵=[ 1 ̅
−1 𝑖 ], a matriz conjugada de 𝐵 é a matriz 𝐵 = [ 1 −1 −𝑖 ],
0 −2 4 0 −2 4
resultado da conjugação de todas as entradas da matriz 𝐵.

2 𝑎+𝑏 2 ̅̅̅̅̅̅̅
𝑎+𝑏
𝐶 = (3 ̅
0 ), a matriz conjugada de 𝐶 é a matriz 𝐶 = (3 0 );
8 1 + 2𝑖 8 1 − 2𝑖
Reparem que em todos os casos (matrizes quadradas ou matrizes retangulares) a ordem
da matriz inicial e a da sua matriz conjugada é sempre igual.

2. Matriz transconjugada de uma matriz

Relacionada com a matriz transposta e a matriz conjugada de uma mesma matriz


quadrada, vamos agora introduzir o conceito de matriz transconjugada.

Dada uma qualquer matriz 𝐴 (quadrada ou retangular) é possível construir a chamada


matriz transconjugada de 𝐴 que será denotada por

̅̅̅̅̅̅
𝐴∗ = (𝐴̅)𝑇 = (𝐴 𝑇 ).

A matriz transconjugada da matriz 𝐴 resulta da conjugação de todas as entradas de 𝐴,


seguida da transposta desta última matriz, ou vice-versa, transpondo a matriz 𝐴,
seguindo-se a conjugação de todas as entradas desta última matriz.

Vejamos os seguintes exemplos que ajudarão a perceber como determinar a matriz


transconjugada de cada uma das matrizes consideradas.

EXEMPLO 11

2 5 2 5
𝐴=( ), a matriz conjugada de 𝐴 é a matriz 𝐴̅ = ( ), pois as entradas são
−1 8 −1 8
todas números reais; calculando agora a matriz transposta da matriz 𝐴̅, obtemos a
2 −1
matriz transconjugada de 𝐴, ou seja, 𝐴∗ = ( );
5 8

1+𝑖 5 2 1−𝑖 5 2
𝐵=[ 1 ̅
−1 𝑖 ], a matriz conjugada de 𝐵 é a matriz 𝐵 = [ 1 −1 −𝑖 ],
0 −2 4 0 −2 4
resultado da conjugação de todas as entradas da matriz 𝐵; calculando agora a matriz
transposta da matriz 𝐵̅, obtemos a matriz transconjugada de 𝐵, ou seja, 𝐵 ∗ =
1−𝑖 1 0
[ 5 −1 −2];
2 −𝑖 4
2 𝑎+𝑏 2 𝑎̅̅̅̅̅̅̅
+𝑏
𝐶 = (3 0 ), a matriz conjugada de 𝐶 é a matriz 𝐶̅ = (3 0 ); calculando
8 1 + 2𝑖 8 1 − 2𝑖
agora a matriz transposta da matriz 𝐶̅ , obtemos a matriz transconjugada de 𝐶, ou seja,
2 3 8
𝐶 ∗ = (̅̅̅̅̅̅̅ ).
𝑎+𝑏 0 1 − 2𝑖

Notemos que podíamos em todos estes exemplos ter começado por calcular primeiro a
transposta das matrizes 𝐴, 𝐵 e 𝐶, e de seguida calcular as respetivas matrizes
conjugadas. O resultado dar-nos-ia as matrizes transconjugadas 𝐴∗ , 𝐵 ∗ e 𝐶 ∗ que seria
igual às matrizes encontradas no EXEMPLO 11.

3. Matriz hermítica e matriz anti-hermítica

Relacionada com a matriz conjugada de uma mesma matriz quadrada, vamos agora
introduzir os conceitos de matrizes hermíticas e de matrizes anti-hermíticas.

a) Matriz hermítica

Assim, uma matriz 𝐴 quadrada diz-se uma matriz hermítica se 𝐴 = 𝐴∗ .

Reparem que nem sempre isto acontece, como é o caso das matrizes 𝐵 e 𝐶 consideradas
a seguir:

1 5 2 1 1 0
𝐵 = [1 −1 0], a matriz transposta de 𝐵 é a matriz 𝐵 𝑇 = [5 −1 −2], sendo que
0 −2 4 2 0 4
𝐵 ≠ 𝐵 𝑇 ; logo 𝐵 ≠ 𝐵 ∗, visto as entradas de 𝐵 𝑇 serem números reais e que, portanto,
perante a conjugação não são alteradas. Nota que a matriz 𝐵 não é uma matriz simétrica
e também não é uma matriz hermítica.

1+𝑖 5 2 1+𝑖 5 2
𝐶=[ 5 −1 0], a matriz transposta de 𝐶 é a matriz 𝐶 𝑇 = [ 5 −1 0], sendo
2 0 4 2 0 4
que 𝐶 = 𝐶 𝑇 ; no entanto, 𝐶 ≠ 𝐶 ∗ , visto que ao conjugarmos as entradas da matriz 𝐶 𝑇
1−𝑖 5 2
obtemos a matriz 𝐶 ∗ = [ 5 −1 0] ≠ 𝐶. Nota agora que esta matriz 𝐶, embora
2 0 4
sendo uma matriz simétrica, não é uma matriz hermítica.

A seguir apresentamos dois exemplos de matrizes 𝐴 e 𝐷 que são hermíticas:


1 5 2 1 5 2
𝐴 = [5 −1 0], a matriz transposta de 𝐴 é a matriz 𝐴𝑇 = [5 −1 0], sendo que
2 0 4 2 0 4
𝐴 = 𝐴𝑇 ; logo 𝐴 = 𝐴∗ , visto que as entradas de 𝐴𝑇 serem números reais e que, portanto,
perante a conjugação, tais entradas não sofrem qualquer alteração. Repara que a matriz
𝐴 é uma matriz simétrica e também é uma matriz hermítica.

1 5 + 𝑖 2𝑖
𝐷 = [5 − 𝑖 −1 0 ], a matriz transposta de 𝐷 é a matriz 𝐷𝑇 =
−2𝑖 0 4
1 5 − 𝑖 −2𝑖
[5 + 𝑖 −1 0 ], sendo que 𝐷 ≠ 𝐷𝑇 ; no entanto, 𝐷 = 𝐷∗ , visto que, ao
2𝑖 0 4
conjugarmos as entradas da matriz 𝐷𝑇 , obtemos a matriz transconjugada de 𝐷 dada por
1 5+𝑖 2𝑖
𝐷 ∗ = [5 − 𝑖 −1 0 ] = 𝐷. Nota agora que esta matriz 𝐷, embora não sendo uma
−2𝑖 0 4
matriz simétrica, é uma matriz hermítica.

Então repara que para uma matriz quadrada ser uma matriz hermítica terá de ser uma
matriz simétrica caso as suas entradas sejam números reais. Então, nestes casos, é
preciso que as entradas acima e abaixo da diagonal principal sejam o “reflexo” umas das
outras e as entradas da diagonal principal quaisquer. É o caso da matriz 𝐴 referida
anteriormente.

No caso de existir alguma entrada fora da diagonal principal que seja um número
complexo é necessário que o reflexo dessa entrada seja o seu conjugado para que a
matriz seja uma matriz hermítica; caso existam na diagonal principal de uma matriz
quadrada pelo menos uma entrada que seja um número complexo, então essa matriz
nunca é uma matriz hermítica. Será necessário, portanto que os elementos da diagonal
principal sejam números reais para a matriz ser hermítica

b) Matriz anti-hermítica

Uma matriz 𝐴 quadrada diz-se uma matriz anti-hermítica se acontecer que 𝐴 = −𝐴∗ .
Repara que nem sempre isto acontece, como é o caso de todas as matrizes consideradas
acima.
A seguir apresentamos um exemplo de matrizes 𝐴 e 𝐵 que, essas sim, são matrizes anti-
hermíticas:

0 5 −2 0 −5 2
𝐴 = [−5 0 1 ], a matriz transposta de 𝐴 é a matriz 𝐴𝑇 = [ 5 0 −1], sendo
2 −1 0 −2 1 0
que 𝐴 = −𝐴𝑇 ; logo conjugando todas as entradas de 𝐴𝑇 , nada é modificado uma vez
que essas entradas são números reais. Assim podemos concluir que 𝐴 = −𝐴∗ .

2𝑖 5+𝑖 2𝑖
𝐵 = [−5 + 𝑖 0 −1 − 𝑖 ], a matriz transposta de 𝐵 é a matriz 𝐵 𝑇 =
2𝑖 1−𝑖 0
2𝑖 −5 + 𝑖 2𝑖
[5 + 𝑖 0 1 − 𝑖 ], sendo que se verifica 𝐵 ≠ −𝐵 𝑇 ; conjugando as entradas de
2𝑖 −1 − 𝑖 0
−2𝑖 −5 − 𝑖 −2𝑖
𝐵 𝑇 , obtemos a seguinte matriz 𝐵 ∗ = [5 − 𝑖 0 1 + 𝑖 ], a qual permite concluir
−2𝑖 −1 + 𝑖 0
que 𝐵 = −𝐵 ∗, ou seja, que a matriz 𝐵 é uma matriz anti-hermítica. Nota agora que esta
matriz 𝐵, embora não sendo uma matriz antissimétrica, é uma matriz anti-hermítica.

Então repara que para uma matriz quadrada ser uma matriz anti-hermítica terá de ser
uma matriz antissimétrica caso as suas entradas sejam números reais. Então, nestes
casos de entradas reais, é preciso que as entradas da diagonal principal sejam todas
iguais a zero e as entradas acima (abaixo) da diagonal principal sejam simétricas das
entradas abaixo (acima) da diagonal principal.

No caso de existir alguma entrada fora da diagonal principal que seja um número
complexo da forma 𝑝 + 𝑞𝑖 é necessário que o reflexo dessa entrada seja o −𝑝 + 𝑞𝑖 para
que a matriz seja uma matriz anti-hermítica; uma das condições necessárias para termos
uma matriz anti-hermítica é que as entradas da diagonal principal sejam todas iguais a
zero ou um número imaginário puro, mas não é uma condição suficiente.

_____________________________________________________________________________

Sugestão de trabalho: Podem resolver da Ficha 1 colocada em anexo e ainda, os


exercícios 1, 2, 3 alíneas a), b) e c) (página 15), 4 (página 16), 27, 28, 29, 30, 34 (página
21), 38 alíneas a), b) e c) (página 22), 40, 42 alíneas a), e) e 43 (página 23) da Sebenta
para consolidação deste conteúdo programático.
_____________________________________________________________________________

De seguida vamos abordar as operações algébricas que envolvem matrizes e


realçaremos também algumas das suas propriedades básicas.

2.5. Operações algébricas com matrizes


Vamos abordar três operações algébricas que envolvem matrizes: a adição de matrizes,
a multiplicação de um escalar por uma matriz e a multiplicação de matrizes.
1. A adição de matrizes
A operação algébrica de adição de matrizes só é definida para matrizes com a mesma
ordem (ou dimensão). Assim, temos que dadas duas matrizes 𝐴 e 𝐵, ambas de ordem
(ou dimensão) 𝑚 × 𝑛 , então é possível efetuar a sua adição, dando origem a uma nova
matriz representada por 𝐴 + 𝐵 e definida da seguinte forma

𝑎11 𝑎12 ⋯ 𝑎1𝑛 𝑏11 𝑏12 ⋯ 𝑏1𝑛


𝐴+𝐵 =( ⋮ ⋱ ⋮ )+( ⋮ ⋱ ⋮ )
𝑎𝑚1 𝑎𝑚2 ⋯ 𝑎𝑚𝑛 𝑏𝑚1 𝑏𝑚2 ⋯ 𝑏𝑚𝑛

𝑎11 + 𝑏11 𝑎12 + 𝑏12 ⋯ 𝑎1𝑛 + 𝑏1𝑛


=( ⋮ ⋱ ⋮ ),
𝑎𝑚1 + 𝑏𝑚1 𝑎𝑚2 + 𝑏𝑚2 ⋯ 𝑎𝑚𝑛 + 𝑏𝑚𝑛

cujos elementos são representados por 𝑎𝑖𝑗 + 𝑏𝑖𝑗 , sendo 𝑖 = 1, 2, … , 𝑚 e 𝑗 = 1, 2, … , 𝑛.

Então para obtermos a matriz que resulta da adição de duas outras matrizes com a
mesma ordem, somamos as entradas das duas matrizes consideradas que se encontram
na mesma linha e coluna e o resultado dessa soma será colocado também na mesma
posição das outras entradas na matriz-soma.

EXEMPLO 12

−1 5 1 0 −1 + 1 5 + 0 0 5
𝐴+𝐵 =( 2 )+( )=( 2+1 ) = ( 5 ),
3
√7 1 2 3
√7 + 2 3
√7 + 2

1+𝑖 5 − 2𝑖 2 − 3𝑖 𝑖 2 1
𝐴 + 𝐵 = [1 − 𝑖 −1 + 4𝑖 𝑖 ] + [ 1 + 𝑖 0 𝑎] =
−3𝑖 −2 + 3𝑖 4 − 7𝑖 𝑎+𝑏 3𝑖 0
1 + 2𝑖 7 − 2𝑖 3 − 3𝑖
[ 2 −1 + 4𝑖 𝑎 + 𝑖 ],
𝑎 + 𝑏 − 3𝑖 −2 + 6𝑖 4 − 7𝑖
𝑎 𝑏 𝑎 𝑏 2𝑎 2𝑏
𝐴 + 𝐵 = (𝑥 𝑐 ) + (𝑥 𝑐 ) = (2𝑥 2𝑐 ).
𝑦 𝑧 𝑦 𝑧 2𝑦 2𝑧

Relativamente à operação algébrica de adição de matrizes aqui apresentada, temos que


esta satisfaz às seguintes propriedades:

Proposição 1: Para quaisquer matrizes 𝐴, 𝐵 e 𝐶 de ordem 𝑚 × 𝑛, são verdadeiras as


seguintes propriedades:

1) Propriedade Comutativa: 𝐴 + 𝐵 = 𝐵 + 𝐴;

2) Propriedade Associativa: (𝐴 + 𝐵) + 𝐶 = 𝐴 + (𝐵 + 𝐶);

3) Existência de elemento neutro para a adição de matrizes de ordem 𝑚 × 𝑛, ou


seja, existe e é única a matriz nula 𝑂𝑚×𝑛 tal que para qualquer matriz 𝐴 da
mesma ordem, 𝐴 + 𝑂𝑚×𝑛 = 𝑂𝑚×𝑛 + 𝐴 = 𝐴;

4) Existência de elemento simétrico de uma qualquer matriz 𝐴, ou seja, para


qualquer matriz 𝐴 de ordem 𝑚 × 𝑛, existe e é única a matriz −𝐴 da mesma
ordem da matriz 𝐴 tal que 𝐴 + (−𝐴) = (−𝐴) + 𝐴 = 𝑂𝑚×𝑛 ; as entradas da
matriz −𝐴 são os simétricos das entradas da matriz 𝐴.

2. Multiplicação de um escalar por uma matriz


A operação algébrica de multiplicação de um escalar por uma matriz é sempre possível
ser efetuada, não havendo qualquer restrição a ser considerada.

Assim, temos que dado um escalar 𝛼 e uma qualquer matriz 𝐴 de ordem (ou dimensão)
𝑚 × 𝑛, então é possível efetuar a multiplicação do escalar pela matriz, dando origem a
uma nova matriz representada por 𝛼𝐴 e definida da seguinte forma

𝛼𝑎11 𝛼𝑎12 ⋯ 𝛼𝑎1𝑛


𝛼𝐴 = ( ⋮ ⋱ ⋮ ),
𝛼𝑎𝑚1 𝛼𝑎𝑚2 ⋯ 𝛼𝑎𝑚𝑛

cujos elementos são representados por 𝛼𝑎𝑖𝑗 , sendo 𝑖 = 1, 2, … , 𝑚 e 𝑗 = 1, 2, … , 𝑛.

Então para obtermos a matriz que resulta da multiplicação do escalar 𝛼 pela matriz 𝐴,
multiplicamos as entradas da matriz considerada pelo escalar 𝛼 e o resultado desse
produto será colocado também na mesma posição da entrada na matriz resultante.
EXEMPLO 13

−1 5 2 × (−1) 2 × 5 −2 10
2𝐴 = 2 ( 2 )=( 2 ) = ( 4 2√7),
3
√7 2×3 2 × √7 3

𝑖 2 1 𝑖2 2𝑖 𝑖 −1 2𝑖 𝑖
𝑖𝐵 = 𝑖 [ 1 + 𝑖 0 𝑎] = [ 𝑖 + 𝑖 2 0 𝑎𝑖 ] = [ −1 +𝑖 0 𝑎𝑖 ],
𝑎+𝑏 3𝑖 0 𝑎𝑖 + 𝑏𝑖 3𝑖 2 0 (𝑎 + 𝑏)𝑖 −3 0

𝑏
1
4 𝑏 4
1 1 𝑐
𝐶 = ( 2 𝑐) = 2 4
.
4
−1 𝑧 −1 𝑧
(4 4)

Observação: Também definimos −𝐴 = (−1)𝐴 e 𝐴 − 𝐵 = 𝐴 + (−𝐵) = 𝐴 + (−1)𝐵.

Vamos registar seguidamente algumas propriedades básicas que envolvem as


operações de adição de matrizes e de multiplicação de um escalar por uma matriz.

Proposição 2: Para quaisquer matrizes 𝐴 e 𝐵 de ordem 𝑚 × 𝑛 e quaiquer escalares 𝛼 e


𝛽, são verdadeiras as seguintes propriedades:

1) 𝛼(𝐴 + 𝐵) = 𝛼𝐴 + 𝛼𝐵;

2) (𝛼 + 𝛽)𝐴 = 𝛼𝐴 + 𝛽𝐴;

3) (𝛼𝛽)𝐴 = 𝛼(𝛽𝐴);

4) 1𝐴 = 𝐴;

5) 0𝐴 = 𝑂𝑚×𝑛 , sendo 𝑂𝑚×𝑛 a matriz nula de ordem 𝑚 × 𝑛.

Observação: Também definimos 𝐴 + 𝐴 = 2𝐴, 𝐴 + 𝐴 + 𝐴 = 3𝐴, … etc.

3. Multiplicação de Matrizes
A multiplicação de duas matrizes 𝐴 e 𝐵, representada por 𝐴𝐵, é algo mais complicado.
Para multiplicar uma matriz 𝐴 por uma matriz 𝐵 é necessário que o número de colunas
de 𝐴 seja igual ao número de linhas de 𝐵.

Comecemos por abordar alguns exemplos de multiplicação de duas matrizes para depois
podermos generalizar. Consideremos as seguintes matrizes 𝐴 = [𝑎11 𝑎12 … 𝑎1𝑛 ] de
𝑏11
𝑏21
.
ordem 1 × 𝑛 e 𝐵 = de ordem 𝑛 × 1. A primeira matriz é uma matriz linha e a
.
.
[𝑏𝑛1 ]
segunda matriz é uma matriz coluna. Se olharmos para as matrizes e pensarmos nelas
como dois “vetores”, o produto 𝐴𝐵 é dado pelo produto escalar entre esses dois
“vetores”, ou seja,

𝑏11
𝑏21
.
𝐴𝐵 = [𝑎11 𝑎12 … 𝑎1𝑛 ] = [𝑎11 𝑏11 + 𝑎12 𝑏21 + ⋯ + 𝑎1𝑛 𝑏𝑛1 ]
.
.
[𝑏𝑛1 ]

e definimos a matriz produto deste modo, resultando, neste caso uma matriz quadrada
de ordem 1 × 1.

Acrescentemos agora à matriz 𝐴 uma linha; neste caso, para obtermos a matriz produto
𝐴𝐵 teremos de, além do que já foi feito anteriormente, efetuar o produto escalar da
nova linha de 𝐴 pela única coluna de 𝐵. Temos então:

𝑏11
𝑏21
𝑎11 𝑎12 … 𝑎1𝑛 .
𝐴𝐵 = [𝑎 … 𝑎2𝑛 ] . =
21 𝑎22
.
[𝑏𝑛1 ]
𝑎11 𝑏11 + 𝑎12 𝑏21 + ⋯ + 𝑎1𝑛 𝑏𝑛1 𝐿𝑖𝑛ℎ𝑎 1 𝑑𝑒 𝐴 . 𝐶𝑜𝑙𝑢𝑛𝑎 ú𝑛𝑖𝑐𝑎 𝑑𝑒 𝐵
[ ]=[ ],
𝑎21 𝑏11 + 𝑎22 𝑏21 + ⋯ + 𝑎2𝑛 𝑏𝑛1 𝐿𝑖𝑛ℎ𝑎 2 𝑑𝑒 𝐴 . 𝐶𝑜𝑙𝑢𝑛𝑎 ú𝑛𝑖𝑐𝑎 𝑑𝑒 𝐵

sendo que na primeira linha está o resultado do produto escalar (.) da Linha 1 de 𝐴 com
a única coluna que tem 𝐵 e na segunda linha está o resultado do produto escalar (.) da
Linha 2 de 𝐴 também com a única coluna de 𝐵.

De modo análogo se procede se à matriz 𝐵 acrescentarmos mais colunas. Teremos,


portanto, de efetuar o produto escalar de cada linha de 𝐴 por todas as colunas de 𝐵.
A seguinte figura3 representa genericamente o produto de duas matrizes 𝐴 e 𝐵:

Observando a figura, temos que 𝐴 e 𝐵 são matrizes tais que o número de colunas de 𝐴
é igual ao número de linhas de 𝐵, digamos que 𝐴 tem ordem 𝑚 × 𝑛 e 𝐵 tem ordem
𝑛 × 𝑞. Então o produto 𝐴𝐵 é possível ser efetuado e dá origem a uma matriz de ordem
𝑚 × 𝑞 cujo elemento que está na linha 𝑖 e na coluna 𝑗 representado na figura por 𝑝𝑖𝑗 é
obtido pelo produto escalar da 𝑖-ésima linha de 𝐴 pela 𝑗-ésima coluna de 𝐵, ou seja,

𝑝𝑖𝑗 = 𝑎𝑖1 𝑏1𝑗 + 𝑎𝑖2 𝑏2𝑗 + ⋯ + 𝑎𝑖𝑛 𝑏𝑛𝑗 = ∑ 𝑎𝑖𝑘 𝑏𝑘𝑗


𝑘=1

Observação: Notemos que nem sempre o produto 𝐴𝐵 está definido. Por exemplo, se 𝐴
for uma matriz de ordem 𝑚 × 𝑛 e 𝐵 uma matriz de ordem 𝑝 × 𝑞, com 𝑛 ≠ 𝑝, então não
existe o produto 𝐴𝐵.

EXEMPLO 14

1 5 2 −1 0 −9 12
𝐴𝐵 = [5 −1 0] [−2 2] = [−3 −2]; não existe 𝐵𝐴;
2 0 4 1 1 2 4

3
Imagem retirada de
https://www.google.com/search?q=produto+de+matrizes&rlz=1C1GCEA_enPT876PT876&sxsrf=ALeKk0
1S40972DWOAHnT41StoUMQHbTBzw:1602871705825&source=lnms&tbm=isch&sa=X&ved=2ahUKEwi
AgZW12rnsAhUSahQKHdKCDQ4Q_AUoAXoECBUQAw&biw=1600&bih=732#imgrc=gAsnEwjs0-J9FM em
16 de outubro de 2020.
1 1 1 2 3
𝐴𝐵 = (1 2 3) (2) = (14); 𝐵𝐴 = (2) (1 2 3) = (2 4 6) , sendo 𝐴𝐵 ≠ 𝐵𝐴;
3 3 3 6 9

2 0 1 0 2 0 1 0 2 0 2 0
𝐴𝐵 = [ ][ ]=[ ]; 𝐵𝐴 = [ ][ ]=[ ], sendo 𝐴𝐵 = 𝐵𝐴.
−1 1 3 4 2 4 3 4 −1 1 2 4

Observação: Quando acontece 𝐴𝐵 = 𝐵𝐴,dizemos que as matrizes 𝐴 e 𝐵 são matrizes


comutáveis ou matrizes permutáveis. É o caso das últimas matrizes apresentadas no
EXEMPLO 14. Também convém observar a não comutatividade do produto matricial,
pois pode existir 𝐴𝐵 e não existir 𝐵𝐴 (ver as primeiras matrizes apresentadas no
EXEMPLO 14), e mesmo que existam ambos os produtos 𝐴𝐵 e 𝐵𝐴, tem-se que 𝐴𝐵 ≠ 𝐵𝐴
(ver as segundas matrizes apresentadas no EXEMPLO 14).

A potência de ordem 𝒏 de uma matriz 𝐴 só faz sentido para matrizes quadradas e é


definida por:

𝐴𝑛 = ⏟
𝐴𝐴𝐴𝐴 … 𝐴
𝑛 𝑣𝑒𝑧𝑒𝑠

Assim 𝐴2 = 𝐴𝐴; 𝐴3 = 𝐴𝐴𝐴, etc.

EXEMPLO 15

1 0 1 1 0 1 1 0 1 2 0 4
Se 𝐴 = (−1 2 0) então 𝐴2 = (−1 2 0) (−1 2 0) = (−3 4 −1) e
1 0 3 1 0 3 1 0 3 4 0 10
também podemos dizer que a potência de ordem 3 da matriz 𝐴 é dada por 𝐴3 = 𝐴𝐴𝐴 =
1 0 1 1 0 1 1 0 1
(−1 2 0) (−1 2 0) (−1 2 0) = 𝐴𝐴2 = 𝐴2 𝐴 =
1 0 3 1 0 3 1 0 3
1 0 1 2 0 4 2 0 4 1 0 1 6 0 14
(−1 2 0) (−3 4 −1) = (−3 4 −1) (−1 2 0) = (−8 8 −6).
1 0 3 4 0 10 4 0 10 1 0 3 14 0 34

Relativamente à operação algébrica de multiplicação de matrizes aqui apresentada,


temos que esta satisfaz às seguintes propriedades:

Proposição 3: Para quaisquer matrizes 𝐴, 𝐵 e 𝐶 de tal forma que as somas e os produtos


estejam definidos, são verdadeiras as seguintes propriedades:

1) Propriedade Associativa: (𝐴𝐵)𝐶 = 𝐴(𝐵𝐶);


2) Propriedade distributiva da multiplicação em relação à adição: 𝐴(𝐵 + 𝐶) =
𝐴𝐵 + 𝐴𝐶, (𝐴 + 𝐵)𝐶 = 𝐴𝐶 + 𝐵𝐶;

3) 𝛼(𝐴𝐵) = (𝛼𝐴)𝐵 = 𝐴(𝛼𝐵), para qualquer escalar 𝛼;

4) 𝐼𝐴 = 𝐴𝐼 = 𝐴, sempre que 𝐼 representa a matriz identidade da mesma ordem de


𝐴, sendo 𝐴 aqui uma matriz quadrada.

Nota: Não é válida a lei do anulamento do produto, ou seja, se acontecer 𝐴𝐵 = 𝑂𝑚×𝑛


não implica, em geral, que 𝐴 seja uma matriz nula nem que 𝐵 seja também uma matriz
0 1 1 1
nula. Vejamos, por exemplo, que para as matrizes seguintes 𝐴 = ( )e𝐵 = ( ),
0 1 0 0
0 0
temos que 𝐴𝐵 = ( ) = 𝑂2 e, no entanto, nem 𝐴 é uma matriz nula, nem 𝐵 é
0 0
também uma matriz nula.

Também não é válida a conhecida lei do corte quando aplicada a matrizes, isto é,
podemos ter a situação de 𝐴𝐵 = 𝐴𝐶, com 𝐴, 𝐵 e 𝐶 matrizes tais que os produtos
matriciais estão definidos, e no entanto, esta situação não implica, em geral, que 𝐵 =
1 0 1 1 1 1
𝐶. Vejamos, por exemplo, o caso em que 𝐴 = [ ], 𝐵 = [ ], 𝐶 = [ ] e 𝐴𝐵 =
0 0 1 0 1 2
1 1
[ ] = 𝐴𝐶. Nesta situação, embora 𝐴𝐵 = 𝐴𝐶 temos que 𝐵 ≠ 𝐶.
0 0

Também não são válidos os casos notáveis quando aplicados a matrizes, ou seja, em
geral, e desde que as operações algébricas apresentadas estejam definidas,

(𝐴 + 𝐵)2 ≠ 𝐴2 + 2𝐴𝐵 + 𝐵 2; (𝐴 − 𝐵)2 ≠ 𝐴2 − 2𝐴𝐵 + 𝐵 2; (𝐴 + 𝐵)(𝐴 − 𝐵) ≠ 𝐴2 −


𝐵2.

Exercício 2: Procure exemplos de matrizes que comprovem estas afirmações.

Algumas propriedades vão ser registadas a seguir que têm a ver com as operações
algébricas com matrizes que acabamos de tratar e com a transposição de matrizes.
Assim, para quaisquer matrizes 𝐴 e 𝐵, temos:

Propriedade 1: (𝐴 + 𝐵)𝑇 = 𝐴𝑇 + 𝐵 𝑇 , desde que a adição esteja definida;

Propriedade 2: (𝐴𝐵)𝑇 = 𝐵 𝑇 𝐴𝑇 , desde que o produto matricial esteja definido;


Propriedade 3: (𝛼𝐴)𝑇 = 𝛼𝐴𝑇 , sendo 𝛼 um qualquer escalar (número real ou número
complexo);

Propriedade 4: (𝐴𝑇 )𝑇 = 𝐴.

Agora, algumas propriedades que têm a ver com as operações algébricas com matrizes
e com a conjugação de matrizes. Assim, para quaisquer matrizes 𝐴 e 𝐵, temos:

̅̅̅̅̅̅̅̅̅̅
Propriedade 5: (𝐴 + 𝐵) = 𝐴̅ + 𝐵̅, desde que a adição esteja definida;

̅̅̅̅̅̅̅ = 𝐴̅𝐵̅, desde que o produto matricial esteja definido;


Propriedade 6: (𝐴𝐵)

̅̅̅̅̅̅ = 𝛼𝐴̅, para 𝛼 um número real; ̅̅̅̅̅̅


Propriedade 7: (𝛼𝐴) (𝛼𝐴) = 𝛼̅𝐴̅, para 𝛼 um número
complexo;

̅̅̅̅̅
Propriedade 8: (𝐴 ̅ ) = 𝐴.

Finalmente, algumas propriedades que têm a ver com as operações algébricas com
matrizes e com a transconjugação de matrizes. Assim, para quaisquer matrizes 𝐴 e 𝐵,
temos:

Propriedade 9: (𝐴 + 𝐵)∗ = 𝐴∗ + 𝐵 ∗, desde que a adição esteja definida;

Propriedade 10: (𝐴𝐵)∗ = 𝐵 ∗ 𝐴∗ , desde que o produto matricial esteja definido;

Propriedade 11: (𝛼𝐴)∗ = 𝛼𝐴∗ , para 𝛼 um número real; (𝛼𝐴)∗ = 𝛼̅𝐴∗ , para 𝛼 um
número complexo;

Propriedade 12: (𝐴∗ )∗ = 𝐴.

2.6. Operações elementares com as linhas e/ou colunas de uma matriz.


Condensação de uma matriz. Característica de uma matriz.

1. Operações elementares com as linhas e/ou colunas de uma matriz

Dada uma qualquer matriz 𝐴 (quadrada ou retangular) é possível efetuar três tipos de
operações ditas elementares usando as linhas e/ou as colunas dessa matriz para
obtermos matrizes equivalentes por linhas e/ou por colunas à matriz original 𝐴.

Tais operações elementares consistem em:

Operação do tipo 1: Troca entre si de duas linhas (ou de duas colunas);


Operação do tipo 2: Multiplicação das entradas de uma linha (ou coluna) por um escalar
não nulo;

Operação do tipo 3: Substituição de uma linha (ou coluna) pela soma das suas entradas
com as entradas de outra linha (ou coluna) multiplicadas por um escalar não nulo.

As operações elementares dos tipos 1, 2 e 3 são representadas, respetivamente, por:

𝐿𝑖 ⟷ 𝐿𝑗 (Troca da linha 𝑖 com a linha 𝑗);

𝐶𝑖 ⟷ 𝐶𝑗 (Troca da coluna 𝑖 com a coluna 𝑗);

𝐿𝑖 → 𝑘𝐿𝑖 , 𝑘 ≠ 0 (Multiplicação da linha 𝑖 por um escalar 𝑘 não nulo);

𝐶𝑖 → 𝑘𝐶𝑖 , 𝑘 ≠ 0 (Multiplicação da coluna 𝑖 por um escalar 𝑘 não nulo);

𝐿𝑖 → 𝐿𝑖 + 𝑘𝐿𝑗 , 𝑘 ≠ 0 (Substituição da linha 𝑖 por 𝑘 vezes a linha 𝑗 adicionada à própria


linha 𝑖);

𝐶𝑖 → 𝐶𝑖 + 𝑘𝐶𝑗 , 𝑘 ≠ 0 (Substituição da coluna 𝑖 por 𝑘 vezes a coluna 𝑗 adicionada à


própria coluna 𝑖);

EXEMPLO 16

2 5 ⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗ −1 8 ⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗ 8 −1
𝐴=( ) 𝐿 ⟷ 𝐿1 ( ) 𝐶 ⟷ 𝐶2 ( );
−1 8 2 2 5 1 5 2

1 5 2 1 5 2
𝐴 = [1 ⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗
−1 0] 𝐿2 → 𝐿2 − 𝐿1 [0 −6 −2];
0 −2 4 0 −2 4

2 −1 2 −1 2 −2
⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗
𝐴 = (3 0 ) 𝐿 2 → 2𝐿 (
2 6 0 ) ⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗
𝐶2 → 2𝐶2 (6 0 );
8 10 8 10 8 20

1 5 2 1 6 2 1 6 2
𝐴 = [1 ⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗ ⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗
−1 0] 𝐶2 → 𝐶2 + 𝐶1 [1 0 0] 𝐿2 → 𝐿2 − 𝐿1 [0 −6 −2].
0 −2 4 0 −2 4 0 −2 4

2. Condensação de uma matriz

Relacionada com as operações elementares registadas anteriormente, vamos agora


descrever aquilo a que se chama o Processo de Condensação de uma qualquer matriz.
Para tal é necessário introduzir aquilo a que se chama a forma em escada (ou
escalonada) de uma qualquer matriz.

a) Forma em escada (ou escalonada) de uma matriz

Comecemos com este exemplo:

EXEMPLO 17

Observemos as seguintes matrizes:

0 3 2 0
2 −1 1 5 2 0 1 0
𝐴 = (0 0 ) , 𝐵 = [0 0 0 1 0).
−1 0], 𝐶 = [5 −1 −2] e 𝐷 = (0 0 0 0
8 10 0 0 4 0 0 4 0 0 0 0

Destes exemplos, vamos afirmar que a matriz 𝐴 não está na forma em escada, porque,
por exemplo, abaixo da entrada 2 (primeira entrada não nula da primeira linha) não
estão entradas todas nulas.

Já a matriz 𝐵 está na forma em escada, porque abaixo da primeira entrada não nula da
primeira linha só existem entradas nulas, por baixo da primeira entrada não nula da
segunda linha também só estão entradas nulas e, finalmente antes da primeira entrada
não nula da última linha só existem entradas nulas.

No que diz respeito à matriz 𝐶, esta também não está na forma em escada, pois, basta
referir que abaixo da primeira entrada não nula da primeira linha não são nulas todas as
entradas.

Finalmente em relação à matriz 𝐷, esta matriz está na forma em escada, pois por baixo
da primeira entrada não nula da primeira linha estão só entradas nulas e por baixo da
primeira entrada não nula da segunda linha também estão entradas todas nulas.

Para as matrizes que não estão na forma em escada, é possível colocá-las nessa forma
usando para o efeito as operações elementares que já abordamos anteriormente.

Antes disso, vamos explicitar o que se entende por matriz na forma em escada. Assim
temos a seguinte definição:

Definição (Matriz em forma de escada): Diz-se que uma matriz 𝐴𝑚×𝑛 está em forma de
escada se para toda a linha 𝑖 = 1, 2, … , 𝑚 acontecer o seguinte:
⚫ Se a linha 𝑖 é nula todas as linhas abaixo da linha 𝑖 são nulas;

⚫ Se a linha 𝑖 não é nula e a entrada 𝑎𝑖𝑘 é o seu primeiro elemento não nulo, todos os
elementos da coluna 𝑘 abaixo da entrada 𝑎𝑖𝑘 são nulos assim como os elementos das
colunas anteriores da linha 𝑘 para baixo.

Vamos então colocar em escada as matrizes 𝐴 e 𝐶 do EXEMPLO 17 usando operações


elementares com as linhas (ou colunas) dessas matrizes:

2 −1 2 −1 2 −1
𝐴 = (0 0 ) ⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗
𝐿3 ⟷ 𝐿2 (8 10 ) ⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗
𝐿2 → 𝐿2 − 4𝐿1 (0 14 ), ficando assim na forma
8 10 0 0 0 0
em escada (de linhas)

0 1 0 5 −1 −2
𝐶 = [5 −1 −2] 𝐿1 ⟷ 𝐿2 [0 1 0 ], estando já na sua forma em escada
0 0 4 0 0 4

Exercício 3: Coloque em escada as seguintes matrizes quadradas:

0 3 2 0
1 5 2 0 5 −2 1 2 3
0] e 𝐷 = [0
𝐴 = [5 2 1 0] .
−1 0], 𝐵 = [−5 0 1 ], 𝐶 = [1 −1 2 1 10 0
2 0 4 2 −1 0 0 −2 4 3 −1 15 5

O Processo que leva uma matriz a atingir a sua forma em escada chama-se Condensação
dessa matriz. Ao efetuarmos o seguinte processo

2 −1 2 −1 → 2 −1
𝐴 = (0 0 ) 𝐿3 ⟷ 𝐿2 (8 10 ) 𝐿 → 𝐿 − 4𝐿 (0 14 )
2 2 1
8 10 0 0 0 0

estamos a efetuar a condensação da matriz A.

EXEMPLO 18

Não estão em escada as seguintes matrizes:


Exercício 4: Observando as matrizes anteriores, explica o porquê de não estarem em
forma de escada? Apresente os seus argumentos e tente colocá-las na forma em escada
usando operações elementares com as linhas das matrizes.

b) “Pivots” de uma Matriz

Quando uma matriz estiver na sua forma em escada, vamos chamar às primeiras
entradas não nulas de cada uma das suas linhas os seus “pivots”.

Assim os pivots da matriz 𝐵 do EXEMPLO 17 são em número de 3 e são as seguintes


entradas: 1; −1 e 4.

Relativamente à matriz 𝐷, ela tem 2 pivots que correspondem às entradas: 3 e 1.

Após termos colocado as matrizes 𝐴 e 𝐶 em escada, podemos também calcular a


quantidade de pivots que cada uma tem, assim como quais são esses pivots.

Assim temos 2 pivots para a matriz 𝐴 (são as entradas 2 e 14) e temos 3 pivots para a
matriz 𝐶 (são as entradas 5, 1 e 4).

Recapitulando, após uma matriz estar em forma de escada, o primeiro elemento não
nulo de uma linha é o seu pivot.

Numa matriz em escada de linhas, as entradas abaixo e à esquerda de cada pivot têm
de ser todas nulas (dito de outra forma, o número de zeros à esquerda do pivot, primeiro
elemento não nulo de uma linha não nula, vai aumentando de linha para linha até à 1ª
linha nula). Se houver linhas nulas (de zeros) elas têm de estar no “fundo” da matriz.

As seguintes matrizes que se apresentam no próximo exemplo estão em escada de


linhas (o pontinho representa os pivots, primeiro elemento não nulo de uma linha não
nula, e os asteriscos representam um escalar qualquer, seja nulo ou não):

EXEMPLO 19
Exercício 5: Indique quais e quantos pivots tem cada uma das matrizes dos Exercícios 3
e 4.

3. Característica de uma matriz

Dada uma qualquer matriz 𝐴 (quadrada ou retangular) é possível construir a sua forma
em escada e calcular o número de pivots que ela possui.

O número de pivots de uma matriz 𝐴 vai chamar-se a característica dessa matriz 𝐴 que
será representada por 𝑐𝑎𝑟(𝐴), 𝑐(𝐴) ou 𝑟𝑎𝑛𝑘(𝐴).

Para as matrizes do EXEMPLO 17, temos que 𝑐𝑎𝑟(𝐴) = 2, 𝑐𝑎𝑟(𝐵) = 3, 𝑐𝑎𝑟(𝐶) = 3 e


𝑐𝑎𝑟(𝐷) = 2, pois 𝐴 e 𝐷 têm 2 pivots e as matrizes 𝐵 e 𝐶 têm 3 pivots.

Uma nota importante que devemos reter é a de que 𝑐𝑎𝑟(𝐴) ≤ min{𝑚, 𝑛}, sendo 𝐴 uma
matriz de ordem 𝑚 × 𝑛.

Para obter a caraterística de uma matriz temos de transformar a matriz numa em escada
de linhas. Para isso efetuamos operações elementares entre linhas que, como já foi
referido atrás, consistem em:

- Troca entre duas linhas representada por 𝐿𝑖 ↔ 𝐿𝑗 e que significa a troca entre a linha i
e a linha j.

- Multiplicação de uma linha por um nº(escalar) 𝛼 diferente de zero representada por


𝐿𝑖 → 𝛼𝐿𝑖 e que significa multiplicar a linha i por um nº 𝛼. Por exemplo 𝐿2 → 3𝐿2 significa
multiplicar a linha 2 por 3.

- A uma linha adicionar um múltiplo de outra linha 𝐿𝑖 → 𝐿𝑖 + 𝛽𝐿𝑗 . Por exemplo, à linha
2 somar 3 vezes a linha 1: 𝐿2 → 𝐿2 + 3𝐿1 ou à linha 2 subtrair 3 vezes a linha 1: 𝐿2 →
𝐿2 − 3𝐿1 (neste caso 𝛽 = −3, e +(−3)𝐿1 = −3𝐿1 ).

_______________________________________________________________________

Recapitulando, a característica de uma matriz 𝐴 corresponde ao nº de pivots (que


coincide com o nº de linhas não nulas e o nº de degraus da escada) depois de
transformar a matriz numa matriz em escada de linhas.
Processo para transformar uma matriz em escada de linhas: Dada uma matriz ver se o
elemento da posição 11 (linha um e coluna um) é diferente de zero. Caso não seja
diferente de zero, trocar duas linhas de modo a colocar um elemento diferente de zero
nessa posição (se for igual a 1 tanto melhor, pois simplifica operações seguintes).
Também podemos multiplicar a linha 1 pelo inverso do pivô para o pivô passar a ser 1,
1
podem é surgir frações nas restantes entradas!!! (Se o pivô for 3, multiplicando por 3 o

pivô dessa linha passa a ser 1, mas as restantes entradas dessa linha também têm de ser
1
multiplicadas por 3). Caso na primeira coluna todas as entradas sejam zero, avançar para

a coluna seguinte. O objetivo é para cada linha abaixo da primeira somar ou subtrair um
determinado nº de vezes a linha 1 de modo a obter zeros abaixo do pivô da primeira
linha.

Depois consideramos a submatriz abaixo e à direita do pivot da primeira linha e


repetimos o processo até chegar ao pivot da última linha.

Exercício 6: Indique a característica de cada uma das matrizes dos Exercícios 3 e 4.

_______________________________________________________________________

Sugestão de trabalho: Podem resolver os exercícios 3 alíneas d) e e) (página 16), 5, 6, 7,


8, 9, 10 e 11 (página 17), 12, 13, 14, 15 (página 18), 16, 17, 18, 19, 20 (página 19), 21, 22,
23, 24 e 25 (página 20), 32, 33 (página 21), 37, 39 (página 22), 47 e 48 (página 24) da
Sebenta para consolidação deste conteúdo programático.

_____________________________________________________________________________

2.7. Matrizes invertíveis

Começamos agora por introduzir a definição de matriz invertível, suas propriedades e,


posteriormente, vamos abordar um método que tem por objetivo determinar a matriz
inversa de uma matriz invertível.

1) Matriz Invertível

Existem matrizes quadradas que são matrizes invertíveis e outras não. De seguida vamos
introduzir a definição de matriz invertível. Uma matriz quadrada 𝐴 de ordem 𝑛 diz-se
matriz invertível quando existe uma outra matriz quadrada 𝐵 da mesma ordem de 𝐴 tal
que 𝐴𝐵 = 𝐵𝐴 = 𝐼𝑛 (matriz identidade de ordem 𝑛). Repara que nem todas as matrizes
quadradas são matrizes invertíveis, pois nem sempre existe a tal matriz 𝐵 que verifica a
igualdade acima referenciada. Vamos ver um exemplo desse tipo:

1 −1 3
𝐴 = (0 1 4) não é uma matriz invertível. Na próxima secção poderás tentar
1 0 7
encontrar a matriz inversa de 𝐴 usando o Método de eliminação de Gauss-Jordan que
aí é introduzido. Repararás que a característica desta matriz é menor do que a sua
ordem, o que permite concluir se ela é ou não invertível. Também podes calcular
diretamente a sua característica e verificarás o que foi afirmado antes. Então uma
caracterização das matrizes invertíveis é a seguir indicada para nos permitir afirmar se
ela é ou não uma matriz invertível:

Propriedade (importante): Uma matriz quadrada 𝐴 de ordem 𝑛 é uma matriz invertível


se e só se 𝑐𝑎𝑟(𝐴) = 𝑛.

EXEMPLO 20

1 2
O exemplo seguinte diz respeito a uma matriz invertível: 𝐴 = ( ). Vamos calcular
3 4
então a tal matriz 𝐵 tal que 𝐴𝐵 = 𝐵𝐴 = 𝐼2 . Então a tal matriz 𝐵 terá a mesma ordem de
𝑥 𝑦
𝐴, que neste caso será de ordem 2. Suponhamos então que 𝐵 = ( ). Pretendemos
𝑧 𝑡
calcular as entradas 𝑥, 𝑦, 𝑧 e 𝑡. Como 𝐴𝐵 = 𝐵𝐴 = 𝐼2 , vamos considerar uma destas
igualdades, por exemplo, 𝐴𝐵 = 𝐼2 . Temos então:

1 2 𝑥 𝑦 1 2 𝑥 𝑦 1 0
𝐴𝐵 = ( )( ) = 𝐼2 ⇔ ( )( )=( ).
3 4 𝑧 𝑡 3 4 𝑧 𝑡 0 1

𝑥 + 2𝑧 𝑦 + 2𝑡 1 0
Efetuando a multiplicação das matrizes obtemos ( )=( ).
3𝑥 + 4𝑧 3𝑦 + 4𝑡 0 1
Igualando as matrizes vamos ter um sistema de equações lineares para resolver e que
permitirá encontrar os valores das incógnitas 𝑥, 𝑦, 𝑧 e 𝑡. Tal sistema é o seguinte
𝑥 = −2
𝑥 + 2𝑧 = 1
𝑦=1
3𝑥 + 4𝑧 = 0
{ , cujo conjunto solução é 𝑧 = 3 . Para treinares mais uma vez o que foi
𝑦 + 2𝑡 = 0 2
3𝑦 + 4𝑡 = 1 1
{𝑡 = − 2
abordado a semana passada podes resolver este sistema pelo Método de eliminação de
Gauss para verificares que é esta a solução e que é única. Então retomando a nossa
matriz 𝐴, podemos concluir que ela é uma matriz invertível e que a sua matriz inversa é
−2 1
então a matriz 𝐵 = ( 3
− 2).
1
2

De salientar que tivemos de resolver um sistema de equações lineares com 4 equações


e 4 incógnitas. E se a matriz 𝐴 fosse de ordem 3? Quantas equações e quantas incógnitas
teríamos? E se fosse de ordem 𝑛, quantas seriam? Naturalmente que o número de
equações e de incógnitas vai aumentando com a ordem da matriz. Para evitar este tipo
de sistemas de maior dimensão o Método que expomos a seguir permite, de um modo
mais fácil, resolver esse tipo de sistemas.

Mais algumas propriedades relacionadas com a inversa de uma matriz invertível serão
agora mencionadas. Assim para matrizes quadradas invertíveis 𝐴 e 𝐵 temos:

Propriedade 13: (𝐴 + 𝐵)−1 ≠ 𝐴−1 + 𝐵 −1, desde que a adição esteja definida;

Propriedade 14: (𝐴𝐵)−1 = 𝐵 −1 𝐴−1 , desde que o produto matricial esteja definido;

1
Propriedade 15: (𝛼𝐴)−1 = 𝛼 𝐴−1, sendo 𝛼 um escalar não nulo (número real ou número

complexo não nulo);

Propriedade 16: (𝐴−1 )−1 = 𝐴;

Propriedade 17: A matriz inversa de uma dada matriz quadrada se existir, é única;

Propriedade 18: (𝐴𝑇 )−1 = (𝐴−1 )𝑇 .

_______________________________________________________________________

Como sugestão podem visualizar:

https://www.youtube.com/watch?v=wfDoPGfo2fE

https://www.youtube.com/watch?v=MOexnyORliU

_______________________________________________________________________

3. Capítulo – Sistemas de equações lineares


Seguidamente vamos começar por recordar a classificação de sistemas de equações
lineares quanto à sua solução e, posteriormente, vamos abordar um novo método que
envolve matrizes e que tem por objetivo a resolução de sistemas de equações lineares.
Finalizaremos a aula com a discussão de sistemas.

3.1. Classificação de sistemas de equações lineares

Sucintamente, podemos dizer que um sistema de equações lineares é um conjunto de


equações lineares aplicadas a um conjunto de variáveis. Podemos ter mais equações do
que variáveis, ou mais variáveis do que equações e ainda, também podemos ter o
mesmo número de equações e de variáveis. A estas variáveis damos o nome de
incógnitas do sistema de equações lineares.

Uma solução para um sistema de equações lineares é uma atribuição de números às


incógnitas que satisfazem simultaneamente todas as equações desse sistema. A palavra
"sistema" indica que as equações devem ser consideradas em conjunto, e não de forma
individual, isto é, cada uma das equações deve ser satisfeita pela solução encontrada.

Assim, de acordo com a solução encontrada para um sistema de equações lineares


vamos adotar a seguinte classificação:

- Sistema Possível

Neste caso, o conjunto de soluções do sistema é não vazio. De acordo com a análise
efetuada ao conjunto solução, podemos ter:

- Sistema Possível Determinado

Um sistema é possível determinado quando a solução do sistema é única.

Apresentamos de seguida um exemplo de um sistema de equações lineares deste tipo.


Vamos resolvê-lo pelo método de substituição.

EXEMPLO 21

Consideremos o seguinte sistema de equações lineares


3𝑥 + 2𝑦 − 𝑧 = 1
2𝑥 − 2𝑦 + 4𝑧 = −2
{
1
−𝑥 + 𝑦 − 𝑧 = 0
2

Trata-se de um sistema de equações lineares com 3 equações e 3 incógnitas que são


designadas por 𝑥, 𝑦 e 𝑧. Vamos então resolver este sistema pelo Método de Substituição
que convém recordar pois vai ser também essencial para ser aplicado no próximo
método de resolução de sistemas de equações lineares que vamos abordar a seguir.

Temos então, pelo Método de Substituição, que

3𝑥 + 2𝑦 − 𝑧 = 1 𝑧 = −1 + 3𝑥 + 2𝑦
{2𝑥 − 2𝑦 + 4𝑧 = −2 ⇔ { 2𝑥 − 2𝑦 + 4(−1 + 3𝑥 + 2𝑦) = −2 ⟺
1 1
−𝑥 + 2 𝑦 − 𝑧 = 0 −𝑥 + 2 𝑦 − (−1 + 3𝑥 + 2𝑦) = 0
−−−−− −−−−−
1−3𝑦 −−−−− −−−−−
14𝑥 + 6𝑦 = 2 𝑥= 7
{ 3
⟺{ ⟺ {− − − − − ⟺ {− − − − −
−4𝑥 − 2 𝑦 = −1 1−3𝑦 3 3𝑦 = −6 𝑦 = −2
−4 ( 7 ) − 2 𝑦 = −1
−−−− 𝑧 = −1 + 3(1) + 2(−2) 𝑧 = −2
1−3(−2)
⟺ {𝑥 = 7 ⟺ { 𝑥=1 ⟺ { 𝑥=1 ,
−−−− −−−− 𝑦 = −2

ou seja, o conjunto solução é o seguinte CS={(𝑥, 𝑦, 𝑧) = (1, −2, −2)}. Então verificamos
que, neste caso, existe uma única solução para este sistema de equações lineares, isto
é, um único valor para cada uma das 3 incógnitas do sistema. Por esta razão, este
sistema é classificado como sendo um sistema possível determinado.

- Sistema Possível Indeterminado

Um sistema é possível indeterminado quando a solução do sistema não é única.

Apresentamos de seguida um exemplo de um sistema de equações lineares deste tipo.


Vamos resolvê-lo pelo método de substituição.

EXEMPLO 22

Consideremos o seguinte sistema de equações lineares

3𝑥 + 2𝑦 − 𝑧 = 1
{2𝑥 − 2𝑦 + 4𝑧 = −2
𝑥 + 4𝑦 − 5𝑧 = 3
Trata-se de um sistema de equações lineares com 3 equações e 3 incógnitas que são
designadas por 𝑥, 𝑦 e 𝑧. Vamos então resolver também este sistema pelo Método de
Substituição.

Temos então que

3𝑥 + 2𝑦 − 𝑧 = 1 𝑧 = −1 + 3𝑥 + 2𝑦
{2𝑥 − 2𝑦 + 4𝑧 = −2 ⇔ { 2𝑥 − 2𝑦 + 4(−1 + 3𝑥 + 2𝑦) = −2 ⟺
𝑥 + 4𝑦 − 5𝑧 = 3 𝑥 + 4𝑦 − 5(−1 + 3𝑥 + 2𝑦) = 3
−−−−−
−−−−− 1−3𝑦 −−−−−
14𝑥 + 6𝑦 = 2 𝑥= −−−−−
{ ⟺{ 7 ⟺ { ⟺
−14𝑥 − 6𝑦 = −2 1−3𝑦 6𝑦 − 6𝑦 = −2 + 2
−14 ( 7 ) − 6𝑦 = −2
−4+5𝑦
−−−−− −−−− 1−3𝑦 𝑧= 7
1−3𝑦 𝑧 = −1 + 3 ( 7 ) + 2𝑦
{− − − − − ⟺ {𝑥 = 7 ⟺ { −−−− ⟺ { 𝑥 = 1−3𝑦 ,
0𝑦 = 0 0=0 7
−−−− 𝑦 ∈ℝ

1−3𝑦 −4+5𝑦
ou seja, o conjunto solução é o seguinte CS={(𝑥, 𝑦, 𝑧) = ( , 𝑦, ) : 𝑦 ∈ ℝ}. Então
7 7

verificamos que, neste caso, existe mais do que uma solução para este sistema de
equações lineares, pois para cada valor da incógnita 𝑦 temos um valor para cada uma
das outras duas incógnitas. Por esta razão, este sistema é classificado como sendo um
sistema possível indeterminado e à incógnita 𝑦 damos o nome de variável livre.

O número de variáveis livres de um sistema possível indeterminado tem o nome de grau


de indeterminação desse sistema.

- Sistema Impossível

Neste caso, o conjunto de soluções do sistema é um conjunto vazio, ou seja, CS=∅, isto
é, o sistema não tem solução.

Apresentamos de seguida um exemplo de um sistema de equações lineares deste tipo.


Vamos resolvê-lo pelo método de substituição.

EXEMPLO 23
3𝑥 + 2𝑦 − 𝑧 = 1 𝑧 = −1 + 3𝑥 + 2𝑦
{2𝑥 − 2𝑦 + 4𝑧 = −2 ⇔ {2𝑥 − 2𝑦 + 4(−1 + 3𝑥 + 2𝑦) = −2 ⟺
5𝑥 + 3𝑧 = 0 5𝑥 + 3(−1 + 3𝑥 + 2𝑦) = 0
−−−−−
−−−−− 1−3𝑦 −−−−−
14𝑥 + 6𝑦 = 2 𝑥= 7
{ ⟺ { ⟺ { −−−−− ⟺
14𝑥 + 6𝑦 = 3 1−3𝑦 6𝑦 − 6𝑦 = 3 − 2
14 ( 7 ) + 6𝑦 = 3
−−−−−
{− − − − − ,
0𝑦 = 1

ou seja, o conjunto solução é o seguinte CS=∅. Então verificamos que, neste caso, não
existe solução para este sistema de equações lineares, pois encontramos uma equação
impossível. Por esta razão, este sistema é classificado como sendo um sistema
impossível.

3.2. Método de Eliminação de Gauss


É sempre possível transformar um sistema de equações lineares (𝑚 equações e 𝑛
incógnitas neste caso) numa matriz:

Cada linha corresponde a uma equação, cada coluna corresponde a uma incógnita e a
parte da matriz com entradas a vermelho na figura é formada pelos coeficientes dessas
incógnitas em cada uma das equações. A última coluna corresponde aos termos
independentes (aqueles números presentes no 2.º membro da equação do sistema e
que não multiplicam por nenhuma incógnita). Se faltar algum termo com alguma
incógnita numa equação, o valor a colocar na matriz na posição correspondente será
zero. Esta matriz representa-se por [A|B] em que:

Todo o sistema de equações lineares é equivalente à equação matricial

𝐴𝑋 = 𝐵

onde a matriz 𝐴 é dita matriz simples do sistema ou matriz dos coeficientes das
incógnitas do sistema. A coluna 𝐵 é a coluna dos termos independentes do sistema e a
coluna 𝑋 é a coluna das incógnitas do sistema. A matriz [𝐴|𝐵] é dita matriz ampliada
ou completa.

𝑥 + 2𝑦 − 𝑧 = 5
Então, por exemplo, { 𝑦 + 3𝑧 = 0 é equivalente à equação matricial dada por 𝐴𝑋 =
𝑥−𝑧 = 2
𝐵, onde a matriz simples do sistema é a matriz dos coeficientes das suas incógnitas, ou
1 2 −1
seja, 𝐴 = (0 1 3 ), a coluna 𝑋 é a coluna das incógnitas do sistema colocadas na
1 0 −1
𝑥
coluna pela ordem como aparecem nas equações do sistema, isto é, 𝑋 = (𝑦) e,
𝑧
finalmente, a coluna 𝐵 é a coluna dos termos independentes do sistema que neste caso
5
é dada por 𝐵 = (0). A chamada matriz ampliada deste sistema é a matriz
2

1 2 −1|5
[𝐴|𝐵] = [0 1 3 |0].
1 0 −1|2

No Método de Eliminação de Gauss pretende-se transformar a matriz ampliada [𝐴|𝐵]


numa matriz em escada de linhas através de operações elementares.
Ao efetuar estas operações, a matriz ampliada é alterada e corresponde-lhe um outro
sistema equivalente ao primeiro (com a mesma solução).

Trocar linhas corresponde a trocar a ordem das equações. Multiplicar uma linha por um
número diferente de zero corresponde a multiplicar ambos os membros dessa equação
por esse número e obtemos uma equação equivalente. A uma linha adicionar um
múltiplo de outra linha também não altera a solução do sistema.

É muito importante na resolução de sistemas de equações lineares ter em atenção as


características da matriz ampliada e da matriz simples do sistema. O seguinte teorema
permite-nos verificar quando o sistema que está a ser considerado é ou não um sistema
possível.

TEOREMA de ROUCHÉ: Para um sistema de equações lineares com equação matricial


𝐴𝑋 = 𝐵, ele é um

sistema possível se e só se car(𝑨|𝑩)=car(𝑨).

Quando a matriz ampliada estiver na forma de escada de linhas, 3 situações podem


ocorrer:

- car(𝑨) < car(𝑨|𝑩) (ou seja, a característica da matriz 𝐴 é inferior à característica da


matriz [𝐴|𝐵]). Nesse caso, a última linha corresponde a uma equação do género 0=Pivô,
e como o Pivô é diferente de zero, este sistema é impossível.

- car(𝑨) = car(𝑨|𝑩) = nº de incógnitas e nesse caso o sistema é possível (tem solução)


determinado (a cada incógnita corresponde um determinado nº que verifica as
equações do sistema). Para resolver o sistema, transformamos as linhas não nulas da
matriz ampliada no sistema correspondente e na última equação existe apenas uma
incógnita e podemos resolver a equação em ordem a essa incógnita e obter o valor dela.
Substituindo esse valor na imediatamente acima, podemos obter o valor da outra
incógnita e assim sucessivamente até à primeira equação.

- car(𝑨) = car(𝑨|𝑩) < nº de incógnitas e nesse caso o sistema é possível (tem solução)
indeterminado. Para resolver o sistema, transformamos as linhas não nulas da matriz
ampliada no sistema correspondente. Como vai haver mais incógnitas do que equações,
só vamos conseguir determinar a expressão de algumas incógnitas que dependem das
outras (chamadas variáveis livres). Se a característica é 3 e o nº de incógnitas é 5, haverá
5 – 3 = 2 variáveis livres. Se a característica é 2 e o nº de incógnitas é 3, haverá
3 – 2 = 1 variável livre. Se as incógnitas são 𝑥, 𝑦 e 𝑧, podemos obter uma expressão
para 𝑥 e outra para 𝑦 onde pode “aparecer” o 𝑧. Por exemplo, 𝑥 = 3 + 2𝑧 e 𝑦 = 1 −
𝑧 e 𝑧 era a variável livre. Mas se tivéssemos resolvido em ordem a 𝑧 e a 𝑥, aparecia 𝑧 =
1 − 𝑦 e 𝑥 = 5 − 2𝑦 e 𝑦 era a variável livre. Para cada valor de 𝑦 corresponde um
valor de 𝑥 e outro de 𝑧, e, portanto, há infinitas soluções. Para 𝑦 = 0 temos a solução
(5,0,1), mas se 𝑦 = 1 temos a solução (3,1,0).

Nota: Nunca car(𝐴) > car(𝐴|𝐵), pois se [𝐴|𝐵] tem mais uma coluna do que 𝐴, então
tem os mesmos pivôs de 𝐴 e eventualmente mais um pivô na coluna 𝐵 ou não. Assim,
as únicas possibilidades são car(𝐴) < car(𝐴|𝐵) (e nesse caso car(𝐴|𝐵) = car(𝐴) + 1) ou
car(𝐴) = car(𝐴|𝐵).

Também no caso em que car(𝐴) = car(𝐴|𝐵), car(𝐴) nunca será maior do que o nº de
incógnitas, pois a matriz 𝐴 tem tantas colunas como incógnitas e como cada coluna da
matriz em escada de linhas só tem um pivô, no máximo car(𝐴) = nº de incógnitas e se
alguma coluna não tiver pivô, car(𝐴) < nº de incógnitas.

Resumindo, temos para qualquer sistema com 𝑚 equações e 𝑛 incógnitas:

Relação entre car(𝑨) e car(𝑨|𝑩) Classificação do sistema

car(𝐴)=car(𝐴|𝐵) = 𝑛 Sistema possível determinado

car(𝐴)=car(𝐴|𝐵) < 𝑛 Sistema possível indeterminado


(o grau de indeterminação é
dado por 𝑛-car(𝐴)

car(𝐴)≠car(𝐴|𝐵) Sistema Impossível

Vamos agora apresentar alguns exemplos da resolução de sistemas de equações


lineares pelo Método de Eliminação de Gauss.

EXEMPLO 24

Consideremos o sistema:
𝑥 + 2𝑦 + 2𝑧 = 1
{ 𝑥−𝑦 =2
2𝑥 − 2𝑦 + 4𝑧 = −4

A matriz ampliada correspondente ao sistema é:

1 2 2| 1
[𝐴|𝐵] = [1 −1 0| 2 ]
2 −2 4|−4

Vamos transformar esta matriz 3 × 4 numa em escada de linhas. Consideremos o


elemento na posição 11 (isto é, o elemento que está na linha um e na coluna um) que é
diferente de zero (logo é o pivô da primeira linha) e pretendemos colocar zeros abaixo
desse pivô, nas posições 21 e 31. Portanto, teremos de efetuar uma operação elementar
na linha 2 e outra na linha 3. Para dar zero na posição 21, tenho de subtrair uma vez a
linha 1. Para dar zero na posição 31, tenho de subtrair 2 vezes a linha 1.

1 2 2| 1 → 1 2 2|1
[𝐴|𝐵] = [1 |
−1 0 2 ] 𝐿2 → 𝐿2 − 𝐿 [
1 0 −3 −2| 1 ]
2 −2 4|−4 𝐿3 → 𝐿3 − 2𝐿1 0 −6 0 |−6

De seguida vou considerar a posição 22 que é −3, é diferente de zero e, portanto, o pivô
da segunda linha e colocar zeros abaixo desse pivô, isto é, colocar zero na entrada 32.
Tenho de fazer uma operação elementar na linha 3 usando o pivô da linha 2 abaixo do
qual quero colocar zero. Para dar zero na posição 32, tenho de subtrair 2 vezes a linha 2
(Porquê −2 𝐿2 ? Pretendo anular o −6 para isso preciso de +6, mas como o pivô da
+6
coluna onde pretendo colocar zero é -3, −3 = −2 é o nº que eu preciso, pois na posição

32 vou obter fazendo 𝐿3 → 𝐿3 − 2𝐿2 : -6-2x(-3)=-6+6=0).

1 2 2|1 → 1 2 2|1
|
[0 −3 −2 1 ] 𝐿 → 𝐿 − 2𝐿 [0 −3 −2| 1 ] (**)
3 3 2
0 −6 0 |−6 0 0 4 |−8

Repare que podíamos ter feito:

1 2 2|1 → 1 2 2|1
[0 −3 −2| 1 ] 𝐿 → 𝐿 + 3𝐿 [0 −3 −2| 1 ]
3 3 1
0 −6 0 |−6 3 0 6 |−3
Mas repare que a posição 31 deixou de ser zero, logo este caminho não é válido!!!
Atenção… Para anular um nº de uma coluna devemos usar a linha do pivô dessa coluna
para não alterar os zeros anteriormente obtidos.

De seguida, voltando à matriz (**), passamos para a posição 33 que é 4 diferente de


zero logo o pivô desta linha desta matriz. Não há mais nenhuma linha abaixo desta e,
portanto, a matriz obtida está em escada de linhas.

1 2 2|1
[0 −3 −2| 1 ]
0 0 4 |−8

Os pivôs na matriz obtida são o 1 da posição 11, o -3 da posição 22 e o 4 da posição 33.


Assim, c(A) = 3, c(A|B) = 3 e o nº de incógnitas é igual a 3 que são 𝑥, 𝑦 e 𝑧, logo o sistema
é possível e determinado. Para obter a solução, de seguida vamos passar da matriz
obtida para o sistema correspondente e obtemos:

1𝑥 + 2𝑦 + 2𝑧 = 1 𝑥 + 2𝑦 + 2𝑧 = 1
{ 0𝑥 − 3𝑦 − 2𝑧 = 1 ou simplesmente { −3𝑦 − 2𝑧 = 1
0𝑥 + 0𝑦 + 4𝑧 = −8 4𝑧 = −8

Começando pela última equação das 3 do sistema, obtemos:

𝑥 + 2𝑦 + 2𝑧 = 1
−3𝑦 − 2𝑧 = 1
⟺{
−8
𝑧= = −2
4

Substituindo na imediatamente acima

𝑥 + 2𝑦 + 2𝑧 = 1 𝑥 + 2𝑦 + 2𝑧 = 1 𝑥 + 2𝑦 + 2𝑧 = 1
⟺ {−3𝑦 − 2(−2) = 1 ⟺ { −3𝑦 + 4 = 1 ⟺ { −3𝑦 = 1 − 4
𝑧 = −2 𝑧 = −2 𝑧 = −2
𝑥 + 2𝑦 + 2𝑧 = 1
𝑥 + 2𝑦 + 2𝑧 = 1
−3
⟺ { −3𝑦 = −3 ⟺{ 𝑦= =1
𝑧 = −2 −3
𝑧 = −2

Substituindo agora na primeira equação os valores obtidos na segunda e terceira


equações, obtemos:

𝑥 + 2(1) + 2(−2) = 1 𝑥+2−4=1 𝑥 =1−2+4 =3


⟺{ 𝑦=1 ⟺{ 𝑦=1 ⟺{ 𝑦=1
𝑧 = −2 𝑧 = −2 𝑧 = −2
A solução do sistema é, portanto, 𝑆 = {(3,1, −2)}. A resolução deste sistema
terminou. Mas se quisermos confirmar que esta é a solução correta, basta
substituirmos no sistema inicial:

𝑥 + 2𝑦 + 2𝑧 = 1
{ 𝑥−𝑦 =2
2𝑥 − 2𝑦 + 4𝑧 = −4

𝑥 por 3, 𝑦 por 1 e 𝑧 por -2 e temos de obter igualdades verdadeiras:

3 + 2(1) + 2(−2) = 1 3+2−4=1 1=1


{ 3−1=2 ⟺{2=2 ⟺ {2 = 2
2(3) − 2(1) + 4(−2) = −4 6 − 2 − 8 = −4 −4 = −4

Vamos agora ver outro exemplo.

EXEMPLO 25

Consideremos o sistema:

𝑥 + 3𝑦 + 2𝑧 = 1
{−3𝑥 − 9𝑦 − 6𝑧 = −3
3𝑥 + 𝑦 + 7𝑧 = −4

A matriz correspondente ao sistema é:

1 3 2|1
[𝐴|𝐵] = [−3 −9 −6|−3]
3 1 7 |−4

Vamos transformar esta matriz 3 × 4 numa em escada de linhas. Consideremos o


elemento na posição 11 que é diferente de zero logo é o pivô da primeira linha e
pretendemos colocar zeros abaixo desse pivô, nas posições 21 e 31. Portanto, teremos
de efetuar uma operação elementar na linha 2 e outra na linha 3. Para dar zero na
posição 21, tenho de somar 3 vezes a linha 1. Para dar zero na posição 31, tenho de
subtrair 3 vezes a linha 1. De seguida, vou considerar a posição 22 que é 0 logo não é
pivô. Mas trocando a linha 2 com a linha 3 consigo colocar na posição 22 um nº diferente
de zero que será o pivô. (Caso não conseguisse trocar com uma linha abaixo de modo a
obter um nº diferente de zero nesta posição, passava para a entrada ao lado direito da
posição 22, ou seja, a posição 23 na coluna seguinte).
[𝐴|𝐵]
1 3 2|1 → 1 3 2| 1 1 3 2| 1

𝐿
= [−3 −9 −6|−3] 2 → 𝐿2 + 3𝐿1 [0 0 0| 0 ] 𝐿 ↔ 𝐿 [0 −8 1|−7]
2 3
3 1 7 |−4 𝐿3 → 𝐿3 − 3𝐿1 0 −8 1|−7 0 0 0| 0

Os pivôs na matriz obtida são o número 1 da posição 11, e o número −8 da posição 22.
Assim, neste caso, car(𝐴) = 2, car(𝐴|𝐵) = 2 e o nº de incógnitas é igual a 3 e são 𝑥, 𝑦 e 𝑧,
logo o sistema é possível e indeterminado. Para obter a solução, vamos passar da matriz
obtida para o sistema correspondente:

1𝑥 + 3𝑦 + 2𝑧 = 1 𝑥 + 3𝑦 + 2𝑧 = 1
{0𝑥 − 8𝑦 + 1𝑧 = −7 ou simplesmente { −8𝑦 + 𝑧 = −7
0𝑥 + 0𝑦 + 0𝑧 = 0 0=0

A última equação do sistema é 0=0, a qual é uma proposição verdadeira e não permite
obter o valor ou expressão de nenhuma incógnita. Passando para a equação
imediatamente acima desta, temos duas incógnitas 𝑦 e 𝑧. Podemos resolver em ordem
a uma delas a equação e obter a expressão da outra em função desta. Parece mais
simples resolver em ordem a 𝑧!!!, obtendo

𝑥 + 3𝑦 + 2𝑧 = 1
⟺ { 𝑧 = −7 + 8𝑦
0=0

Substituindo na equação imediatamente acima a expressão obtida para 𝑧, obtemos:

𝑥 + 3𝑦 + 2(−7 + 8𝑦) = 1
⟺{ 𝑧 = −7 + 8𝑦
0=0
𝑥 + 3𝑦 − 14 + 16𝑦 = 1
⟺{ 𝑧 = −7 + 8𝑦
0=0
𝑥 = 1 − 3𝑦 + 14 − 16𝑦 𝑥 = 15 − 19𝑦
⟺{ 𝑧 = −7 + 8𝑦 ⟺ { 𝑧 = −7 + 8𝑦
0=0 0=0

A solução do sistema é, portanto, 𝑆 = {(15 − 19𝑦, 𝑦, −7 + 8𝑦): 𝑦 ∈ 𝐼𝑅}. A resolução


deste sistema terminou. Mas se quisermos confirmar que esta é a solução correta, basta
substituirmos no sistema inicial:

𝑥 + 3𝑦 + 2𝑧 = 1
{−3𝑥 − 9𝑦 − 6𝑧 = −3
3𝑥 + 𝑦 + 7𝑧 = −4
𝑥 por 15 − 19𝑦 e 𝑧 por −7 + 8𝑦 e temos de obter igualdades verdadeiras:

𝑥 + 3𝑦 + 2𝑧 = 1 (15 − 19𝑦) + 3𝑦 + 2(−7 + 8𝑦) = 1 1=1


{ −3𝑥 − 9𝑦 − 6𝑧 = −3 ⟺ {−3(15 − 19𝑦) − 9𝑦 − 6(−7 + 8𝑦) = −3 ⟺ {−3 = −3
3𝑥 + 𝑦 + 7𝑧 = −4 3(15 − 19𝑦) + 𝑦 + 7(−7 + 8𝑦) = −4 −4 = −4

Vamos ainda a outro exemplo.

EXEMPLO 26

Consideremos o sistema:

2𝑥 + 3𝑦 + 2𝑧 = 1
{−4𝑥 − 𝑦 + 6𝑧 = 3
−2𝑥 + 𝑦 + 6𝑧 = 5

A matriz correspondente ao sistema é:

2 3 2|1
[𝐴|𝐵] = [−4 −1 6|3]
−2 1 6|5

Vamos transformar esta matriz 3 × 4 numa em escada de linhas. Consideremos o


elemento na posição 11 que é diferente de zero logo é o pivô da primeira linha e
pretendemos colocar zeros abaixo desse pivô, nas posições 21 e 31. Portanto, teremos
de efetuar uma operação elementar na linha 2 e outra na linha 3. Para dar zero na
posição 21, tenho de somar 2 vezes a linha 1. Para dar zero na posição 31, tenho de
somar uma vez a linha 1.

2 3 2|1 → 2 3 2 |1
𝐿
[𝐴|𝐵] = [−4 −1 6|3] 2 → 𝐿2 + 2𝐿1 [0 5 10|5]
−2 1 6|5 𝐿3 → 𝐿3 + 𝐿1 0 4 8 |6

De seguida, vamos considerar a posição 22 e colocar zero na posição 32. Para tal tenho
várias hipóteses (devem usar a que vos parecer mais simples):

2 3 2 |1 → 2 3 2|1 → 2 3 2|1
[0 5 10|5] 𝐿 → 1 𝐿 [0 1 2|1] 𝐿 → 𝐿 − 4𝐿 [0 1 2|1]
2 3 3 2
0 4 8 |6 5 2 0 4 8|6 0 0 0|2

Ou:
2 3 2 |1 → 2 3 2 |1
[0 5 | 4
10 5] 𝐿 → 𝐿 − 𝐿 [0 5 10|5]
3 3
0 4 8 |6 5 2 0 0 0 |2

Ou:

2 3 2 |1 → 2 3 2|1 2 3 2|1

[0 5 10|5] 𝐿2 → 4𝐿2 [0 20 40|20] 𝐿 → 𝐿 − 𝐿 [0 20 40|20]
3 3 2
0 4 8 |6 𝐿3 → 5𝐿3 0 20 40|30 0 0 0 |10

Ou:

2 3 2 |1 → 2 3 2|1
[0 5 10|5] 𝐿 → 5𝐿 − 4𝐿 [0 5 10| 5 ]
3 3 2
0 4 8 |6 0 0 0 |10

Os pivôs na matriz obtida são o número 2 da posição 11, na posição 22 o número 1, o 5,


o 20 ou o 5 consoante o caso e na posição 34 o número 2 no primeiro e segundo caso e
o número 10 no terceiro e quarto caso. Em qualquer um dos casos, car(𝐴) = 2 e car(𝐴|𝐵)
= 3, logo o sistema é impossível. A solução do sistema é, portanto, 𝐶𝑆 = { } ou CS = ∅,
isto é, CS é o conjunto vazio, o sistema não tem solução. Não há números 𝑥, 𝑦 e 𝑧 que
satisfaçam, simultaneamente, as equações do sistema. Repare que o sistema
correspondente no primeiro caso é:

2𝑥 + 3𝑦 + 2𝑧 = 1 𝑥 + 3𝑦 + 2𝑧 = 1
{ 0𝑥 + 𝑦 + 2𝑧 = 1 ou simplesmente { 𝑦 + 2𝑧 = 1
0𝑥 + 0𝑦 + 0𝑧 = 2 0=2

A última equação é 0=2 que é uma proposição falsa e, portanto, o sistema é impossível.

_______________________________________________________________________

Se quiserem podem visualizar o vídeo:

https://www.youtube.com/watch?v=1pYSxyz7n9U

_______________________________________________________________________

Exercício 7: Resolva pelo Método de Eliminação de Gauss os sistemas de equações lineares


apresentados nos EXEMPLOS 20, 21 e 22.

3.3. Discussão de sistemas de equações lineares


Discutir um sistema de equações lineares consiste em analisá-lo de forma a determinar
os valores do(s) parâmetro(s) das equações que fazem com que o sistema possa
ser Possível Determinado, Possível Indeterminado e Impossível.

A discussão de um sistema de equações lineares só tem significado quando no sistema,


para além das incógnitas, existe um ou mais ditos parâmetros que serão considerados
como coeficientes das incógnitas do sistema.

Vamos então discutir o sistema de equações lineares do próximo exemplo:

EXEMPLO 27

Consideremos o seguinte sistema

−𝑥 + 𝑦 + 𝑘𝑧 = 1
{ 2𝑥 + 𝑘𝑦 − 2𝑘𝑧 = 𝑘 , 𝑘 ∈ ℝ.
−𝑘𝑥 + 𝑘𝑦 + 𝑧 = −1 + 2𝑘

Reparemos que neste sistema com 3 equações e 3 incógnitas, figura ainda um


parâmetro que é aqui designado por 𝑘 e é sobre este parâmetro que vamos investigar
para que valores dele vamos poder ter (ou não) um sistema possível determinado,
possível indeterminado e sistema impossível. Então vamos começar por considerar a
matriz ampliada deste sistema considerando o parâmetro 𝑘 como coeficiente de
incógnitas do sistema e, portanto, este parâmetro 𝑘 fará parte de entradas da matriz
ampliada do sistema.

Temos então que

−1 1 𝑘 | 1
[𝐴|𝐵] = [ 2 𝑘 −2𝑘| 𝑘 ]
−𝑘 𝑘 1 |−1 + 2𝑘

é a matriz ampliada deste sistema.

Vamos então condensar esta matriz:

−1 1 𝑘 | 1 → −1 1 𝑘| 1
[2 𝑘 −2𝑘 | 𝑘 ] 𝐿 → 𝐿 + 2𝐿 [ 0 𝑘+2 |
0 𝑘+2 ]
2 2 1
−𝑘 𝑘 1 |−1 + 2𝑘 −𝑘 𝑘 1|−1 + 2𝑘
→ −1 1 𝑘 | 1
𝐿3 → 𝐿3 − 𝑘𝐿1 [ 0 𝑘 + 2 0 | 𝑘+2 ]
0 0 1 − 𝑘 2 |−1 + 𝑘

Observando a última forma desta matriz, temos que o valor da entrada 22 da linha 2 vai
depender do valor a atribuir ao parâmetro 𝑘. Tal entrada pode ser nula, mas também
pode ser não-nula. Então perante esta dualidade, vamos ter de considerar dois casos, a
saber:

Caso 1: 𝑘 + 2 = 0 ⇔ 𝑘 = −2

Neste caso a matriz ampliada do sistema passa a ser a seguinte:

−1 1 −2| 1
[𝐴|𝐵] = [ 0 0 0|0]
0 0 −3|−3

Vamos agora efetuar a condensação desta matriz:

−1 1 −2| 1 → −1 1 −2| 1
[𝐴|𝐵] = [ 0 0 0 0 ] 𝐿 ⟷ 𝐿 [ 0 0 −3|−3]
|
2 3
0 0 −3|−3 0 0 0|0

Então observamos que car(𝐴|𝐵)=car(𝐴)=2.

Como car(𝐴|𝐵)=car(𝐴), então o sistema é possível mas as características não coincidem


com o número de incógnitas deste sistema. Trata-se, portanto, de um sistema possível
indeterminado.

Caso 2: 𝑘 + 2 ≠ 0 ⇔ 𝑘 ≠ −2

Voltemos a observar a matriz

−1 1 𝑘 | 1
[ 0 𝑘+2 0 | 𝑘+2 ]
0 0 1 − 𝑘 2 |−1 + 𝑘

Observando a linha 3 da matriz, temos que a entrada 33 depende dos valores a atribuir
ao parâmetro 𝑘. Novamente vamos considerar dentro deste caso, dois subcasos, a
saber:

Caso 2.1: 1 − 𝑘 2 = 0 ⇔ 𝑘 = 1 ∨ 𝑘 = −1

⚫ Se 𝑘 = 1, então substituindo este valor na última matriz obtemos


−1 1 1|1
[ 0 3 0|3]
0 0 0|0

Então observamos que car(𝐴|𝐵)=car(𝐴)=2. Como car(𝐴|𝐵)=car(𝐴), então o sistema é


possível mas mais uma vez as características não coincidem com o número de incógnitas
deste sistema. Logo, trata-se de um sistema possível indeterminado tal como
aconteceu anteriormente.

⚫ Se 𝑘 = −1, então substituindo este valor na última matriz obtemos

−1 1 −1| 1
[0 1 0|1]
0 0 0 |−2

Então observamos que car(𝐴|𝐵)= 3 e car(𝐴)=2. Como car(𝐴|𝐵) ≠car(𝐴), então o sistema
é impossível.

Caso 2.2: 1 − 𝑘 2 ≠ 0 ⇔ 𝑘 ≠ 1 ∧ 𝑘 ≠ −1

Voltemos a observar a matriz

−1 1 𝑘 | 1
[ 0 𝑘+2 0 | 𝑘+2 ]
0 0 1 − 𝑘 2 |−1 + 𝑘

Reparemos que neste caso, 𝑘 + 2 ≠ 0 e 1 − 𝑘 2 ≠ 0, logo car(A)=car(A|B)=3. Como


car(A)=car(A|B), então o sistema é possível e além disso como as características
coincidem com o número de incógnitas deste sistema, então trata-se de um sistema
possível determinado.

_______________________________________________________________________

Se quiserem podem visualizar o vídeo:

https://www.youtube.com/watch?v=s958ELGm2ps

_______________________________________________________________________

Sugestão de trabalho: Podem resolver os exercícios 1) (página 15) utilizando na


resolução destes sistemas o Método de Eliminação de Gauss, 49, 50, 51, 52, 53, 54
(página 25), 55, 56 (página 26), 64, 65 (página 27), 66, 67 (página 28), 68, 69, 71 (página
29) e 74 (página 30) da Sebenta para consolidação deste conteúdo programático.

_____________________________________________________________________________

3.4. Determinação da inversa de uma matriz usando o Método de Eliminação de


Gauss-Jordan
O Método de Eliminação de Gauss-Jordan fornece um critério de invertibilidade e um
algoritmo para o cálculo da matriz inversa de uma dada matriz invertível.

De uma forma mais simples, este algoritmo consiste em formar uma matriz constituída
por duas matrizes, designadamente, [𝐴 | 𝐼𝑛 ], sendo 𝐴 uma matriz quadrada dada e para
a qual pretendemos saber se tem (ou não) inversa e, em caso afirmativo, calcular a sua
matriz inversa 𝐴−1 . O algoritmo terminará quando, ao efetuarmos operações
elementares necessárias, conseguirmos chegar a uma matriz do tipo [𝐼𝑛 |𝐴−1 ]. Assim, a
matriz que encontrarmos do lado direito será a matriz inversa da matriz 𝐴 inicial que
pretendíamos encontrar. Assim, à esquerda colocamos as entradas da matriz quadrada
𝐴 e à direita as entradas da matriz identidade da mesma ordem da matriz 𝐴. Estas
entradas serão separadas por um traço vertical.

EXEMPLO 28

Ver exemplo seguinte, para o qual se pretende calcular a inversa da matriz


1 2 2
𝐴 = [1 −1 0], caso a matriz seja uma matriz invertível. Então como a matriz 𝐴 é de
2 −2 4
ordem 3 × 3, vamos formar uma matriz constituída à esquerda pelas entradas da matriz
𝐴 e à direita pela matriz Identidade 𝐼3 de ordem 3 × 3 igual à ordem da matriz 𝐴. Temos
então de iniciar o algoritmo considerando a matriz

1 2 2|1 0 0
[𝐴 | 𝐼3 ] = [1 −1 0|0 1 0].
2 −2 4|0 0 1

A seguir devemos colocar a matriz que está do lado esquerdo na forma em escada de
linhas só usando operações elementares com linhas e nunca operações com colunas.
Notem que agora as linhas são as entradas das duas matrizes que estão na mesma linha.
Vamos então continuar com o nosso exemplo de cima. Temos, então:
1 2 2|1 0 0 → 1 2 2| 1 0 0
[𝐴 | 𝐼3 ] = [1 |
−1 0 0 1 0] 𝐿 → 𝐿 − 2𝐿 [1 −1 0| 0 1 0]
3 3 1
2 −2 4|0 0 1 0 −6 0|−2 0 1

→ 1 2 2|1 0 0 → 1 2 2|1 0 0
𝐿2 → 𝐿2 − 𝐿1 [0 −3 −2|−1 1 0] 𝐿3 → 𝐿3 − 2𝐿2 [0 −3 −2|−1 1 0].
0 −6 0 |−2 0 1 0 0 4 | 0 −2 1

Reparem que aqui chegados, a matriz do lado esquerdo já se encontra na forma em


escada de linhas, com três pivots que são 1, −3 e 4. Como a matriz inicial 𝐴 é 3 × 3 e
temos três pivots, então significa que a 𝑐𝑎𝑟(𝐴) = 3 que, porque coincide com a sua
ordem, leva-nos a concluir que a nossa matriz 𝐴 inicial é uma matriz invertível e,
portanto, temos a partir daqui a garantia de que existe a inversa de 𝐴. Caso acontecesse
𝑐𝑎𝑟(𝐴) ser menor do que 3, então a matriz 𝐴 não seria invertível e, nessa altura,
terminaria aqui o Método de eliminação de Gauss-Jordan, pois não existia a matriz 𝐴−1 .
Mas, como não é o caso do nosso exemplo, vamos prosseguir, agora tentando colocar
zeros na última coluna da matriz do lado esquerdo (com exceção da entrada 4) usando
sempre a última linha da matriz. Assim, obtemos:

1 2 2|1 0 0 → 1 2 2| 1 0 0
[0 −3 −2|−1 1 0] 𝐿 → 2𝐿 + 𝐿 [0 −6 0|−2 0 1]
2 2 3
0 0 4 | 0 −2 1 0 0 4| 0 −2 1

→ 2 4 0| 2 2 −1
[ |
𝐿1 → 2𝐿1 − 𝐿3 0 −6 0 −2 0 1 ].
0 0 4| 0 −2 1

Como podem então reparar acabamos de colocar zeros na última coluna da matriz do
lado esquerdo (com exceção da entrada 4) usando sempre a última linha da matriz,
como pretendíamos. O passo seguinte deste algoritmo consiste em colocar zero agora
na segunda coluna da matriz da esquerda (com exceção da entrada −6) usando sempre
a segunda linha da matriz. Então, retomando mais uma vez o nosso exemplo, temos:

2 4 0| 2 2 −1 → 12 0 0| 4 12 −2
[0 −6 0|−2 0 1 ] 𝐿 → 6𝐿 + 4𝐿 [ 0 −6 0|−2 0 1 ],
1 1 2
0 0 4| 0 −2 1 0 0 4| 0 −2 1

concluindo assim esta nova etapa. Finalmente, o nosso objetivo é colocar a matriz 𝐼3 do
lado esquerdo e, para isso, falta apenas passar as entradas 12, −6 e 4 da matriz à
esquerda para 1, 1 e 1, respetivamente. Então no nosso caso, temos:
12 0 0| 4 12 −2 → 1 0 0|4/12 12/12 −2/12
[0 |
−6 0 −2 0 1 ] 𝐿 → 1/12𝐿 [0 −6 0| −2 0 1 ]
1 1
0 0 4| 0 −2 1 0 0 4| 0 −2 1

→ 1 0 0|1/3 1 −1/6 → 1 0 0|1/3 1 −1/6


𝐿2 → −1/6𝐿2 [0 1 0|2/6 0 −1/6] 𝐿 → 1/4𝐿 [0 1 0|1/3 0 −1/6]
3 3
0 0 4| 0 −2 1 0 0 1| 0 −2/4 1/4
1 0 0|1/3 1 −1/6
= [0 1 0|1/3 0 −1/6] = [𝐼3 |𝐴−1 ]
0 0 1| 0 −1/2 1/4

Então terminamos com a apresentação da matriz inversa de 𝐴 que, neste caso, é dada
por:

1/3 1 −1/6
𝐴−1 = [1/3 0 −1/6].
0 −1/2 1/4

Para se verificar que esta é realmente a matriz inversa de 𝐴, basta efetuar-se o produto
entre as matrizes 𝐴 e 𝐴−1 e verificar que o resultado é a matriz identidade 𝐼3 , ou seja,
𝐴𝐴−1 = 𝐴−1 𝐴 = 𝐼3 . Façam estes produtos matriciais e podem acreditar que em ambos
os casos o resultado é sempre o pretendido.

Assim e generalizando, temos:

Seja 𝐴 uma matriz quadrada. Se, no Método de eliminação de Gauss-Jordan com


possíveis reordenações de linhas, se poder obter na diagonal principal todos os pivots
diferentes de zero, então a matriz 𝐴 é invertível. Então uma matriz invertível pode ser
transformada, pelo Método de eliminação de Gauss com reordenação de linhas se
necessário, numa matriz triangular superior cujos elementos na diagonal principal são
os pivots. O Método de eliminação de Gauss pode ser continuado a partir deste ponto,
de forma a obter-se uma matriz diagonal cujos elementos na diagonal principal são os
pivots. Subtrai-se a cada linha múltiplos de linhas mais baixas de forma a anular todos
os elementos fora da diagonal, primeiro na última coluna para a primeira num processo
análogo ao da primeira fase de eliminação. Finalmente multiplica-se cada linha pelo
inverso do pivô de modo a obter a matriz identidade. Este passo e o anterior podem
eventualmente ser efetuados por ordem inversa. Ao método de eliminação completa,
tal como descrito, chama-se Método de eliminação de Gauss-Jordan.
Em resumo, dada uma matriz invertível 𝐴 de ordem 𝑛, o Método de eliminação de
Gauss-Jordan permite transformar a matriz ampliada [𝐴|𝐼𝑛 ] na matriz [𝐼𝑛 |𝐵], onde 𝐵 é
a matriz inversa de 𝐴, isto é, 𝐵 = 𝐴−1 .

4. Capítulo - Determinantes

4.1. Determinante de uma matriz (quadrada) e alguns dos métodos para o seu
cálculo
Dada uma qualquer matriz 𝐴 quadrada é possível calcular o seu determinante,
denotado por 𝒅𝒆𝒕(𝑨) ou |𝑨|.

De um modo simples (e porque não temos aqui a pretensão de entrar em pormenores


mais complexos), podemos afirmar que o determinante de uma matriz 𝐴 (quadrada)
corresponde a um escalar (número real ou número complexo) ou a uma expressão
matemática. Será um escalar caso as entradas da matriz sejam escalares e será uma
expressão matemática caso haja entradas que são variáveis, ou expressões
matemáticas, entre outras situações.

O determinante de uma qualquer matriz quadrada é único, o que significa que, qualquer
que seja o método utilizado para o calcular, o resultado é sempre o mesmo.

De seguida, vamos apresentar alguns métodos que nos permitem calcular o


determinante de matrizes quadradas, por agora relativamente aos casos 1x1, 2x2 e 3x3.
Assim, temos:

Matrizes Quadradas 1x1: Se 𝐴 = (𝑎11 ), então

|𝐴| = |𝑎11 | = 𝑎11 .

EXEMPLO 29

Se 𝐴 = (3), então |𝐴| = 3;

Se 𝐵 = (−2), então |𝐵| = −2;

2 2
Se 𝐶 = (3), então |𝐶| = 3; se 𝐷 = (𝑎 + 𝑏), então |𝐷| = 𝑎 + 𝑏.

𝑎11 𝑎12
Matrizes Quadradas 2x2: Se 𝐴 = (𝑎 𝑎22 ), então
21
𝑎11 𝑎12
|𝐴| = |𝑎 𝑎22 | = 𝑎11 𝑎22 − 𝑎21 𝑎12,
21

ou seja, multiplicando-se as entradas da diagonal principal e subtrai-se o resultado da


multiplicação das entradas da diagonal secundária.

EXEMPLO 30

2 5
Se 𝐴 = ( ), então |𝐴| = (2 × 8) − ((−1) × 5) = 16 − (−5) = 16 + 5 = 21;
−1 8

1 −5
Se 𝐵 = ( ), então |𝐵| = (1 × 6) − ((−4) × (−5)) = 6 − 20 = −14;
−4 6

1 5
Se 𝐶 = ( ), então |𝐶| = (1 × 6) − (𝑎 × 5) = 6 − 5𝑎.
𝑎 6

Matrizes Quadradas 3x3 (Regra de Sarrus ou Regra da triangulação): Se 𝐴=


𝑎11 𝑎12 𝑎13
( 21 𝑎22 𝑎23 ), então
𝑎
𝑎31 𝑎32 𝑎33

𝑎11 𝑎12 𝑎13


|𝐴| = |𝑎21 𝑎22 𝑎23 | = 𝑎11 𝑎22 𝑎33 + 𝑎12 𝑎23 𝑎31 + 𝑎21 𝑎32 𝑎13 − 𝑎31 𝑎22 𝑎13 −
𝑎31 𝑎32 𝑎33
𝑎32 𝑎23 𝑎11 − 𝑎21 𝑎12 𝑎33 . (*)

Na prática obtém-se facilmente este desenvolvimento pela Regra de Sarrus: o


determinante de uma matriz 3 × 3 consiste, primeiramente, em adicionar ao produto
dos elementos da diagonal principal, o produto dos vértices de todos os triângulos com
base paralela a esta diagonal e, em seguida, subtrair a este resultado o produto dos
elementos da diagonal secundária e o produto dos vértices de triângulos com base
paralela a esta diagonal.

Figura 1: Visualização dos triângulos e vértices: à esquerda está relacionado com a


diagonal principal e à direita com a diagonal secundária.
Pelo facto de serem utilizados triângulos, por vezes esta regra é também conhecida por
Regra da triangulação como já tínhamos referido anteriormente. Na literatura muitas
vezes é referida uma “técnica” que ajuda no uso desta regra. Trata-se de acrescentar as
duas primeiras linhas à matriz original e proceder como a figura seguinte indica

Figura 2: Acrescento “abaixo” da matriz as suas duas primeiras linhas4

estando indicado a vermelho as três primeiras parcelas e a azul as três últimas parcelas
da fórmula (*). Os produtos indicados a vermelho é para serem somados e de seguida
devemos subtrair a este resultado, os produtos indicados a azul. Também se pode optar
pela “técnica” de acrescentar à direita da matriz as suas duas primeiras colunas como se
indica na figura seguinte

Figura 3: Acrescento “à direita” das duas primeiras colunas5

estando, mais uma vez, indicado a vermelho as três primeiras parcelas e a azul as três
últimas parcelas da fórmula (*). Os produtos indicados a vermelho é para serem
somados e de seguida devemos subtrair a este resultado, os produtos indicados a azul.

EXEMPLO 31

4
Imagem retirada de https://www.gratispng.com/png-mc6t4d/ no dia 28 de março de 2020.
5
Imagem retirada de https://brasilescola.uol.com.br/matematica/regra-sarrus.htm no dia 28 de março
de 2020.
1 5 2
Se 𝐴 = [1 −1 0], então |𝐴| = (1 × (−1) × 4 ) + (5 × 0 × 0) + (1 × (−2) × 2) −
0 −2 4
(0 × (−1) × 2) − ((−2) × 0 × 1) − (1 × 5 × 4) = (−4) + (0) + (−4) − (0) −
(0) − (20) = −28.

Também podemos calcular o determinante desta matriz usando uma das “técnicas”
apresentadas na Figura 2 ou a da Figura 3 e chegaremos, naturalmente, ao mesmo
resultado. Assim temos, usando a da Figura 2, temos

1 5 2
1 −1 0
0 −2 4
1 5 2
1 −1 0
|𝐴| = (1 × (−1) × 4 ) + (1 × (−2) × 2) + (0 × 5 × 0) − (0 × (−1) × 2) −
((−2) × 0 × 1) − (1 × 5 × 4)

ou ainda, se optarmos pela da Figura 3, obtemos

1 5 2. 1 5
1 −1 0 . 1 −1 |𝐴| = (1 × (−1) × 4 ) + (5 × 0 × 0) + (2 × 1 × (−2)) −
0 −2 4 . 0 −2
(2 × (−1) × 0) − (1 × 0 × (−2)) − (5 × 1 × 4)

Em todos os casos |𝐴| = −28.

Nunca é demais referir que este método (Regra de Sarrus ou Regra da triangulação) só
se aplica ao cálculo do determinante de matrizes 3 × 3.

Para a próxima semana, aprenderemos um outro método (Regra de Laplace) para o


cálculo do determinante de qualquer matriz quadrada.

4.2. Propriedades do Determinante de matrizes quadradas

De seguida vamos apresentar algumas propriedades do determinante de matrizes


quadradas que, em alguns casos, ajudarão nesse cálculo. Assim, temos:

Propriedade 19: Se uma matriz quadrada 𝐴 tiver pelo menos uma linha (ou uma coluna)
com entradas todas iguais a zero, então |𝐴| = 0;
Propriedade 20: Se uma matriz quadrada 𝐴 tiver pelo menos duas linhas (ou duas
colunas) iguais, então |𝐴| = 0;

Propriedade 21: |𝐴| = |𝐴𝑇 |, para qualquer matriz quadrada 𝐴;

Propriedade 22: |𝐴𝐵| = |𝐴||𝐵|, para quaisquer matrizes quadradas da mesma ordem;

Propriedade 23: |𝛼𝐴| = 𝛼 𝑛 |𝐴|, sendo 𝛼 um qualquer escalar (número real ou número
complexo) e 𝐴 uma matriz quadrada de ordem 𝑛 × 𝑛;

1
Propriedade 24: |𝐴−1 | = |𝐴|, sendo 𝐴 uma matriz quadrada invertível;

Propriedade 25: Em geral |𝐴 + 𝐵| ≠ |𝐴| + |𝐵|, para matrizes quadradas 𝐴 e 𝐵 da


mesma ordem;

Propriedade 26: |𝐼𝑛 | = 1, sendo 𝐼𝑛 a matriz identidade de ordem 𝑛 × 𝑛;

Propriedade 27: O determinante de uma matriz triangular superior (ou inferior) é igual
ao produto dos elementos da sua diagonal principal;

Propriedade 28: Sempre que se efetua uma troca de linhas (ou de colunas) numa matriz
quadrada 𝐴, o determinante da matriz resultante 𝐵 desta operação elementar muda de
sinal, ou seja, |𝐵| = −|𝐴|;

Propriedade 29: Sempre que se multiplicam as entradas de uma linha (ou de uma
coluna) de uma matriz quadrada 𝐴 por um escalar 𝛼 ≠ 0, então o determinante da
matriz resultante 𝐵 desta operação elementar é dado por |𝐵| = 𝛼|𝐴|,
1
equivalentemente, |𝐴| = 𝛼 |𝐵|;

Propriedade 30: Sempre que se substituem as entradas de uma linha (ou de uma coluna)
de uma matriz quadrada 𝐴 pela soma delas com as entradas de uma outra linha (ou
coluna) multiplicadas por um escalar 𝛼 ≠ 0, então o determinante da matriz resultante
𝐵 desta operação elementar é dado por |𝐵| = |𝐴|.

Reparem que com as operações elementares que se podem fazer com as linhas e/ou as
colunas de uma matriz quadrada 𝐴 é possível colocar a matriz na forma em escada de
linhas (ou de colunas); ao processo que leva uma dada matriz 𝐴 à sua forma em escada
de linhas (ou de colunas) dá-se o nome de condensação da matriz 𝐴.
Então um outro método que permite o cálculo do determinante de uma matriz
quadrada 𝐴 qualquer é efetuar a sua condensação e aplicar as propriedades dos
determinantes mais adequadas. Vejamos o mesmo exemplo dado no caso da matriz 𝐴
de ordem 3 × 3 mencionada anteriormente. Vamos desta vez calcular o seu
determinante colocando a matriz em escada só usando operações com linhas e tendo
em atenção algumas das propriedades dos determinantes que referiremos
adequadamente. Temos então:

1 5 2 = 1 5 2 =
𝟏 1 5 2
|𝐴| = |1 −1 0| 𝐿2 → 𝐿2 − 𝐿1 |0 −6 −2| 𝐿3 → 𝟔𝐿3 − 2𝐿2 |0 −6 −2|
0 −2 4 𝑃𝑟𝑜𝑝. 12 0 −2 4 𝑃𝑟𝑜𝑝. 12 𝑒 11 𝟔 0 0 28

= 𝟏
𝑃𝑟𝑜𝑝. 9 (1 × (−6) × 28),
𝟔

o que permite concluir, mais uma vez que |𝐴| = −28, como aliás já tínhamos visto
antes. Na primeira operação elementar que se efetuou utilizou-se a Propriedade 30 pois
substituímos as entradas da linha 2 pela soma das suas entradas com as entradas da
linha 1 multiplicada por -1; no segundo passo, substituímos as entradas da linha 3 pela
multiplicação delas por 6 (Propriedade 29) e de seguida somamos as entradas da linha
2 multiplicadas por 2 (Propriedade 30); finalmente usamos a Propriedade 27 pois a
matriz está na forma triangular superior e assim o determinante é igual ao produto dos
1
elementos da sua diagonal principal, não esquecendo o fator 6 nesse produto.

EXEMPLO 32

0 5 −2
Vamos calcular o determinante da matriz 𝐴 = [−5 0 1 ] por dois métodos:
2 −1 0

1. Regra de Sarrus

|𝐴| = (0 × 0 × 0) + (5 × 1 × 2) + ((−5) × (−1) × (−2)) − (2 × 0 × (−2))


− (5 × (−5) × 0) − ((−1) × 1 × 0) = 0

2. Condensação da matriz
|𝐴| =
0 5 −2 = 2 −1 0 = 2 −1 0
𝟏
|−5 0 1 | 𝐿3 ⟷ 𝐿1 (−1) |−5 0 1 | 𝐿2 → 𝟐𝐿 2 + 5𝐿1 (−1) |0 −5 2 | =
𝟐
2 −1 0 𝑃𝑟𝑜𝑝. 28 0 5 −2 𝑃𝑟𝑜𝑝. 30 𝑒 29 0 5 −2
= 2 −1 0 =
𝐿3 → 𝐿3 + 𝐿2 (−1) 𝟏 |0 −5 𝟏
2| 𝑃𝑟𝑜𝑝. 27 𝑜𝑢 19 (−1) 𝟐 × 0,
𝟐
𝑃𝑟𝑜𝑝. 30 0 0 0

permitindo, também, concluir que |𝐴| = 0.

Repara que com o processo de condensação de uma matriz quadrada, já estamos


habilitados a calcular o determinante de qualquer matriz quadrada seja de que ordem
for.

EXEMPLO 33

Vamos ver um exemplo do cálculo do determinante de uma matriz quadrada 𝐴 de


2 −1 0 0
ordem 4 × 4. Temos, então para 𝐴 = (0 2 1 1) que:
1 3 1 5
3 1 −2 2

2 −1 0 0 = 2 −1 0 0 =
|𝐴| = |0 2 1 1| 𝐿3 → 𝟐𝐿3 − 𝐿 |0 2 1 1 | 𝐿4 → 𝟐𝐿4 − 3𝐿1
𝟏 𝟏
×
1 3 1 5 𝑃𝑟𝑜𝑝. 29 𝑒 30 1 𝟐 0 7 2 10 𝑃𝑟𝑜𝑝. 29 𝑒 30 𝟐
3 1 −2 2 3 1 −2 2
2 −1 0 0 =
𝟏 0 2 1 1 | = 𝐿3 → 𝟐𝐿3 − 7𝐿2 𝟏 × 𝟏 ×
|
𝟐 0 7 2 10 𝟐 𝟐
𝑃𝑟𝑜𝑝. 29 𝑒 30
0 5 −4 4
2 −1 0 0 =
𝟏 0 2 1 1 | 𝐿4 → 𝟐𝐿3 − 5𝐿2 𝟏 × 𝟏 × 𝟏 ×
|
𝟐 0 0 −3 13 𝑃𝑟𝑜𝑝. 29 𝑒 30 𝟐 𝟐 𝟐
0 5 −4 4
2 −1 0 0 =
𝟏 0 2 1 1 | 𝐿4 → 𝟑𝐿4 − 13𝐿3 𝟏 × 𝟏 × 𝟏 × 𝟏 ×
|
𝟐 0 0 −3 13 𝑃𝑟𝑜𝑝. 29 𝑒 30 𝟐 𝟐 𝟐 𝟐
0 0 −13 3
2 −1 0 0
𝟏 0 2 1 1| = 𝟏 𝟏 𝟏 𝟏 𝟏
| 𝑃𝑟𝑜𝑝. 27 × 𝟐 × 𝟐 × 𝟐 × 𝟑 × (2 × 2 × (−3) × (−160)),
𝟑 0 0 −3 13 𝟐
0 0 0 − 160
160 80
o que permite concluir que |𝐴| = = = 40.
4 2
Finalmente, o determinante de uma matriz quadrada tem uma aplicação interessante:
permite verificar se a matriz é ou não uma matriz invertível. Assim, temos também que:

Propriedade 31: (importante): Uma matriz quadrada A de ordem 𝑛 é uma matriz


invertível se e só se |𝐴| ≠ 0.

Então para o penúltimo exemplo aqui referido, podemos concluir que a matriz 𝐴 não é
invertível, porque o seu determinante é igual a zero, enquanto no último exemplo, a
matriz 𝐴 já é uma matriz invertível.

_______________________________________________________________________

Sugestão de trabalho: Podem resolver os exercícios 57, 58 (página 26), 59, 60, 61, 62, 63
(página 27), 70 (página 29), 73 c) (página 30), 91 (página 34), 114 b) i) (página 39) da
Sebenta para consolidação deste conteúdo programático.

Podem aceder ao Youtube para visualizar vídeos relacionados com os temas já lecionados,
como, por exemplo:

https://www.youtube.com/watch?v=XaZZNxj26qU

https://www.youtube.com/watch?v=7aPCUiodIws

https://www.youtube.com/watch?v=C5ixUlaERPs

https://www.youtube.com/watch?v=qCYvugOqQAo

https://www.youtube.com/watch?v=yNnSA9jQfUI

https://www.youtube.com/watch?v=2qvfS9jZtfE

https://academiaaberta.pt/mod/book/view.php?id=4654

_____________________________________________________________________________

Seguidamente, começamos por introduzir um novo método (Regra de Laplace) que tem
por objetivo permitir o cálculo do determinante de uma qualquer matriz quadrada e,
posteriormente, vamos introduzir um outro método que permite encontrar a matriz
inversa de uma matriz invertível, método que usa a matriz adjunta clássica da matriz
invertível considerada e respetivo determinante. Por fim, apresentaremos uma regra
(Regra de Cramer) que permite resolver um tipo de sistemas de equações lineares
usando determinantes.

4.3. Cálculo do determinante de uma matriz (quadrada) usando o Teorema de


Laplace (regra de Laplace)
Dada uma qualquer matriz A quadrada é possível calcular o seu determinante, denotado
por det(A) ou |A|. De um modo simples (e porque não temos aqui a pretensão de entrar
em pormenores mais complexos), podemos afirmar que o determinante de uma matriz
A (quadrada) corresponde a um escalar (número real ou número complexo) ou a uma
expressão matemática. Será um escalar caso as entradas da matriz sejam escalares e
será uma expressão matemática caso haja entradas que são variáveis, ou expressões
matemáticas, entre outras situações. O determinante de uma qualquer matriz quadrada
é único, o que significa que, qualquer que seja o método utilizado para o calcular, o
resultado é sempre o mesmo.

De seguida, vamos apresentar mais um método que nos permite calcular o


determinante de matrizes quadradas, de qualquer ordem. Mas antes precisamos de
perceber o conceito de cofator de qualquer entrada da matriz. Assim temos:

1. Cofator de uma entrada de uma matriz quadrada

Dada uma matriz quadrada 𝐴 = (𝑎𝑖𝑗 )𝑖,𝑗=1,2,…,𝑛 de ordem 𝑛, chama-se cofator da entrada

𝑎𝑖𝑗 ao resultado da seguinte expressão e que será denotado por 𝑐𝑖𝑗 :

𝑐𝑖𝑗 = (−1)𝑖+𝑗 |𝐴𝑖𝑗 |,

onde 𝐴𝑖𝑗 é o menor complementar da entrada 𝑎𝑖𝑗 que não é mais do que a matriz que
resulta da matriz 𝐴 retirando-lhe a linha 𝑖 e a coluna 𝑗.

Vamos então apresentar dois exemplos para que possam perceber melhor o que foi
mencionado antes.

EXEMPLO 34

2 5
Se 𝐴 = ( ), então vamos calcular o cofator 𝑐12, ou seja, 𝑐12 = (−1)1+2 |𝐴12 | =
−1 8
(−1)|−1| = 1. Se pretendêssemos calcular o cofator 𝑐22 procederíamos do mesmo
modo, isto é, 𝑐22 = (−1)2+2 |𝐴22 | = (+1)|2| = 2.

EXEMPLO 35
1 5 2
Se 𝐴 = [1 −1 0], então vamos calcular o cofator 𝑐13, ou seja, 𝑐13 =
0 −2 4
(−1)1+3 |𝐴13 | = (+1) |1 −1|. Calculando, obtemos, neste caso, 𝑐13 = (+1) × (1 ×
0 −2
(−2) − 0 × (−1)) = (+1) × (−2) = −2.

Se pretendêssemos calcular o cofator 𝑐22 procederíamos do mesmo modo, isto é,

1 2
𝑐22 = (−1)2+2 |𝐴22 | = (+1) | | = 4.
0 4

2. Regra de Laplace

Esta regra (método) tem como objetivo calcular o determinante de uma qualquer matriz
quadrada. Então para se usar a regra de Laplace (ou também muitas vezes chamada de
Teorema de Laplace) quando se pretender calcular o determinante de uma matriz 𝐴
quadrada de ordem 𝑛 devemos proceder do seguinte modo:

1) Escolher uma linha (ou uma coluna) da matriz 𝐴 considerada;

2) Suponhamos que foi escolhida a linha 𝑖. Então usando a regra de Laplace,


neste caso, obtemos:

|𝐴| = (𝑎𝑖1 × 𝑐𝑖1 ) + (𝑎𝑖2 × 𝑐𝑖2 ) + ⋯ + (𝑎𝑖𝑛 × 𝑐𝑖𝑛 ),

ou seja, temos de multiplicar as entradas (elementos) da matriz A da linha i


escolhida pelos respetivos cofatores e somar esses produtos.

2’) Suponhamos que foi escolhida a coluna 𝑗. Então usando a regra de Laplace,
neste caso, obtemos:

|𝐴| = (𝑎1𝑗 × 𝑐1𝑗 ) + (𝑎2𝑗 × 𝑐2𝑗 ) + ⋯ + (𝑎𝑛𝑗 × 𝑐𝑛𝑗 ),

ou seja, temos de multiplicar as entradas (elementos) da matriz A da coluna j


escolhida pelos respetivos cofatores e somar esses produtos.

Vamos então apresentar mais dois exemplos para que possam perceber melhor como
calcular o determinante de uma matriz quadrada qualquer usando a regra de Laplace.

EXEMPLO 36
1 5 2
Se 𝐴 = [1 −1 0], então vamos calcular o determinante desta matriz usando a regra
0 −2 4
de Laplace. Então de acordo com o que foi mencionado anteriormente terei de escolher
uma linha ou uma coluna. Suponhamos que escolho por exemplo a linha 3. Então feita
esta escolha, temos que primeiro calcular todos os cofatores de todas as entradas da
linha 3, ou seja, temos de calcular os cofatores 𝑐31 , 𝑐32 e 𝑐33 . Então usando a definição
de cofator de uma entrada dada no ponto 1. Obtemos:

5 2
𝑐31 = (−1)3+1 |𝐴31 | = (+1) | |=2
−1 0

1 2
𝑐32 = (−1)3+2 |𝐴32 | = (−1) | |=2
1 0

1 5
𝑐33 = (−1)3+3 |𝐴33 | = (+1) | | = −6
1 −1

Então usando a regra de Laplace, caso 2) com 𝑖 = 3, vem

|𝐴| = (𝑎31 × 𝑐31 ) + (𝑎32 × 𝑐32 ) + (𝑎33 × 𝑐33 ) = (0 × 2) + ((−2) × 2) + (4 × (−6))


= 0 + (−4) + (−24)

e, portanto, |𝐴| = −28. Repara que uma das entradas da linha 3 da matriz (linha que foi
a escolhida) é nula, o que significa que não era preciso estar a calcular o cofator
correspondente a essa entrada que é a entrada 𝑎31 e o cofator 𝑐31 . Então o ideal, nesta
regra, é escolher a linha ou a coluna que tenha maior número de entradas nulas para
pouparmos tempo e cálculo, pois só precisamos de calcular os cofatores
correspondentes às entradas não nulas da linha ou da coluna escolhida. Se nenhuma
linha ou coluna tiver entradas nulas, nós podemos colocar zeros em determinadas
entradas por meio das operações elementares com linhas e colunas de que já tratamos
aquando da forma em escada de uma matriz. Vou exemplificar o que acabei de dizer
com a mesma matriz 𝐴. Reparem vou colocar zeros na primeira coluna de 𝐴 deixando
apenas uma entrada não nula nessa coluna:

1 5 2 → 1 5 2
𝐴 = [1 −1 0] 𝐿 → 𝐿 − 𝐿 [0 −6 −2]
2 2 1
0 −2 4 0 −2 4
A partir daqui, vou então escolher a coluna 1, pois é a que tem maior número de
entradas nulas e vou aplicar a regra de Laplace para o cálculo do determinante da matriz
𝐴 escolhendo então a coluna 1. Ora bem, como só a entrada 𝑎11 = 1 é diferente de zero
nesta coluna, só preciso de calcular o cofator que lhe corresponde, ou seja, o cofator
𝑐11.

−6 −2
Assim, obtemos 𝑐11 = (−1)1+1 | |=(+1) × (((−6) × 4) − ((−2) × (−2))) =
−2 4
(−24) − 4 = −28. Então pela regra de Laplace, escolhendo a coluna 1, vem:

|𝐴| = 𝑎11 × 𝑐11 = 1 × (−28) = −28

valor que já tínhamos calculado quando foi escolhida a linha 3.

Vamos agora considerar a linha 2. Como nesta linha já existe uma entrada nula, vamos
tentar colocar mais uma entrada nula nessa linha para depois calcularmos o
determinante da matriz 𝐴 usando essa linha. Então temos:

1 5 2 → 1 6 2
𝐴 = [1 −1 0] 𝐶 → 𝐶 + 𝐶 [1 0 0]
2 2 1
0 −2 4 0 −2 4

A partir daqui, vou então escolher a linha 2, pois é a que tem maior número de entradas
nulas e vou aplicar a regra de Laplace para o cálculo do determinante da matriz 𝐴
escolhendo então a linha 2. Ora bem, como só a entrada 𝑎21 = 1 é diferente de zero
nesta linha, só preciso de calcular o cofator que lhe corresponde, ou seja, o cofator 𝑐21 .

6 2
Assim, obtemos 𝑐21 = (−1)2+1 | |=(−1) × ((6 × 4) − ((−2) × 2)) = (−1) ×
−2 4
(24 − (−4)) = −28. Então pela regra de Laplace, escolhendo a linha 2, vem:

|𝐴| = 𝑎21 × 𝑐21 = 1 × (−28) = −28

valor que já tínhamos calculado quando foi escolhida a linha 3 ou a coluna 1.

Conclusão importante: Escolhemos uma coluna ou uma linha (se possível a que tiver
maior número de zeros nas suas entradas) e calculamos o determinante da matriz pela
regra de Laplace de acordo com os cofatores das entradas da coluna ou da linha
escolhida. Caso queiramos colocar mais zeros ao longo de uma linha ou de uma coluna,
deveremos usar as operações elementares com linhas e/ou com colunas que já
conhecemos e colocamos os zeros nas entradas que quisermos. Depois resta escolher a
linha ou a coluna que tem maior número de zeros e usar a Regra de Laplace de acordo
com a linha ou coluna que foi escolhida.

Terminamos este conteúdo apresentando mais um exemplo com o cálculo do


determinante de uma matriz 4x4 recorrendo à regra de Laplace.

EXEMPLO 37

0 3 2 0
Se 𝐴 = [0 2 1 0], uma matriz 4x4, então vamos calcular o determinante desta
2 1 10 0
3 −1 15 5
matriz usando a regra de Laplace. Então de acordo com o que foi mencionado
anteriormente terei de escolher uma linha ou uma coluna. Observando as linhas e as
colunas da matriz reparamos que é melhor (para não ser preciso determinar mais
cofatores) escolher a linha 1 ou a 2 (tem duas entradas nulas), mas se observarmos as
colunas da matriz, será muito melhor escolher a coluna 4 que tem três entradas nulas e
assim precisamos de calcular apenas um cofator. Então escolhendo a coluna 4, teremos
de calcular o cofator 𝑐44 que corresponde à entrada 𝑎44 . Assim,

0 3 2
𝑐44 = (−1)4+4 |0 2 1 |
2 1 10

sendo agora necessário calcular o determinante da matriz 3x3 que aparece no cofator.
Para determinantes de matrizes 3x3 já conhecemos a regra de Sarrus (dada na última
aula) ou também se pode usar a regra de Laplace escolhendo uma linha ou uma coluna
dessa matriz 3x3. Como estamos a abordar a regra de Laplace vamos escolher nessa
matriz 3x3 a coluna 1 que tem duas entradas nulas:

0 3 2
4+4 3 2
𝑐44 = (−1) |0 2 1 | = (−1)8 × 2 × (−1)3+1 | |
2 1
2 1 10
= 1 × 2 × 1 × ((3 × 1) − (2 × 2)) = 2 × (−1) = −2

Retomando a nossa matriz 𝐴 inicial, e como já temos o valor do cofator 𝑐44 = −2 e


usando a coluna 4 que foi a que nós escolhemos, obtemos por meio da regra de Laplace
que
|𝐴| = 5 × 𝑐44 = 5 × (−2) = −10

4.4. Matriz adjunta de uma matriz (quadrada) e o seu uso na determinação da


inversa de uma matriz invertível

Dada uma qualquer matriz 𝐴 quadrada é possível calcular uma nova matriz que se
representa por 𝑎𝑑𝑗(𝐴) e que se chama matriz adjunta da matriz 𝐴.

De seguida, vamos apresentar como se pode determinar a matriz adjunta de qualquer


matriz quadrada. Esta nova matriz vai usar o conceito de cofator de que falamos no
ponto anterior. Assim temos:

1. Matriz adjunta de uma matriz quadrada

Dada uma matriz quadrada 𝐴 = (𝑎𝑖𝑗 )𝑖,𝑗=1,2,…,𝑛 de ordem 𝑛, chama-se matriz adjunta de

𝐴 à matriz denotada por 𝑎𝑑𝑗(𝐴) definida por:

𝑐11 𝑐21 ⋯ 𝑐𝑛1


𝑎𝑑𝑗(𝐴) = ( ⋮ ⋱ ⋮ ),
𝑐1𝑛 𝑐2𝑛 ⋯ 𝑐𝑛𝑛

onde 𝑐𝑖𝑗 = (−1)𝑖+𝑗 |𝐴𝑖𝑗 | é o cofator da entrada 𝑎𝑖𝑗 e 𝐴𝑖𝑗 é o menor complementar da
entrada 𝑎𝑖𝑗 que não é mais do que a matriz que resulta da matriz 𝐴 retirando-lhe a linha
𝑖 e a coluna 𝑗.

Nota importante: Reparem que a matriz 𝑎𝑑𝑗(𝐴) não é mais do que a transposta da
matriz de todos os cofatores das entradas da matriz 𝐴, ou seja,

𝑐11 𝑐21 ⋯ 𝑐𝑛1 𝑐11 𝑐12 ⋯ 𝑐1𝑛 𝑇


𝑎𝑑𝑗(𝐴) = ( ⋮ ⋱ ⋮ )=( ⋮ ⋱ ⋮ ) = (𝑐𝑜𝑓(𝐴))𝑇 .
𝑐1𝑛 𝑐2𝑛 ⋯ 𝑐𝑛𝑛 𝑐𝑛1 𝑐𝑛2 ⋯ 𝑐𝑛𝑛

Portanto os cofatores das entradas da linha 1 colocam-se na coluna 1 da matriz adjunta


de 𝐴, os cofatores das entradas da linha 2 colocam-se na coluna 2 da matriz adjunta de
𝐴, os cofatores das entradas da linha 3 de 𝐴 colocam-se na coluna 3 da matriz adjunta
de 𝐴 e assim sucessivamente.

Vamos então apresentar dois exemplos para que possam perceber melhor o que foi
mencionado antes.

EXEMPLO 38
2 5
Se 𝐴 = ( ), então vamos calcular a matriz 𝑎𝑑𝑗(𝐴). Para isso precisamos de
−1 8
calcular todos os cofatores de todas as entradas da matriz 𝐴. Então temos de calcular 4
cofatores e obtemos, neste caso, o seguinte:

⚫ COFATORES DAS ENTRADAS DA LINHA 1:

𝑐11 = (−1)1+1 |𝐴11 | = (+1)|8| = 8

𝑐12 = (−1)1+2 |𝐴12 | = (−1)|−1| = 1

⚫ COFATORES DAS ENTRADAS DA LINHA 2:

𝑐21 = (−1)2+1 |𝐴21 | = (−1)|5| = −5

𝑐22 = (−1)2+2 |𝐴22 | = (+1)|2| = 2.

Então já temos os 4 cofatores e, portanto, já estamos em condições de apresentar a


matriz 𝑎𝑑𝑗(𝐴). Temos então que:

𝑐11 𝑐12 𝑇 8 1 𝑇 𝑐11 𝑐21 8 −5


𝑎𝑑𝑗(𝐴) = (𝑐 𝑐22 ) = ( ) = ( 𝑐12 𝑐22 ) = (1 ).
21 −5 2 2

Reparem que, tal como foi referido anteriormente, os cofatores das entradas da linha 1
de 𝐴 foram colocados na coluna 1 da matriz adjunta de 𝐴 e os cofatores das entradas da
linha 2 de 𝐴 foram colocados na coluna 2 da matriz adjunta de 𝐴.

EXEMPLO 39

1 5 2
Se 𝐴 = [1 −1 0], então vamos calcular a matriz 𝑎𝑑𝑗(𝐴). Para isso precisamos de
0 −2 4
calcular todos os cofatores de todas as entradas da matriz 𝐴. Então temos de calcular 9
cofatores e obtemos, neste caso, o seguinte:

⚫ COFATORES DAS ENTRADAS DA LINHA 1:

−1 0
𝑐11 = (−1)1+1 |𝐴11 | = (+1) | | = (+1) × ((−1) × 4)) = (+1) × (−4) = −4
−2 4

1 0
𝑐12 = (−1)1+2 |𝐴12 | = (−1) | | = (−1) × (1 × 4) = −4
0 4

1 −1
𝑐13 = (−1)1+3 |𝐴13 | = (+1) | | = (+1) × (1 × (−2)) = −2
0 −2
⚫ COFATORES DAS ENTRADAS DA LINHA 2:

5 2
𝑐21 = (−1)2+1 |𝐴21 | = (−1) | | = (−1) × ((5 × 4) − (−2) × 2))
−2 4
= (−1) × (20 + 4) = −24

1 2
𝑐22 = (−1)2+2 |𝐴22 | = (+1) | | = (+1) × (1 × 4) = 4
0 4

1 5
𝑐23 = (−1)2+3 |𝐴23 | = (−1) | | = (−1) × (1 × (−2)) = (−1) × (−2) = 2
0 −2

⚫ COFATORES DAS ENTRADAS DA LINHA 3:

5 2
𝑐31 = (−1)3+1 |𝐴31 | = (+1) | | = (+1) × ((5 × 0) − (−1) × 2))
−1 0
= (+1) × (0 + 2) = 2

1 2
𝑐32 = (−1)3+2 |𝐴32 | = (−1) | | = (−1) × (−2) = 2
1 0

1 5
𝑐33 = (−1)3+3 |𝐴33 | = (+1) | | = (+1) × (1 × (−1) − (1 × 5))
1 −1
= (+1) × (−1 − 5) = −6

Então já temos os 9 cofatores e, portanto, já estamos em condições de apresentar a


matriz 𝑎𝑑𝑗(𝐴). Temos então que:

𝑐11 𝑐12 𝑐13 𝑇 −4 −4 −2 𝑇 𝑐11 𝑐21 𝑐31


𝑎𝑑𝑗(𝐴) = (𝑐21 𝑐22 𝑐23 ) = (−24 4 2 ) = (𝑐12 𝑐22 𝑐32 ) =
𝑐31 𝑐32 𝑐33 2 2 −6 𝑐13 𝑐23 𝑐33
−4 −24 2
(−4 4 2 ).
−2 2 −6

Mais uma vez, reparem que, tal como foi referido anteriormente, os cofatores das
entradas da linha 1 de 𝐴 foram colocados na coluna 1 da matriz adjunta de 𝐴, os
cofatores das entradas da linha 2 de 𝐴 foram colocados na coluna 2 da matriz adjunta
de 𝐴 e os cofatores das entradas da linha 3 de 𝐴 foram colocados na coluna 3 da matriz
adjunta de 𝐴 .

4.5. Cálculo da inversa de uma matriz invertível usando a matriz adjunta e


determinantes
A seguir, vamos apresentar como se pode determinar a inversa de uma matriz invertível
usando a sua matriz adjunta. Este modo de calcular a matriz 𝐴−1 de uma matriz 𝐴
invertível também usa o cálculo de determinantes, pelo que é muito importante
sabermos muito bem os métodos de cálculo de determinantes e de cofatores.

Esta regra (método) tem como objetivo calcular a matriz inversa de uma qualquer matriz
quadrada invertível 𝐴 usando a sua matriz adjunta e o seu determinante. Então para se
usar a regra (ou método) devemos proceder do seguinte modo:

1) Calcular o determinante de 𝐴. Caso |𝐴| ≠ 0 então a matriz 𝐴 é invertível (isto


é, existe a sua inversa 𝐴−1 ). Neste caso devemos prosseguir para a fase
seguinte.

2) Calcular todos os cofatores de todas as entradas da matriz 𝐴;

3) Formar a matriz 𝑐𝑜𝑓(𝐴);

4) Determinar a matriz 𝑎𝑑𝑗(𝐴) = (𝑐𝑜𝑓(𝐴))𝑇 ;

5) Usar a fórmula seguinte que utiliza os dados das fases 1) e 4) que é dada por:

1
𝐴−1 = |𝐴| × 𝑎𝑑𝑗(𝐴) (***)

e assim feitos os cálculos respetivos temos como resultado a matriz inversa de 𝐴 que é
a matriz 𝐴−1 .

Vamos então apresentar mais dois exemplos para que possam perceber melhor como
calcular a inversa 𝐴−1 de uma matriz 𝐴 usando esta fórmula. Temos então:

EXEMPLO 40

1 5 2
Se 𝐴 = [1 −1 1], então vamos calcular o determinante desta matriz usando a regra
1 −2 4
de Laplace para recordarmos esta regra. Então terei de escolher uma linha ou uma
coluna. Suponhamos que escolho a linha 3. Então feita esta escolha, temos que primeiro
calcular todos os cofatores de todas as entradas da linha 3, ou seja, temos de calcular os
cofatores 𝑐31 , 𝑐32 e 𝑐33 . Então usando a definição de cofator de uma entrada, obtemos:
5 2
𝑐31 = (−1)3+1 |𝐴31 | = (+1) | | = (+1) × ((5 × 1) − ((−1) × 2))
−1 1
= (+1) × (5 + 2) = 7

1 2
𝑐32 = (−1)3+2 |𝐴32 | = (−1) | | = (−1) × ((1 × 1) − (1 × 2)) = (−1) × (−1)
1 1
=1

1 5
𝑐33 = (−1)3+3 |𝐴33 | = (+1) | | = (+1) × ((1 × (−1) − (1 × 5))
1 −1
= (+1) × (−1 − 5) = −6

Então usando a regra de Laplace, vem

|𝐴| = (𝑎31 × 𝑐31 ) + (𝑎32 × 𝑐32 ) + (𝑎33 × 𝑐33 ) = (1 × 7) + ((−2) × 1) + (4 × (−6))


= 7 + (−2) + (−24)

e, portanto, |𝐴| = −19. Como |𝐴| ≠ 0 significa que a matriz 𝐴 é uma matriz invertível
e, portanto, existe a sua matriz inversa 𝐴−1 que vamos calcular a seguir. Para usarmos a
fórmula acima referida, precisamos de calcular a matriz adjunta de 𝐴. Vamos então
calcular os restantes 6 cofatores, uma vez que já temos os outros 3 cofatores calculados
antes aquando da determinação do |𝐴|. Os cofatores que foram calculados acima são
os cofatores das entradas da linha 3 da matriz 𝐴. Então para as restantes linhas, temos:

⚫ COFATORES DAS ENTRADAS DA LINHA 1:

−1 1
𝑐11 = (−1)1+1 |𝐴11 | = (+1) | | = (+1) × ((−1) × 4) − ((−2) × 1))
−2 4
= (+1) × (−4 + 2) = −2

1 1
𝑐12 = (−1)1+2 |𝐴32 | = (−1) | | = (−1) × ((1 × 4) − (1 × 1)) = (−1) × (4 − 1)
1 4
= −3

1 −1
𝑐13 = (−1)1+3 |𝐴13 | = (+1) | | = (+1) × ((1 × (−2)) − (1 × (−1))
1 −2
= (+1) × (−2 + 1) = −1

⚫ COFATORES DAS ENTRADAS DA LINHA 2:

5 2
𝑐21 = (−1)2+1 |𝐴21 | = (−1) | | = (−1) × ((5 × 4) − ((−2) × 2))
−2 4
= (−1) × (20 + 4) = −24
1 2
𝑐22 = (−1)2+2 |𝐴22 | = (+1) | | = (+1) × ((1 × 4) − (1 × 2)) = 4 − 2 = 2
1 4

1 5
𝑐23 = (−1)2+3 |𝐴23 | = (−1) | | = (−1) × ((1 × (−2)) − (1 × 5))
1 −2
= (−1) × (−2 − 5) = 7

Agora, tal como foi referido anteriormente, os cofatores das entradas da linha 1 de 𝐴
serão colocados na coluna 1 da matriz adjunta de 𝐴, os cofatores das entradas da linha
2 de 𝐴 serão colocados na coluna 2 da matriz adjunta de 𝐴 e os cofatores das entradas
da linha 3 de 𝐴 serão colocados na coluna 3 da matriz adjunta de 𝐴 . Logo

𝑐11 𝑐12 𝑐13 𝑇 −2 −3 −1 𝑇 𝑐11 𝑐21 𝑐31


𝑐
𝑎𝑑𝑗(𝐴) = ( 21 𝑐22 𝑐23 ) = (−24 2 7 ) = (𝑐12 𝑐22 𝑐32 )
𝑐31 𝑐32 𝑐33 7 1 −6 𝑐13 𝑐23 𝑐33
−2 −24 7
= (−3 2 1)
−1 7 −6

Tendo já todos os dados necessários para utilizar na fórmula (***), obtemos finalmente
o que pretendíamos, ou seja,

2 24 7
− 19
−2 −24 7 19 19
−1 1 1 3 2 1
𝐴 = |𝐴|
× 𝑎𝑑𝑗(𝐴) = −19 × (−3 2 1 )= − 19 − 19 .
19
−1 7 −6 1 7 6
− 19
(19 19 )

Agora para verificarmos se este resultado está correto, bastaria multiplicar esta matriz
pela matriz original 𝐴 e, não havendo erros, o resultado do produto referido seria a
matriz identidade 𝐼3 .

EXEMPLO 41

1 2
Se 𝐴 = [ ], uma matriz 2x2, então vamos calcular o determinante desta matriz,
3 1
obtendo-se |𝐴| = (1 × 1) − (3 × 2) = 1 − 6 = −5 ≠ 0. Logo a matriz 𝐴 é invertível e
vamos então calcular a sua matriz inversa usando a matriz adjunta. Calculemos primeiro
todos os cofatores das entradas da matriz 𝐴:

⚫ COFATORES DAS ENTRADAS DA LINHA 1:

𝑐11 = (−1)1+1 |𝐴11 | = (+1)|1| = 1


𝑐12 = (−1)1+2 |𝐴12 | = (−1)|3| = −3

⚫ COFATORES DAS ENTRADAS DA LINHA 2:

𝑐21 = (−1)2+1 |𝐴21 | = (−1)|2| = −2

𝑐22 = (−1)2+2 |𝐴22 | = (+1)|1| = 1.

𝑐11 𝑐12 𝑇 1 −3 𝑇 𝑐11 𝑐21 1 −2


Portanto 𝑎𝑑𝑗(𝐴) = (𝑐 𝑐22 ) = ( ) = ( 𝑐12 𝑐22 ) = (−3 1 ). A matriz
21 −2 1
inversa de 𝐴 é então neste caso igual a

1 2
1 1 1 −2 −
𝐴−1 = × 𝑎𝑑𝑗(𝐴) = −5 × ( ) = ( 35 5
1).
|𝐴| −3 1 −5
5

Neste caso para verificarmos se este resultado está correto, bastaria multiplicar esta
matriz pela matriz original 𝐴 e, não havendo erros, o resultado do produto referido seria
a matriz identidade 𝐼2 .

4.6. A inversa de uma matriz invertível para a resolução de sistemas de equações


lineares

Como já é do vosso conhecimento, dada uma qualquer matriz 𝐴 quadrada é possível


saber se essa matriz é ou não uma matriz invertível, ou calculando a sua característica
ou calculando o seu determinante. Recordemos então os dois processos que nos levam
a obter essa informação.

1. Uma matriz quadrada 𝐴 = (𝑎𝑖𝑗 )𝑖,𝑗=1,2,…,𝑛 de ordem 𝑛 é uma matriz invertível

(isto é, existe a sua matriz inversa 𝐴−1) se e só se 𝑐𝑎𝑟(𝐴) = 𝑛.

2. Uma matriz quadrada 𝐴 = (𝑎𝑖𝑗 )𝑖,𝑗=1,2,…,𝑛 de ordem 𝑛 é uma matriz invertível

(isto é, existe a sua matriz inversa 𝐴−1) se e só se 𝑑𝑒𝑡(𝐴) ≠ 0.

A matriz 𝐴−1 é muito importante para a resolução de alguns sistemas de equações


lineares: os sistemas possíveis determinados (isto é, sistemas com uma única solução).

Vejamos como a matriz 𝐴−1 se pode usar nessa resolução. Consideremos um sistema de
equações lineares do tipo 𝐴𝑋 = 𝐵, onde 𝐴 é a matriz simples do sistema (matriz cujas
entradas são os coeficientes das incógnitas do sistema), 𝐵 a matriz coluna dos termos
independentes do sistema e 𝑋 a matriz coluna das incógnitas do sistema. Suponhamos
que o número de equações do sistema é igual ao número de incógnitas. Logo a matriz 𝐴
é uma matriz quadrada e, portanto, estamos em condições de tentar ver se essa matriz
é ou não uma matriz invertível. Se for invertível então o sistema será possível e
determinado e a sua inversa vai permitir resolvê-lo, pois

𝐴𝑋 = 𝐵 ⇔ 𝐴−1 (𝐴𝑋) = 𝐴−1 𝐵 ⇔ (𝐴−1 𝐴)𝑋 = 𝐴−1 𝐵 ⇔ 𝐼𝑛 𝑋 = 𝐴−1 𝐵 ⇔ 𝑋 = 𝐴−1 𝐵


(*)

e temos assim calculada a solução 𝑋 que nos dá em cada linha o valor de cada incógnita
do sistema.

Vamos então apresentar dois exemplos para que possam perceber melhor o que foi
mencionado antes.

EXEMPLO 42

Consideremos o seguinte sistema de equações lineares

2𝑥 + 5𝑦 = 1
{
−𝑥 + 8𝑦 = 0

Ora como podem verificar, trata-se de um sistema com duas equações e duas incógnitas,
2 5
ou seja, a matriz simples do sistema é a matriz quadrada 𝐴 = ( ), a matriz dos
−1 8
1
termos independentes é a matriz 𝐵 = ( ) e a matriz coluna das incógnitas é a matriz
0
𝑥
𝑋 = (𝑦), incógnitas cuja ordem é a que aparece na primeira equação do sistema.

Como o sistema tem tantas equações quantas as incógnitas permitindo assim que a
matriz simples do sistema seja quadrada, vamos começar por ver se a matriz 𝐴 é ou não
invertível. Então podemos usar qualquer um dos processos recordados em 1. e 2. acima
referidos. Suponhamos que vou usar o processo 2. Então obtemos

|𝐴| = | 2 5| = (2 × 8) − ((−1) × 5) = 18 − (−5) = 18 + 5 = 21.


−1 8

Assim sendo, podemos concluir que a matriz 𝐴 é uma matriz invertível porque det(𝐴) ≠
0. Logo existe a sua matriz inversa 𝐴−1 que vamos usar para determinar os valores das
incógnitas 𝑥 e 𝑦. Usando um dos métodos para o cálculo da inversa de uma matriz
invertível já referidos em aulas teóricas anteriores, temos que, usando a adjunta de 𝐴

⚫ COFATORES DAS ENTRADAS DA LINHA 1:

𝑐11 = (−1)1+1 |𝐴11 | = (+1)|8| = 8

𝑐12 = (−1)1+2 |𝐴12 | = (−1)|−1| = 1

⚫ COFATORES DAS ENTRADAS DA LINHA 2:

𝑐21 = (−1)2+1 |𝐴21 | = (−1)|5| = −5

𝑐22 = (−1)2+2 |𝐴22 | = (+1)|2| = 2.

Então já temos os 4 cofatores e, portanto, já estamos em condições de apresentar a


matriz 𝑎𝑑𝑗(𝐴). Temos então que:

𝑐11 𝑐12 𝑇 8 1 𝑇 𝑐11 𝑐21 8 −5


𝑎𝑑𝑗(𝐴) = (𝑐 𝑐22 ) = ( ) = ( 𝑐12 𝑐22 ) = (1 ).
21 −5 2 2

8 5
1 1 8 −5 − 21
Logo 𝐴−1 = × 𝑎𝑑𝑗(𝐴) = × ( ) = (21
1 2 ).
|𝐴| 21 1 2
21 21

Então de acordo com o que já foi referido anteriormente em (*),

8 5 8
1 − 21 1
𝑋 = 𝐴−1 𝐵 = 𝐴−1 ( ) = (21
1 2 ) × ( ) = (21
1 ).
0 0
21 21 21

8 1
Então podemos concluir que a solução do sistema é 𝑥 = 21 e 𝑦 = 21.

EXEMPLO 43

Consideremos o seguinte sistema de equações lineares

𝑥 + 5𝑦 + 2𝑧 = 0
{ 𝑥−𝑦 =1
−2𝑦 + 4𝑧 = −1

Ora como podem verificar, trata-se de um sistema com três equações e três incógnitas,
1 5 2
ou seja, a matriz simples do sistema é a matriz quadrada 𝐴 = (1 −1 0), a matriz
0 −2 4
0
dos termos independentes é a matriz 𝐵 = ( 1 ) e a matriz coluna das incógnitas é a
−1
𝑥
matriz 𝑋 = (𝑦), incógnitas cuja ordem é a que aparece na primeira equação do sistema.
𝑧

Como o sistema tem tantas equações quantas as incógnitas permitindo assim que a
matriz simples do sistema seja quadrada, vamos começar por ver se a matriz 𝐴 é ou não
invertível. Então podemos usar qualquer um dos processos recordados em 1. e 2. Acima
referidos. Suponhamos que vou usar o processo 2. Então obtemos

1 5 2
|𝐴| = |1 −1 0| = −4 + 0 − 4 − (0 + 0 + 20) = −8 − 20 = −28.
0 −2 4

Assim sendo, podemos concluir que a matriz 𝐴 é uma matriz invertível porque det(𝐴) ≠
0. Logo existe a sua matriz inversa 𝐴−1 que a vamos usar para determinar os valores das
incógnitas 𝑥, 𝑦 e 𝑧. Usando um dos métodos para o cálculo da inversa de uma matriz
invertível já referidos em aulas teóricas anteriores, temos que, usando a adjunta de 𝐴
que

⚫ COFATORES DAS ENTRADAS DA LINHA 1:

−1 0
𝑐11 = (−1)1+1 |𝐴11 | = (+1) | | = (+1) × ((−1) × 4)) = (+1) × (−4) = −4
−2 4

1 0
𝑐12 = (−1)1+2 |𝐴12 | = (−1) | | = (−1) × (1 × 4) = −4
0 4

1 −1
𝑐13 = (−1)1+3 |𝐴13 | = (+1) | | = (+1) × (1 × (−2)) = −2
0 −2

⚫ COFATORES DAS ENTRADAS DA LINHA 2:

5 2
𝑐21 = (−1)2+1 |𝐴21 | = (−1) | | = (−1) × ((5 × 4) − (−2) × 2))
−2 4
= (−1) × (20 + 4) = −24

1 2
𝑐22 = (−1)2+2 |𝐴22 | = (+1) | | = (+1) × (1 × 4) = 4
0 4

1 5
𝑐23 = (−1)2+3 |𝐴23 | = (−1) | | = (−1) × (1 × (−2)) = (−1) × (−2) = 2
0 −2

⚫ COFATORES DAS ENTRADAS DA LINHA 3:


5 2
𝑐31 = (−1)3+1 |𝐴31 | = (+1) | | = (+1) × ((5 × 0) − (−1) × 2))
−1 0
= (+1) × (0 + 2) = 2

1 2
𝑐32 = (−1)3+2 |𝐴32 | = (−1) | | = (−1) × (−2) = 2
1 0

1 5
𝑐33 = (−1)3+3 |𝐴33 | = (+1) | | = (+1) × (1 × (−1) − (1 × 5))
1 −1
= (+1) × (−1 − 5) = −6

Então já temos os 9 cofatores e, portanto, já estamos em condições de apresentar a


matriz 𝑎𝑑𝑗(𝐴). Temos então que:

𝑐11 𝑐12 𝑐13 𝑇 −4 −4 −2 𝑇 𝑐11 𝑐21 𝑐31


𝑐
𝑎𝑑𝑗(𝐴) = ( 21 𝑐22 𝑐23 ) = (−24 4 2 ) = (𝑐12 𝑐22 𝑐32 ) =
𝑐31 𝑐32 𝑐33 2 2 −6 𝑐13 𝑐23 𝑐33
−4 −24 2
(−4 4 2 ).
−2 2 −6

−4 −24 2 −4 −24 2
1 1 1
Logo 𝐴−1 = |𝐴| × 𝑎𝑑𝑗(𝐴) = −28 × (−4 4 2 ) = − 28 × (−4 4 2 )=
−2 2 −6 −2 2 −6
4 24 2
− 28
28 28
4 4 2
− 28 − 28 .
28
2 2 6
− 28
(28 28 )

Então de acordo com o que já foi referido anteriormente em (*),

4 24 2 26 13
− 28
0 28 28 0 28 14
−1 −1 4 4 2 2 1
𝑋=𝐴 𝐵=𝐴 ( 1 )= − 28 − 28 ×( 1 )= − 28 = − 14 .
28
−1 2 2 6 −1 8 2
− 28 − 28 −7
(28 28 ) ( ) ( )
13 1 2
Então podemos concluir que a solução do sistema é 𝑥 = 14 , 𝑦 = − 14 e 𝑧 = − 7.

Vamos agora introduzir uma regra que permite também resolver sistemas deste tipo
(sistemas possíveis determinados) usando apenas determinantes para o cálculo
individual de cada incógnita.

4.7. Regra de Cramer para a resolução de sistemas de equações lineares


Este método (ou regra) de resolução de um sistema de equações lineares só se aplica a
sistemas com 𝑛 equações e 𝑛 incógnitas cuja matriz simples do sistema 𝐴 seja uma
matriz invertível. Vamos então introduzir uma definição relacionada com este tipo de
sistemas de equações lineares.

Definição: Um sistema de equações lineares com 𝑛 equações e 𝑛 incógnitas diz-se um


sistema de Cramer se e só se a matriz simples do sistema 𝐴 for uma matriz invertível.

Então de acordo com esta definição, podemos de imediato concluir que os sistemas
apresentados nos exemplos 42 e 43 são sistemas de Cramer já que as respetivas
matrizes simples são ambas invertíveis.

Vamos então agora introduzir a regra de Cramer que é usada exatamente para a
resolução de sistemas de Cramer (nome que se dá agora aos sistemas que são possíveis
e determinados).

Consideremos então o seguinte sistema de equações lineares:

𝑎11 𝑥1 + 𝑎12 𝑥2 + ⋯ + 𝑎1𝑛 𝑥𝑛 = 𝑏1


{ ⋮ ⋱ ⋮
𝑎𝑛1 𝑥1 + 𝑎𝑛2 𝑥2 + ⋯ + 𝑎𝑛𝑛 𝑥𝑛 = 𝑏𝑛

𝑎11 𝑎12 ⋯ 𝑎1𝑛


Consideremos a matriz quadrada 𝐴 = ( ⋮ ⋱ ⋮ )de ordem 𝑛, que como
𝑎𝑛1 𝑎𝑛2 ⋯ 𝑎𝑛𝑛
sabem é a matriz simples do sistema.

𝑎11 𝑎12 ⋯ 𝑏1 ⋯ 𝑎1𝑛


Designemos por 𝐴𝑖 = ( ⋮ ⋱ ⋮ ) a matriz que se obtém da matriz 𝐴
𝑎𝑛1 𝑎𝑛2 ⋯ 𝑏𝑛 ⋯ 𝑎𝑛𝑛
substituindo a coluna 𝒊 pelos termos independentes 𝑏𝑖 .

Então o valor de cada incógnita do sistema é calculado do seguinte modo:

det(𝐴𝑖 )
𝑥𝑖 = (**)
det(𝐴)

Em resumo um sistema de Cramer tem uma única solução, sendo o valor de cada
incógnita dado por uma fração que tem no denominador o determinante da matriz
simples do sistema, e, no numerador, o determinante da matriz que se obtém da matriz
simples do sistema substituindo os coeficientes da incógnita considerada pelos termos
independentes que figuram nas equações correspondentes.

Vamos então apresentar um exemplo para que melhor percebam o que foi apresentado
antes.

EXEMPLO 44

Consideremos o sistema de equações lineares:

2𝑥 + 3𝑦 + 4𝑧 = 53
{ 3𝑥 + 5𝑦 − 4𝑧 = 2
4𝑥 + 7𝑦 − 2𝑧 = 31

Trata-se de um sistema com três equações e três incógnitas que são 𝑥, 𝑦 e 𝑧. Calculemos
o determinante da matriz simples do sistema:

- O determinante de 𝐴 é:

2 3 4
|𝐴| = |3 5 −4| = (−20) + (−48) + 84 − (80 + (−56) + (−18))
4 7 −2
= −68 + 84 − (24 − 18) = 16 − 6 = 10

Como |𝐴| ≠ 0, então a matriz 𝐴 é uma matriz invertível e, portanto, o sistema


considerado é um sistema de Cramer. Então vamos aplicar a regra de Cramer para o
resolver. Para isso precisamos primeiro de calcular os determinantes das matrizes 𝐴𝑖 ,
com 𝑖 = 1, 2, 3. Então temos:

- O determinante de 𝐴1 é:

53 3 4
|𝐴1 | = | 2 5 −4| = (−530) + (−372) + 56 − (620 + (−1484) + (−12))
31 7 −2
= −846 − (−876) = 30

- O determinante de 𝐴2 é:

2 53 4
|𝐴2 | = |3 2 −4| = (−8) + (−848) + 372 − (32 + (−248) + (−318))
4 31 −2
= −484 − (−534) = 50

- O determinante de 𝐴3 é:
2 3 53
|𝐴3 | = |3 5 2 | = 310 + 1113 + 24 − (1060 + 28 + 279) = 1447 − 1367
4 7 31
= 80

Logo usando a fórmula (**) para cada uma das três incógnitas obtemos:

det(𝐴1 ) 30
𝑥= = =3
det(𝐴) 10

que é o valor da primeira incógnita do sistema.

Para o valor da segunda incógnita do sistema, temos:

det(𝐴2 ) 50
𝑦= = =5
det(𝐴) 10

Finalmente para a terceira incógnita do sistema, vem:

det(𝐴3 ) 80
𝑧= = =8
det(𝐴) 10

Logo a solução é única e o conjunto solução é dado por CS={(3,5,8)}.

_____________________________________________________________________________

Sugestão de trabalho: Podem resolver os exercícios 79 (página 31) usando a regra de


Laplace, o exercício 95 (página 34), o exercício 99 b) (página 35), o exercício 109 (página
37) e o exercício 112 (página 38) da Sebenta para consolidação deste conteúdo
programático. Também podem resolver os exercícios 96, 97, 98 e 99 (páginas 34 e 35) e
o exercício 106 (página 37) da Sebenta para consolidação deste conteúdo programático.
Também podem resolver os exercícios 114 a 121 das páginas 39 e 40 da Sebenta para
consolidação deste conteúdo programático.

_______________________________________________________________________

Podem aceder ao Youtube para visualizar vídeos relacionados com os temas desta
semana, como, por exemplo:

https://www.youtube.com/watch?v=726AOpEEXrw

https://www.youtube.com/watch?v=RhNEjyQUAF4
https://www.youtube.com/watch?v=9SlbSZqKYz8

_____________________________________________________________________________

5. Capítulo – Espaços Vetoriais

5.1. Espaço vetorial sobre um dado corpo


A principal razão para se considerar a noção de espaço vetorial resulta da importância
do estudo de transformações lineares. Estas são funções entre espaços vetoriais que
obedecem a certas propriedades. Serão objeto de estudo do próximo capítulo.

A definição de um espaço vetorial envolve um corpo arbitrário cujos elementos são


chamados escalares.

Definição: Seja 𝐾 um corpo arbitrário. Um conjunto não vazio 𝐸, (não importa agora de
que natureza são os seus elementos), é um espaço vetorial se lhe estão associadas duas
operações, uma operação binária chamada de adição de elementos de 𝐸 e uma
operação unária chamada de multiplicação escalar de multiplicação de escalares por
elementos de 𝐸, satisfazendo os seguintes axiomas:

A1) Comutatividade da adição: Para todo o 𝑣1 e 𝑣2 de 𝐸, 𝑣1 + 𝑣2 = 𝑣2 + 𝑣1 ;

A2) Associatividade da adição: Para todo o 𝑣1 , 𝑣2 e 𝑣3 de 𝐸, 𝑣1 + (𝑣2 + 𝑣3 ) =


(𝑣1 + 𝑣2 ) + 𝑣3 ;

A3) Existência de elemento neutro da adição: Existe e é único um elemento de 𝐸,


designado por zero de 𝐸 e denotado por 0𝐸 , tal que 𝑣 + 0𝐸 = 𝑣, qualquer que seja o
elemento 𝑣 de 𝐸;

A4) Existência de elemento simétrico: Qualquer que seja o elemento 𝑣 de 𝐸, existe um


elemento 𝑣 ′ de 𝐸 a que se chama o simétrico de 𝑣, tal que 𝑣 + 𝑣 ′ = 0𝐸 ;

A5) Associatividade mista: Quaisquer que sejam os escalares 𝑘1 e 𝑘2 de 𝐾 e qualquer


que seja 𝑣 de 𝐸, é verdade que 𝑘1 (𝑘2 𝑣) = (𝑘1 𝑘2 )𝑣;

A6) Distributividade em relação à adição em 𝐸: Qualquer que seja o escalar 𝑘 de 𝐾 e


quaisquer que sejam os 𝑣1 e 𝑣2 de 𝐸, é verdade que 𝑘(𝑣1 + 𝑣2 ) = 𝑘𝑣1 + 𝑘𝑣2 ;
A7) Distributividade em relação à adição em 𝐾: Quaisquer que sejam os escalares 𝑘1 e
𝑘2 de 𝐾 e qualquer que seja o 𝑣 de 𝐸, é verdade que (𝑘1 + 𝑘2 )𝑣 = 𝑘1 𝑣 + 𝑘2 𝑣;

A8) Existência de identidade: 𝟏𝑣 = 𝑣, qualquer que seja 𝑣 de 𝐸 e sendo 𝟏 a unidade de


𝐾.

Os elementos de 𝐸 recebem o nome de vetores e como já foi referido anteriormente,


aos elementos do corpo 𝐾 chamam-se escalares.

Para nós tem particular interesse o caso em que 𝐾 é o corpo ℝ dos números reais e
nessa altura dizemos que estamos perante um espaço vetorial real. Caso 𝐾 seja o corpo
ℂ dos números complexos, diremos que estamos perante um espaço vetorial complexo.

Vamos a seguir apresentar exemplos de espaços vetoriais reais e, portanto, os escalares


são números reais. Os exemplos que apresentamos são todos da mesma natureza e será
só com espaços vetoriais reais deste tipo com que vamos trabalhar daqui para a frente.

EXEMPLO 45

Consideremos o espaço vetorial real 𝐸 = ℝ. Então aqui os vetores são os números reais.
A adição é a adição de números reais e a multiplicação escalar é a multiplicação usual
de números reais. Uma representação gráfica deste espaço vetorial e alguns dos seus
elementos pode ser visualizada na figura seguinte:

Figura 1: Reta numérica real e alguns dos seus elementos aí representados6

EXEMPLO 46

6
Imagem retirada de
https://www.google.com/search?q=reta+real&rlz=1C1GCEA_enPT876PT876&sxsrf=ALeKk01FslVQaD3IY
e271iodOoTUCNTGwA:1589066817417&source=lnms&tbm=isch&sa=X&ved=2ahUKEwisr7SZ96fpAhUJ1
BoKHcPTC8AQ_AUoAXoECBAQAw&biw=1600&bih=740#imgrc=4S1iFk_U3JgRdM no dia 14 de novembro
de 2020.
Consideremos o espaço vetorial 𝐸 = ℝ2 = {𝑣 = (𝑎, 𝑏): 𝑎, 𝑏 ∈ ℝ}. Então aqui os
vetores são pares de números reais. Uma representação gráfica deste espaço vetorial e
alguns dos seus elementos pode ser visualizada na figura seguinte:

Figura 2: Plano cartesiano e alguns dos seus elementos aí representados7

Adição em ℝ2 é definida do seguinte modo:

Se 𝑣1 = (𝑎1 , 𝑏1 ) e 𝑣2 = (𝑎2 , 𝑏2 ), então 𝑣1 + 𝑣2 = (𝑎1 + 𝑎2 , 𝑏1 + 𝑏2 )

A multiplicação de um vetor de ℝ2 por um escalar é definida por:

Se 𝑣 = (𝑎, 𝑏) e 𝛼 um escalar, então 𝛼𝑣 = (𝛼𝑎, 𝛼𝑏)

Então, por exemplo, se 𝑣1 = (1, −5) e 𝑣2 = (0, 3), então 𝑣1 + 𝑣2 = (1 + 0, −5 + 3) =


1 1 1 1 5
(1, −2) e também temos que 𝑣1 = ( × 1, × (−5)) = ( , − ).
2 2 2 2 2

EXEMPLO 47

7
Imagem retirada de
https://www.google.com/search?q=O+plano+cartesiano&rlz=1C1GCEA_enPT876PT876&sxsrf=ALeKk03I
R3tEFbCmmydsYF8B7W10n_xvHA:1589067511388&source=lnms&tbm=isch&sa=X&ved=2ahUKEwiC8Kj
k-afpAhXIxIUKHQi2BFsQ_AUoAXoECBIQAw&biw=1600&bih=740#imgrc=yXMnn01Klk406M no dia 14 de
novembro de 2020.
Consideremos o espaço vetorial 𝐸 = ℝ3 = {𝑣 = (𝑎, 𝑏, 𝑐): 𝑎, 𝑏, 𝑐 ∈ ℝ}. Então aqui os
vetores são ternos de números reais. Uma representação gráfica deste espaço vetorial
e alguns dos seus elementos pode ser visualizada na figura seguinte:

Figura 3: O espaço tridimensional e alguns dos seus elementos aí representados8

Adição em ℝ3 é definida do seguinte modo:

Se 𝑣1 = (𝑎1 , 𝑏1 , 𝑐1 ) e 𝑣2 = (𝑎2 , 𝑏2 , 𝑐2 ), então

𝑣1 + 𝑣2 = (𝑎1 + 𝑎2 , 𝑏1 + 𝑏2 , 𝑐1 + 𝑐2 )

A multiplicação de um vetor de ℝ3 por um escalar é definida por:

Se 𝑣 = (𝑎, 𝑏, 𝑐) e 𝛼 um escalar, então 𝛼𝑣 = (𝛼𝑎, 𝛼𝑏, 𝛼𝑐 )

Então, por exemplo, se 𝑣1 = (1, −5, 9) e 𝑣2 = (0, 3, −2), então 𝑣1 + 𝑣2 = (1 +


1 1 1 1
0, −5 + 3, 9 + (−2)) = (1, −2, 7) e também temos que 𝑣 = (2 × 1, 2 × (−5), 2 ×
2 1
1 5 9
9 ) = (2 , − 2 , 2 ).

8
Imagem retirada de
https://www.google.com/search?q=O+espa%C3%A7o+tridimensional&rlz=1C1GCEA_enPT876PT876&sx
srf=ALeKk018tmfHjmaLA90IKlpYLYOPxQzVuQ:1589068302533&source=lnms&tbm=isch&sa=X&ved=2ah
UKEwiS0Mjd_KfpAhVfD2MBHWybBLoQ_AUoAXoECA8QAw&biw=1600&bih=740#imgrc=FoX5OQgrBpfg
AM no dia 14 de novembro de 2020.
Generalizando, podemos então definir vários espaços vetoriais reais deste tipo,
considerando 𝐸 = ℝ𝑛 , para qualquer número natural 𝑛. Nestes espaços vetoriais a
adição e a multiplicação escalar são então definidas do seguinte modo:

Adição em ℝ𝑛 é definida do seguinte modo:

Se 𝑣1 = (𝑥1 , 𝑥2 , 𝑥3 , … , 𝑥𝑛 ) e 𝑣2 = (𝑦1 , 𝑦2 , 𝑦3 , … , 𝑦𝑛 ), então 𝑣1 + 𝑣2 =


(𝑥1 + 𝑦1 , 𝑥2 + 𝑦2 , 𝑥3 + 𝑦3 , … , 𝑥𝑛 + 𝑦𝑛 )

A multiplicação de um vetor de ℝ𝑛 por um escalar é definida por:

Se 𝑣 = (𝑥1 , 𝑥2 , 𝑥3 , … , 𝑥𝑛 ) e 𝛼 um escalar, então 𝛼𝑣 = (𝛼𝑥1 , 𝛼𝑥2 , 𝛼𝑥3 , … , 𝛼𝑥𝑛 )

5.2. Vetor é combinação linear de um conjunto de vetores

Sempre que se fala de vetor, vai a partir de agora significar um elemento de um espaço
vetorial, que no nosso caso será um elemento de ℝ𝑛 , pois só trabalharemos com
espaços vetoriais deste tipo. Vamos de seguida dar a definição de vetor combinação
linear de um conjunto de vetores dado.

Definição: Seja 𝐸 um espaço vetorial sobre um corpo 𝐾 e sejam 𝑣1 , 𝑣2 , … , 𝑣𝑛 vetores de


𝐸. Qualquer vetor 𝑣 da forma

𝑣 = 𝛼1 𝑣1 + 𝛼2 𝑣2 + ⋯ + 𝛼𝑛 𝑣𝑛

onde 𝛼𝑖 , 𝑖 = 1,2, … , 𝑛 são escalares, tem o nome de vetor combinação linear dos
vetores 𝑣1 , 𝑣2 , … , 𝑣𝑛 .

Vamos dar alguns exemplos para verificar se um determinado vetor é ou não


combinação linear de um conjunto de vetores dado.

EXEMPLO 48

Verifique se o vetor 𝑣 = (1, 2) é ou não combinação linear dos vetores de ℝ2 dados por
𝑣1 = (0, 3), 𝑣2 = (1, 1).

Então temos de ir verificar se 𝑣 = 𝛼1 𝑣1 + 𝛼2 𝑣2 , para algum 𝛼1 e 𝛼2 . Assim temos:

𝑣 = 𝛼1 𝑣1 + 𝛼2 𝑣2 ⇔ (1, 2) = 𝛼1 (0, 3) + 𝛼2 (1, 1) ⟺ (1, 2)


= (𝛼1 × 0, 𝛼1 × 3) + (𝛼2 × 1, 𝛼2 × 1)
⟺ (1, 2) = (0, 3𝛼1 ) + (𝛼2 , 𝛼2 ) ⟺ (1, 2) = (0 + 𝛼2 , 3𝛼1 + 𝛼2 ) ⟺ (1, 2)
= (𝛼2 , 3𝛼1 + 𝛼2 )

Agora dois vetores são iguais se as componentes forem iguais. Então vamos ter de
resolver um sistema de duas equações e duas incógnitas que é o seguinte:

𝛼2 = 1
{
3𝛼1 + 𝛼2 = 2

Resolvendo este sistema concluímos que se trata de um sistema possível determinado,


1
sendo a solução única e dada por 𝛼1 = e 𝛼2 = 1.
3

Então mostramos assim que o vetor 𝑣 = (1, 2) é combinação linear dos vetores 𝑣1 =
(0, 3), 𝑣2 = (1, 1).

EXEMPLO 49

Verifique se o vetor 𝑣 = (1, 2) é ou não combinação linear dos vetores de ℝ2 dados por
𝑣1 = (0, 3), 𝑣2 = (0, 6).

Então temos de ir verificar se 𝑣 = 𝛼1 𝑣1 + 𝛼2 𝑣2 , para algum 𝛼1 e 𝛼2 . Assim temos:

𝑣 = 𝛼1 𝑣1 + 𝛼2 𝑣2 ⇔ (1, 2) = 𝛼1 (0, 3) + 𝛼2 (0, 6) ⟺ (1, 2)


= (𝛼1 × 0, 𝛼1 × 3) + (𝛼2 × 0, 𝛼2 × 6)

⟺ (1, 2) = (0, 3𝛼1 ) + (0, 6𝛼2 ) ⟺ (1, 2) = (0 + 0, 3𝛼1 + 6𝛼2 ) ⟺ (1, 2)


= (0, 3𝛼1 + 6𝛼2 )

Agora dois vetores são iguais se as componentes forem iguais. Então vamos ter de
resolver um sistema de duas equações e duas incógnitas que é o seguinte:

0=1
{
3𝛼1 + 6𝛼2 = 2

Resolvendo este sistema concluímos que se trata de um sistema impossível, não


havendo, portanto, qualquer solução.

Então mostramos assim que o vetor 𝑣 = (1, 2) não é combinação linear dos vetores
𝑣1 = (0, 3), 𝑣2 = (0, 6).

EXEMPLO 50
Verifique se o vetor 𝑣 = (1, 2) é ou não combinação linear dos vetores de ℝ2 dados por
𝑣1 = (0, 3), 𝑣2 = (1, 1) e 𝑣3 = (2, −1).

Então temos de ir verificar se 𝑣 = 𝛼1 𝑣1 + 𝛼2 𝑣2 + 𝛼3 𝑣3 , para algum 𝛼1 , 𝛼2 e 𝛼3 . Assim


temos:

𝑣 = 𝛼1 𝑣1 + 𝛼2 𝑣2 + 𝛼3 𝑣3 ⇔ (1, 2) = 𝛼1 (0, 3) + 𝛼2 (1, 1) + 𝛼3 (2, −1)

⟺ (1, 2) = (𝛼1 × 0, 𝛼1 × 3) + (𝛼2 × 1, 𝛼2 × 1) + (𝛼3 × 2, 𝛼3 × (−1))

⟺ (1, 2) = (0, 3𝛼1 ) + (𝛼2 , 𝛼2 ) + (2𝛼3 , −𝛼3 ) ⟺ (1, 2)


= (0 + 𝛼2 + 2𝛼3 , 3𝛼1 + 𝛼2 − 𝛼3 )

⟺ (1, 2) = (𝛼2 + 2𝛼3 , 3𝛼1 + 𝛼2 − 𝛼3 )

Agora dois vetores são iguais se as componentes forem iguais. Então vamos ter de
resolver um sistema de duas equações e três incógnitas que é o seguinte:

𝛼2 + 2𝛼3 = 1
{
3𝛼1 + 𝛼2 − 𝛼3 = 2

Resolvendo este sistema concluímos que se trata de um sistema possível


1+3𝛼3
indeterminado, sendo a solução dada por 𝛼1 = e 𝛼2 = 1 − 2𝛼3 , com 𝛼3 a variável
3

livre do sistema.

Então mostramos assim que o vetor 𝑣 = (1, 2) é combinação linear dos vetores 𝑣1 =
(0, 3), 𝑣2 = (1, 1) e 𝑣3 = (2, −1), mesmo sendo um sistema com uma infinidade de
soluções, ou seja, um sistema possível indeterminado.

NOTA IMPORTANTE: Reparemos nas matrizes ampliadas dos sistemas de equações lineares
anteriormente considerados. Para o primeiro exemplo (ver EXEMPLO 48), a matriz ampliada do
0 1⋮ 1
sistema é a seguinte [𝐴 | 𝐵] = [ ]. Repara que as colunas da matriz 𝐴 são exatamente os
3 1⋮2
vetores 𝑣1 = (0, 3), 𝑣2 = (1, 1) considerados e a coluna dos termos independentes é formada
pelas componentes do vetor 𝑣 = (1, 2), em relação ao qual pretendemos verificar se ele é ou
não combinação linear dos vetores 𝑣1 e 𝑣2 .

O mesmo se passa com o caso do segundo exemplo (ver EXEMPLO 49). Temos a matriz ampliada

[𝐴 | 𝐵] = [0 0 1], onde as colunas de A são os vetores 𝑣1 = (0, 3), 𝑣2 = (0, 6) e a coluna 𝐵 é
3 6⋮2
constituída pelo vetor 𝑣 = (1, 2).
Também relativamente ao terceiro exemplo (ver EXEMPLO 50), temos a matriz ampliada

[𝐴 | 𝐵] = [0 1 2 1 ], onde as colunas de A são os vetores 𝑣1 = (0, 3), 𝑣2 = (1, 1) e 𝑣3 =
3 1 −1 ⋮ 2
(2, −1) e a coluna B é constituída pelo vetor 𝑣 = (1, 2).

___________________________________________

Então podemos utilizar matrizes ampliadas de sistemas e todo o conhecimento que já


foi adquirido anteriormente para verificarmos se um determinado vetor é ou não
combinação linear de um conjunto de vetores dado.

Então suponhamos que pretendemos verificar se um vetor 𝑣 é ou não combinação linear


dos vetores 𝑣1 , 𝑣2 , …, 𝑣𝑛 . Podemos resolver este problema começando por:

1- Formar a matriz ampliada [𝐴 | 𝐵] do um sistema de equações lineares, cujas


colunas de 𝐴 são as componentes dos vetores 𝑣1 , 𝑣2 , …, 𝑣𝑛 e a coluna 𝐵 são as
componentes do vetor 𝑣 em relação ao qual pretendemos verificar se ele é ou
não combinação linear dos vetores dados;

2- Com operações elementares com as linhas da matriz ampliada, colocamos a


matriz em escada e comparamos as características de 𝐴 e de [𝐴 | 𝐵];

3- Se car(𝐴)= car(𝐴|𝐵) então o sistema é possível e nesse caso concluímos que o


vetor 𝑣 é combinação linear dos vetores 𝑣1 , 𝑣2 , …, 𝑣𝑛 . Caso aconteça
car(𝐴)<car(𝐴|𝐵) então o sistema é impossível e nesse caso concluímos que o
vetor 𝑣 não é combinação linear dos vetores 𝑣1 , 𝑣2 , …, 𝑣𝑛 .

5.3. Conjunto de vetores linearmente independente ou linearmente dependente

Nesta secção vamos dar duas definições; a definição de vetores linearmente


independentes e a de vetores linearmente dependentes. Assim temos:

Definição: Um conjunto de vetores 𝑣1 , 𝑣2 , …, 𝑣𝑛 de um espaço vetorial 𝐸 diz-se


linearmente independente se a seguinte implicação é verdadeira:

𝛼1 𝑣1 + 𝛼2 𝑣2 + ⋯ + 𝛼𝑛 𝑣𝑛 = 0𝐸 ⟹ 𝛼𝑖 = 0, para 𝑖 = 1, 2, … , 𝑛 (*)

Podemos ainda dizer que um conjunto de vetores é linearmente independente se


nenhum dos vetores do conjunto se pode exprimir como combinação linear dos
restantes.
Um conjunto de vetores que não é linearmente independente, diz-se linearmente
dependente.

Vamos dar alguns exemplos para verificar se um determinado conjunto de vetores é ou


não linearmente independente.

EXEMPLO 51

Diga se os vetores 𝑣1 = (0, 3), 𝑣2 = (1, 1) são ou não linearmente independentes. Para
resolvemos este problema e encontrarmos uma resposta, teremos de verificar se é ou
não verdadeira a implicação acima referida (*).

Então temos:

𝛼1 𝑣1 + 𝛼2 𝑣2 = (0, 0) ⇔ 𝛼1 (0, 3) + 𝛼2 (1, 1) = (0, 0) ⟺ (0, 3𝛼1 ) + (𝛼2 , 𝛼2 ) = (0, 0)


⟺ (𝛼2 , 3𝛼1 + 𝛼2 ) = (0, 0)

Agora dois vetores são iguais se as componentes forem iguais. Então vamos ter de
resolver um sistema de duas equações e duas incógnitas que é o seguinte:

𝛼2 = 0
{
3𝛼1 + 𝛼2 = 0

Resolvendo este sistema concluímos que se trata de um sistema possível determinado,


portanto tem uma única solução que não é mais do que 𝛼1 = 0 e 𝛼2 = 0. Assim
concluímos que todos os escalares são nulos e, por conseguinte, os vetores são
linearmente independentes.

EXEMPLO 52

Diga se os vetores 𝑣1 = (0, 3), 𝑣2 = (0, 6) são ou não linearmente independentes. Para
resolvemos este problema e encontrarmos uma resposta, teremos de verificar se é ou
não verdadeira a implicação acima referida (*).

Então temos:

𝛼1 𝑣1 + 𝛼2 𝑣2 = (0, 0) ⇔ 𝛼1 (0, 3) + 𝛼2 (0, 6) = (0, 0) ⟺ (0, 3𝛼1 ) + (0, 6𝛼2 ) = (0, 0)


⟺ (0, 3𝛼1 + 6𝛼2 ) = (0, 0)

Agora dois vetores são iguais se as componentes forem iguais. Então vamos ter de
resolver um sistema de duas equações e duas incógnitas que é o seguinte:
0=0
{
3𝛼1 + 6𝛼2 = 0

Resolvendo este sistema concluímos que se trata de um sistema possível


indeterminado, portanto, uma infinidade de soluções que não permite afirmar que a
única solução seja apenas 𝛼1 e 𝛼2 nulos. Assim concluímos que nem todos os escalares
são nulos e, por conseguinte, os vetores são linearmente dependentes.

EXEMPLO 53

Diga se os vetores 𝑣1 = (0, 3, 2), 𝑣2 = (1, 1, 1) são ou não linearmente independentes.


Para resolvemos este problema e encontrarmos uma resposta, teremos de verificar se
é ou não verdadeira a implicação acima referida (*).

Então temos:

𝛼1 𝑣1 + 𝛼2 𝑣2 = (0, 0, 0) ⇔ 𝛼1 (0, 3, 2) + 𝛼2 (1, 1, 1) = (0, 0, 0)


⟺ (0, 3𝛼1 , 2𝛼1 ) + (𝛼2 , 𝛼2 , 𝛼2 ) = (0, 0, 0)
⟺ (𝛼2 , 3𝛼1 + 𝛼2 , 2𝛼1 + 𝛼2 ) = (0, 0, 0)

Agora dois vetores são iguais se as componentes forem iguais. Então vamos ter de
resolver um sistema de três equações e duas incógnitas que é o seguinte:

𝛼2 = 0
{ 3𝛼1 + 𝛼2 = 0
2𝛼1 + 𝛼2 = 0

Resolvendo este sistema concluímos que se trata de um sistema possível determinado,


portanto, uma única solução que não é mais do que 𝛼1 = 0 e 𝛼2 = 0. Assim concluímos
que todos os escalares são nulos e, por conseguinte, os vetores são linearmente
independentes. Reparem que neste caso o número de equações do sistema é superior
ao número de incógnitas do sistema contrariamente ao que aconteceu no exemplo 51,
mas a conclusão é idêntica.

NOTA IMPORTANTE: Reparemos nas matrizes ampliadas dos sistemas de equações


lineares anteriormente considerados. Para o primeiro exemplo (ver EXEMPLO 51), a
0 1⋮ 0
matriz ampliada do sistema é a seguinte [𝐴 | 𝐵] = [ ]. Repara que as colunas da
3 1⋮0
matriz 𝐴 são exatamente os vetores 𝑣1 = (0, 3), 𝑣2 = (1, 1) considerados e a coluna dos
termos independentes é formada pelo vetor nulo do espaço vetorial que estamos a
considerar.

O mesmo se passa com o caso do segundo exemplo (ver EXEMPLO 52). Temos a matriz
0 0⋮ 0
ampliada [𝐴 | 𝐵] = [ ], onde as colunas de A são os vetores 𝑣1 = (0, 3), 𝑣2 =
3 6⋮0
(0, 6) e a coluna 𝐵 é o vetor nulo (0, 0).

Também no terceiro exemplo (ver EXEMPLO 53) a matriz ampliada é dada por [𝐴 | 𝐵] =
0 1⋮0
[3 1⋮0], sendo as colunas de A exatamente iguais às componentes dos vetores
2 1⋮0
considerados no exemplo 9 e a coluna B é constituída pelo vetor nulo de ℝ3 .

_____________________________

Então podemos utilizar matrizes ampliadas de sistemas e todo o conhecimento que já


foi adquirido anteriormente para verificarmos se um determinado conjunto de vetores
é ou não linearmente independente.

Então suponhamos que pretendemos verificar se um determinado conjunto de vetores


𝑣1 , 𝑣2 , …, 𝑣𝑛 é ou não linearmente independente. Podemos resolver este problema
começando por:

1- Formar a matriz ampliada [𝐴 | 𝐵] do um sistema de equações lineares, cujas


colunas de 𝐴 são as componentes dos vetores 𝑣1 , 𝑣2 , …, 𝑣𝑛 e a coluna 𝐵 é
constituída pelo vetor 𝑛𝑢𝑙𝑜 do espaço vetorial considerado;

2- Com operações elementares com as linhas da matriz ampliada, colocamos a


matriz em escada e comparamos as características de 𝐴 e de [𝐴 | 𝐵];

3- Como neste caso o sistema é homogéneo, então car(𝐴)= car(𝐴|𝐵) e, portanto, o


sistema é sempre possível. A diferença vai estar no facto de ser determinado ou
indeterminado. Então se o sistema for possível determinado, concluímos que os
vetores 𝑣1 , 𝑣2 , …, 𝑣𝑛 são linearmente independentes. Caso aconteça que o
sistema seja possível indeterminado, nesse caso concluímos que os vetores 𝑣1 ,
𝑣2 , …, 𝑣𝑛 são linearmente dependentes.

5.4. Conjunto de vetores geradores de um dado espaço vetorial


Então comecemos pela definição formal de geradores de um espaço vetorial:

Definição: Dado um espaço vetorial 𝐸 e dados os vetores 𝑣1 , 𝑣2 , … , 𝑣𝑛 de 𝐸, dizemos


que os vetores 𝑣1 , 𝑣2 , … , 𝑣𝑛 são geradores de 𝐸, ou que os vetores 𝑣1 , 𝑣2 , … , 𝑣𝑛 geram
𝐸, se todo o vetor 𝑣 de 𝐸 é combinação linear dos vetores 𝑣1 , 𝑣2 , … , 𝑣𝑛 .

Quando os vetores 𝑣1 , 𝑣2 , … , 𝑣𝑛 forem geradores do espaço vetorial 𝐸, vamos


representar tal situação usando a seguinte notação

𝐸 =< 𝑣1 , 𝑣2 , … , 𝑣𝑛 >

Vamos dar alguns exemplos para verificar se determinados vetores são ou não
geradores do espaço vetorial dado.

EXEMPLO 54

Verifique se os vetores 𝑣1 = (0, 3), 𝑣2 = (1, 1) são ou não geradores de ℝ2 .

Então temos de ir verificar se todo o vetor 𝑣 de ℝ2 se pode escrever ou não como


combinação linear dos vetores dados. Então temos de ir verificar se existem ou não
escalares 𝛼1 e 𝛼2 tais que 𝑣 = 𝛼1 𝑣1 + 𝛼2 𝑣2 . Assim temos:

𝑣 = 𝛼1 𝑣1 + 𝛼2 𝑣2 ⇔ (𝑎, 𝑏) = 𝛼1 (0, 3) + 𝛼2 (1, 1) ⟺ (𝑎, 𝑏)


= (𝛼1 × 0, 𝛼1 × 3) + (𝛼2 × 1, 𝛼2 × 1)

⟺ (𝑎, 𝑏) = (0, 3𝛼1 ) + (𝛼2 , 𝛼2 ) ⟺ (𝑎, 𝑏) = (0 + 𝛼2 , 3𝛼1 + 𝛼2 ) ⟺ (𝑎, 𝑏)


= (𝛼2 , 3𝛼1 + 𝛼2 )

Agora dois vetores são iguais se as componentes forem iguais. Então vamos ter de
resolver um sistema de duas equações e duas incógnitas que é o seguinte:

𝛼2 = 𝑎
{3𝛼 + 𝛼 = 𝑏
1 2

Resolvendo este sistema concluímos que se trata de um sistema possível determinado,


𝑏−𝑎
sendo a solução única e dada por 𝛼1 = e 𝛼2 = 𝑎.
3

Então mostramos assim que o vetor 𝑣 = (𝑎, 𝑏) é combinação linear dos vetores 𝑣1 =
(0, 3), 𝑣2 = (1, 1), sejam quais forem os valores que 𝑎 e 𝑏 venham a tomar. Logo
concluímos que os vetores 𝑣1 = (0, 3), 𝑣2 = (1, 1) são geradores do espaço vetorial ℝ2 .
Podemos então escrever que ℝ2 =< 𝑣1 , 𝑣2 >.

EXEMPLO 55

Verifique se os vetores 𝑣1 = (0, 3), 𝑣2 = (0, 6) são ou não geradores de ℝ2 .

Então temos de ir verificar se todo o vetor 𝑣 de ℝ2 se pode escrever ou não como


combinação linear dos vetores dados. Então temos de ir verificar se existem ou não
escalares 𝛼1 e 𝛼2 tais que 𝑣 = 𝛼1 𝑣1 + 𝛼2 𝑣2 . Assim temos:

𝑣 = 𝛼1 𝑣1 + 𝛼2 𝑣2 ⇔ (𝑎, 𝑏) = 𝛼1 (0, 3) + 𝛼2 (0, 6) ⟺ (𝑎, 𝑏)


= (𝛼1 × 0, 𝛼1 × 3) + (𝛼2 × 0, 𝛼2 × 6)

⟺ (𝑎, 𝑏) = (0, 3𝛼1 ) + (0, 6𝛼2 ) ⟺ (𝑎, 𝑏) = (0 + 0, 3𝛼1 + 6𝛼2 ) ⟺ (𝑎, 𝑏)


= (0, 3𝛼1 + 6𝛼2 )

Agora dois vetores são iguais se as componentes forem iguais. Então vamos ter de
resolver um sistema de duas equações e duas incógnitas que é o seguinte:

0=𝑎
{
3𝛼1 + 6𝛼2 = 𝑏

Resolvendo este sistema concluímos que se trata de um sistema possível só para alguns
casos, que é o caso em que 𝑎 = 0. Mas o espaço vetorial ℝ2 tem vetores cuja primeira
componente não é igual a zero. Então nem todo o vetor 𝑣 = (𝑎, 𝑏) de ℝ2 se pode
escrever como combinação linear dos vetores 𝑣1 = (0, 3), 𝑣2 = (0, 6). Por exemplo, o
vetor 𝑣 = (1, 2) não se pode escrever como combinação linear dos vetores
considerados. Então concluímos que os vetores 𝑣1 = (0, 3), 𝑣2 = (0, 6) não são
geradores de ℝ2 .

EXEMPLO 56

Verifique se os vetores de ℝ2 dados por 𝑣1 = (0, 3), 𝑣2 = (1, 1) e 𝑣3 = (2, −1) são ou
não geradores de ℝ2 .

Então temos de ir verificar se todo o vetor 𝑣 de ℝ2 se pode escrever ou não como


combinação linear dos vetores dados. Então temos de ir verificar se existem ou não
escalares 𝛼1 , 𝛼2 e 𝛼3 tais que 𝑣 = 𝛼1 𝑣1 + 𝛼2 𝑣2 + 𝛼3 𝑣3 . Assim temos:
𝑣 = 𝛼1 𝑣1 + 𝛼2 𝑣2 + 𝛼3 𝑣3 ⇔ (𝑎, 𝑏) = 𝛼1 (0, 3) + 𝛼2 (1, 1) + 𝛼3 (2, −1)

⟺ (𝑎, 𝑏) = (𝛼1 × 0, 𝛼1 × 3) + (𝛼2 × 1, 𝛼2 × 1) + (𝛼3 × 2, 𝛼3 × (−1))

⟺ (𝑎, 𝑏) = (0, 3𝛼1 ) + (𝛼2 , 𝛼2 ) + (2𝛼3 , −𝛼3 ) ⟺ (𝑎, 𝑏)


= (0 + 𝛼2 + 2𝛼3 , 3𝛼1 + 𝛼2 − 𝛼3 )

⟺ (𝑎, 𝑏) = (𝛼2 + 2𝛼3 , 3𝛼1 + 𝛼2 − 𝛼3 )

Agora dois vetores são iguais se as componentes forem iguais. Então vamos ter de
resolver um sistema de duas equações e três incógnitas que é o seguinte:

𝛼2 + 2𝛼3 = 𝑎
{
3𝛼1 + 𝛼2 − 𝛼3 = 𝑏

Resolvendo este sistema concluímos que se trata de um sistema possível


𝑏−𝑎+3𝛼3
indeterminado, sendo a solução dada por 𝛼1 = e 𝛼2 = 𝑎 − 2𝛼3 , com 𝛼3 a
3

variável livre do sistema.

Então mostramos assim que o vetor 𝑣 = (𝑎, 𝑏) é combinação linear dos vetores 𝑣1 =
(0, 3), 𝑣2 = (1, 1) e 𝑣3 = (2, −1), mesmo sendo um sistema com uma infinidade de
soluções, ou seja, um sistema possível indeterminado. O sistema é sempre possível
sejam quais forem os valores que 𝑎 e 𝑏 venham a tomar. Logo concluímos que os vetores
𝑣1 = (0, 3), 𝑣2 = (1, 1) e 𝑣3 = (2, −1) são geradores do espaço vetorial ℝ2 . Podemos
então escrever que

ℝ2 =< 𝑣1 , 𝑣2 , 𝑣3 >.

EXEMPLO 57

Verifique se o vetor 𝑣1 = (1, 3) é ou não gerador de ℝ2 .

Então temos de ir verificar se todo o vetor 𝑣 de ℝ2 se pode escrever ou não como


combinação linear do vetor dado. Então temos de ir verificar se existe ou não o escalar
𝛼1 tal que 𝑣 = 𝛼1 𝑣1 . Assim temos:

𝑣 = 𝛼1 𝑣1 ⇔ (𝑎, 𝑏) = 𝛼1 (1, 3) ⟺ (𝑎, 𝑏) = (𝛼1 × 1, 𝛼1 × 3)

⟺ (𝑎, 𝑏) = (𝛼1 , 3𝛼1 )


Agora dois vetores são iguais se as componentes forem iguais. Então vamos ter de
resolver um sistema de duas equações e uma incógnita que é o seguinte:

𝛼1 = 𝑎
{3𝛼 = 𝑏
1

Resolvendo este sistema concluímos que se trata de um sistema impossível quando 𝑏


diferente de 3𝑎. Por exemplo, para 𝑎 = 1 e 𝑏 = 0, resultaria que 𝛼1 = 1 e também 𝛼1 =
0, o que é impossível acontecer. Então nem todo o vetor 𝑣 = (𝑎, 𝑏) de ℝ2 se pode
escrever como combinação linear do vetor 𝑣1 = (1, 3). Então concluímos que o vetor
𝑣1 = (1, 3) não é gerador de ℝ2 .

_____________________________________________________________________________

NOTA IMPORTANTE: Reparemos nas matrizes ampliadas dos sistemas de equações


lineares anteriormente considerados. Para o primeiro exemplo (ver EXEMPLO 54), a
0 1⋮ 𝑎
matriz ampliada do sistema é a seguinte [𝐴 | 𝐵] = [ ]. Repara que as colunas da
3 1⋮𝑏
matriz 𝐴 são exatamente os vetores 𝑣1 = (0, 3), 𝑣2 = (1, 1) considerados e a coluna dos
termos independentes é formada pelas componentes do vetor 𝑣 = (𝑎, 𝑏), em relação
ao qual pretendemos verificar se ele é ou não combinação linear dos vetores 𝑣1 e 𝑣2 ,
quaisquer que sejam os valores de 𝑎 e de 𝑏.

O mesmo se passa com o caso do segundo exemplo (ver EXEMPLO 55). Temos a matriz
0 0⋮ 𝑎
ampliada [𝐴 | 𝐵] = [ ], onde as colunas de A são os vetores 𝑣1 = (0, 3), 𝑣2 =
3 6⋮𝑏
(0, 6) e a coluna 𝐵 é constituída pelo vetor 𝑣 = (𝑎, 𝑏) quaisquer que sejam os valores
de 𝑎 e de 𝑏.

Também relativamente ao terceiro exemplo (ver EXEMPLO 56), temos a matriz ampliada
⋮𝑎
[𝐴 | 𝐵] = [0 1 2 ], onde as colunas de A são os vetores 𝑣1 = (0, 3), 𝑣2 = (1, 1)
3 1 −1 ⋮ 𝑏
e 𝑣3 = (2, −1) e a coluna B é constituída pelo vetor 𝑣 = (𝑎, 𝑏) quaisquer que sejam os
valores de 𝑎 e de 𝑏.

_____________________________________________________________________________

Então podemos utilizar matrizes ampliadas de sistemas e todo o conhecimento que já


foi adquirido anteriormente para verificarmos se determinados vetores são ou não
geradores de um espaço vetorial dado.
Então suponhamos que pretendemos verificar se os vetores 𝑣1 , 𝑣2 , …, 𝑣𝑛 são ou não
geradores de um espaço vetorial dado. Então consideramos um vetor 𝑣 genérico desse
espaço vetorial e vamos verificar se ele é ou não combinação linear dos vetores 𝑣1 , 𝑣2 ,
…, 𝑣𝑛 . Podemos resolver este problema começando por:

1- Formar a matriz ampliada [𝐴 | 𝐵] do sistema de equações lineares, cujas colunas


de 𝐴 são as componentes dos vetores 𝑣1 , 𝑣2 , …, 𝑣𝑛 e a coluna 𝐵 são as
componentes do vetor 𝑣 qualquer desse espaço vetorial em relação ao qual
pretendemos verificar se ele é ou não combinação linear dos vetores dados;

2- Com operações elementares com as linhas da matriz ampliada, colocamos a


matriz em escada e comparamos as características de 𝐴 e de [𝐴 | 𝐵];

3- Se car(𝐴)= car(𝐴|𝐵) para todo o vetor 𝑣 então o sistema é possível para


quaisquer componentes desse vetor 𝑣 e, nesse caso, concluímos que o vetor 𝑣
é combinação linear dos vetores 𝑣1 , 𝑣2 , …, 𝑣𝑛 . Concluímos então que os vetores
𝑣1 , 𝑣2 , …, 𝑣𝑛 são geradores do espaço vetorial considerado. Caso aconteça
car(𝐴)< car(𝐴|𝐵) para algum vetor 𝑣 , então o sistema não é possível para
quaisquer componentes desse vetor 𝑣 e nesse caso concluímos que o vetor 𝑣
não é combinação linear dos vetores 𝑣1 , 𝑣2 , …, 𝑣𝑛 . Concluímos então finalmente
que os vetores 𝑣1 , 𝑣2 , …, 𝑣𝑛 não são geradores do espaço vetorial considerado.

_____________________________________________________________________________

Convém também reparar nos EXEMPLOS 54 e 56 dados anteriormente. Se não deram


conta antes, o que se pretende que verifiquem é que em ambos, os vetores
considerados são geradores do mesmo espaço vetorial que é ℝ2 , só que o número de
geradores é diferente. No EXEMPLO 54, temos 2 geradores, enquanto no EXEMPLO 56,
temos 3 geradores. Além disso, os geradores considerados no EXEMPLO 54 estão
incluídos nos vetores considerados no EXEMPLO 56, ou seja, no EXEMPLO 56, temos os
dois vetores considerados no EXEMPLO 54 mais um outro vetor diferente.

Então podemos desde já apresentar um resultado importante quando de geradores se


tratar o problema a resolver e se a situação for adequada ao que a seguir se explicita:
Proposição 4: Seja 𝐸 um dado espaço vetorial e sejam 𝑣1 , 𝑣2 , …, 𝑣𝑛 geradores de 𝐸.
Então qualquer conjunto de vetores que contenha estes vetores dados, é também um
conjunto de geradores de 𝐸.

5.5. Base e dimensão de um dado espaço vetorial

Nesta secção vamos abordar os conceitos de base de um espaço vetorial e o de


dimensão de um espaço vetorial. Vamos ver que o primeiro destes conceitos está
relacionado com o de vetores linearmente independentes já abordado e com o de
geradores referido acima. Assim temos:

Definição: Um conjunto de vetores 𝑣1 , 𝑣2 , …, 𝑣𝑛 de um espaço vetorial 𝐸 diz-se uma


base se as seguintes propriedades são simultaneamente verdadeiras:

1- 𝑣1 , 𝑣2 , …, 𝑣𝑛 são geradores de 𝐸
2- 𝑣1 , 𝑣2 , …, 𝑣𝑛 são linearmente independentes em 𝐸

Vamos dar alguns exemplos para verificar se um determinado conjunto de vetores é ou


não uma base de um espaço vetorial.

EXEMPLO 58

Diga se os vetores 𝑣1 = (0, 3), 𝑣2 = (1, 1) são ou não uma base de ℝ2 . Para resolvemos
este problema e encontrarmos uma resposta, teremos de verificar se os vetores são ou
não geradores de ℝ2 e também se são ou não linearmente independentes. Comecemos
por ver se são ou não linearmente independentes.

Então temos:

0 1⋮ 0 ⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗ 3 1⋮ 0
[𝐴 | 𝐵] = [ ] 𝐿 ⟷ 𝐿2 [ ],
3 1⋮0 1 0 1⋮0

ou seja, car(𝐴) = car(𝐴|𝐵) = 2 = n.º de incógnitas do sistema, pelo que se trata de um


sistema possível determinado, portanto, uma única solução que não é mais do que
𝛼1 = 0 e 𝛼2 = 0. Assim concluímos que todos os escalares são nulos e, por conseguinte,
os vetores são linearmente independentes.
Agora vamos verificar se são ou não geradores de ℝ2 . Mas no exemplo 10 já verificamos
que eles são geradores de ℝ2 . Então podemos concluir que os vetores 𝑣1 = (0, 3), 𝑣2 =
(1, 1) constituem uma base de ℝ2 .

EXEMPLO 59

Diga se os vetores 𝑣1 = (0, 3), 𝑣2 = (0, 6) são ou não uma base de ℝ2 . Para resolvemos
este problema e encontrarmos uma resposta, teremos de verificar se os vetores são ou
não geradores de ℝ2 e também se são ou não linearmente independentes. Comecemos
por ver se são ou não linearmente independentes.

Então temos:

⋮ 3 6⋮ 0
[𝐴 | 𝐵] = [0 0 0] ⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗
𝐿1 ⟷ 𝐿2 [ ],
3 6⋮0 0 0⋮0

ou seja, car(𝐴) = car(𝐴|𝐵) = 1 ≠ n.º de incógnitas do sistema que é dois, pelo que se
trata de um sistema possível indeterminado, portanto, existe uma infinidade de
soluções que não permite afirmar que a única solução seja apenas 𝛼1 e 𝛼2 nulos. Assim
concluímos que nem todos os escalares são nulos e, por conseguinte, os vetores são
linearmente dependentes. Logo já não precisamos de ir verificar se são ou não
geradores de ℝ2 , pois já falharam uma das duas condições para serem uma base de um
espaço vetorial. Conclusão final, os vetores 𝑣1 = (0, 3), 𝑣2 = (0, 6) não constituem uma
base de ℝ2 . Mas de qualquer modo fica registada a informação de que os vetores 𝑣1 =
(0, 3), 𝑣2 = (0, 6) não são geradores de ℝ2 (Como vimos no EXEMPLO 55).

EXEMPLO 60

Diga se os vetores 𝑣1 = (0, 3, 2), 𝑣2 = (1, 1, 1) são ou não uma base de ℝ3 . Para
resolvemos este problema e encontrarmos uma resposta, teremos de verificar se os
vetores são ou não geradores de ℝ3 e também se são ou não linearmente
independentes. Comecemos por ver se são ou não linearmente independentes.

Então temos:

[𝐴 | 𝐵] =
0 1⋮0 2 1⋮0 2 1 ⋮0 2 1 ⋮0
𝐿1 ⟷ 𝐿3 [3 1⋮0] ⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗
[3 1⋮0] ⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗ 𝐿2 = 2𝐿2 − 3𝐿1 [0 −1⋮0] ⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗
𝐿3 = 𝐿3 + 𝐿2 [0 −1⋮0],
2 1⋮0 0 1⋮0 0 1 ⋮0 0 0 ⋮0
ou seja, car(𝐴) = car(𝐴|𝐵) = 2 = n.º de incógnitas do sistema, pelo que se trata de um
sistema possível determinado, portanto, uma única solução que não é mais do que
𝛼1 = 0 e 𝛼2 = 0. Assim concluímos que todos os escalares são nulos e, por conseguinte,
os vetores são linearmente independentes.

Vamos agora verificar se são ou não geradores de ℝ3 . Então temos

0 1⋮𝑎 2 1⋮ 𝑐 2 1⋮ 𝑐
[𝐴 | 𝐵] = [3 1⋮𝑏 ] ⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗ ⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗
𝐿1 ⟷ 𝐿3 [3 1⋮ ] 𝐿2 = 2𝐿2 − 3𝐿1 [0 −1⋮2𝑏 − 3𝑐 ]
𝑏
2 1⋮ 𝑐 0 1⋮𝑎 0 1⋮ 𝑎

2 1⋮ 𝑐
⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗
𝐿3 = 𝐿3 + 𝐿2 [0 −1⋮ 2𝑏 − 3𝑐 ],
0 0 ⋮𝑎 + 2𝑏 − 3𝑐

ou seja, car(𝐴) =2 sempre e car(𝐴|𝐵) depende dos valores de 𝑎, 𝑏 e 𝑐. Reparemos que


car(𝐴|𝐵)=2 se e só se 𝑎 + 2𝑏 − 3𝑐 = 0, pois caso contrário, car(𝐴|𝐵)=3. Então podemos
concluir que se trata de um sistema impossível, sempre que 𝑎 + 2𝑏 − 3𝑐 diferente de
zero. Por exemplo, para 𝑎 = 1, 𝑏 = 0 e 𝑐 = 2, resultaria na última equação 0 = −5, o
que é impossível acontecer. Então nem todo o vetor 𝑣 = (𝑎, 𝑏, 𝑐) de ℝ3 se pode
escrever como combinação linear dos vetores 𝑣1 = (0, 3, 2), 𝑣2 = (1, 1, 1). Então
concluímos que os vetores 𝑣1 = (0, 3, 2), 𝑣2 = (1, 1, 1) não são geradores de ℝ3 . Assim,
a conclusão será a de que os vetores 𝑣1 = (0, 3, 2), 𝑣2 = (1, 1, 1) não constituem uma
base de ℝ3 .

EXEMPLO 61

Verifique se os vetores de ℝ2 dados por 𝑣1 = (0, 3), 𝑣2 = (1, 1) e 𝑣3 = (2, −1) são ou
não uma base de ℝ2 . Para resolvemos este problema e encontrarmos uma resposta,
teremos de verificar se os vetores são ou não geradores de ℝ2 e também se são ou não
linearmente independentes. Comecemos por ver se são ou não geradores. O exemplo
56 mostra que estes vetores são geradores de ℝ2 . Falta então verificar se eles são ou
não linearmente independentes. Temos:

⋮ 3 1 −1 ⋮ 0
[𝐴 | 𝐵] = [0 1 2 0 ] ⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗
𝐿 ⟷ 𝐿2 [ ],
3 1 −1 ⋮ 0 1 0 1 2 ⋮0

ou seja, car(𝐴) = car(𝐴|𝐵) = 2 ≠ n.º de incógnitas do sistema que é 3, pelo que se trata
de um sistema possível indeterminado, sendo a solução dada por 𝛼1 = −𝛼3 e 𝛼2 =
−2𝛼3 , com 𝛼3 a variável livre do sistema. Então os vetores são linearmente
dependentes. Portanto, os vetores 𝑣1 = (0, 3), 𝑣2 = (1, 1) e 𝑣3 = (2, −1) não
constituem uma base de ℝ2 . Mas, gostaríamos de registar que estes vetores são
geradores de ℝ2 (ver o EXEMPLO 56).

________________________________

Seguidamente vamos apresentar um resultado importante relacionado com o conceito


de base de um espaço vetorial.

Proposição 5: Seja 𝐸 um dado espaço vetorial e suponhamos que os vetores 𝑣1 , 𝑣2 , …,


𝑣𝑛 constituem uma sua base. Então qualquer outra base de 𝐸 tem o mesmo número de
vetores e a esse número vamos chamar dimensão do espaço vetorial.

Então desta proposição e atendendo ao EXEMPLO 58, podemos desde já concluir que
qualquer base do espaço vetorial ℝ2 tem exatamente 2 vetores e a dimensão de ℝ2 é
igual a 2. A notação que vamos usar será dimℝ2 =2.

Então generalizando para os espaços vetoriais do tipo ℝ𝑛 , 𝑛 = 1, 2, 3, … podemos


concluir que qualquer base de ℝ𝑛 tem exatamente n vetores e dimℝ𝑛 =n. Com este
resultado, imediatamente concluíamos, sem qualquer verificação, que nos EXEMPLOS
60 e 61 não estávamos perante uma base, pois no caso do EXEMPLO 60 temos apenas
2 vetores em ℝ3 e no caso do EXEMPLO 61 temos 3 vetores em ℝ2 .

Um caso particular de base de um qualquer espaço vetorial é a chamada base canónica.


Assim, em ℝ𝑛 , 𝑛 = 1, 2, 3, … a base canónica é formada por n vetores que são os
seguintes:

𝑣1 = (1,0, … , 0 ); 𝑣2 = (0, 1, 0, … , 0); … , 𝑣𝑛 = (0, 0, … , 0, 1)

Por exemplo em ℝ2 , a base canónica é dada por 𝑏 = ((1, 0), (0, 1)); em ℝ3 , temos para
base canónica a base formada pelos vetores 𝑏 = ((1, 0, 0), (0, 1, 0), (0, 0, 1)) e assim
sucessivamente. Também podemos afirmar que dimℝ2 =2 e dimℝ3 =3.

Ainda relativamente a estes conceitos abordados até agora, temos mais um resultado
importante:

Proposição 6: Seja 𝐸 um dado espaço vetorial com dimensão igual a 𝑛. Então


1- O número mínimo de geradores de 𝐸 é igual a 𝑛.

2- O número máximo de vetores linearmente independentes é igual a 𝑛.

Então em ℝ𝑛 , 𝑛 = 1, 2, 3, … o número mínimo de geradores é n e o número máximo de


vetores linearmente independentes é n.

Agora vamos reparar no EXEMPLO 57 que só tem um vetor em ℝ2 para verificar se é ou


não um seu gerador. A resposta que encontramos foi que não o que é confirmado pela
proposição 3, pois o número mínimo de geradores em ℝ2 é 2 e neste exemplo só
tínhamos 1 vetor.

Agora vamos apresentar um resultado importante que facilitará a verificação de que


determinados vetores são ou não uma base de um espaço vetorial. Para tal basta
conhecermos a sua dimensão.

Proposição 7: Seja 𝐸 um dado espaço vetorial com dimensão igual a 𝑛 e consideremos


𝑛 vetores dados por 𝑣1 , 𝑣2 , …, 𝑣𝑛 de 𝐸 . Então as seguintes afirmações são equivalentes:

1- 𝑣1 , 𝑣2 , …, 𝑣𝑛 constituem uma base de 𝐸;

2- 𝑣1 , 𝑣2 , …, 𝑣𝑛 são geradores de 𝐸;

3- 𝑣1 , 𝑣2 , …, 𝑣𝑛 são vetores linearmente independentes em 𝐸 .

Então para mostrarmos que determinados 𝑛 vetores são ou não uma base de um espaço
vetorial de dimensão 𝑛, bastará então verificarmos se é ou não verdadeira ou a condição
2 ou a condição 3 da proposição anterior.

_____________________________________________________________________________

Sugestão de trabalho: Podem resolver o exercício 11 (página 47), os exercícios 13, 14,
15, 16 (página 48), os exercícios 27, 28, 29, 30 (página 50), os exercícios 34, 35, 38 b)
(página 51), o exercício 39 (página 52), os exercícios 47, 48, 51 a) (página 53), os
exercícios 53, 54, 55, 56, 57 a), b), c), d) (página 54), os exercícios 60, 61 (página 55), o
exercício 68 (página 56), o exercício 73 (página 57), os exercícios 84, 86 (página 59) da
Sebenta para consolidação destes conteúdos programáticos.

_____________________________________________________________________________

5.6. Coordenadas de um vetor em relação a uma base de um espaço vetorial


Anteriormente já foi abordado o conceito de base de um dado espaço vetorial. Ora uma
base não é mais do que um conjunto de vetores que são simultaneamente geradores e
linearmente independentes e que definem as direções de determinados eixos de um
determinado referencial em determinados espaços vetoriais. Ora se temos bases de um
espaço vetorial, temos vários referenciais representados por essas bases e então o
modo de identificar um determinado vetor em relação a cada uma dessas bases (a cada
um desses referenciais) é usar aquilo a que chamamos as suas coordenadas em relação
a cada uma das bases consideradas. Comecemos então por apresentar a definição
formal de coordenadas, recordando o que são e como se determinam as coordenadas
de um vetor em relação a uma base.

Então temos:

Definição: Dado um espaço vetorial 𝐸 e dada uma sua base, digamos 𝑏 =


{𝑣1 , 𝑣2 , … , 𝑣𝑛 }, dizemos que 𝛼1 , 𝛼2 , … , 𝛼𝑛 são as coordenadas do vetor 𝑣 de 𝐸 em
relação à base 𝑏 se

𝑣 = 𝛼1 𝑣1 + 𝛼2 𝑣2 + ⋯ + 𝛼𝑛 𝑣𝑛 .

Sendo b uma base essas coordenadas existem sempre e são únicas. (O sistema
correspondente a essa igualdade será sempre possível e determinado)

É usual indicar as coordenadas de um vetor em relação a uma base como sendo uma
matriz coluna, ou seja,

𝛼1
𝑋𝑏𝑣 =[ ⋮ ]
𝛼𝑛

representa então a matriz coluna das coordenadas de 𝑣 em relação à base 𝑏.

Vamos dar alguns exemplos para calcular as coordenadas de um dado vetor 𝑣 de um


dado espaço vetorial em relação a uma dada base desse mesmo espaço vetorial.

EXEMPLO 62

Considere o espaço vetorial ℝ2 e uma sua base dada por 𝑏 = {𝑣1 , 𝑣2 }. onde 𝑣1 =
(0, 3), 𝑣2 = (1, 1) e consideremos o vetor 𝑣 = (1,2) de ℝ2 . Determine as coordenadas
de 𝑣 em relação à base 𝑏.
Então temos de ir escrever o vetor 𝑣 de ℝ2 como combinação linear dos vetores dados
da base 𝑏. Assim temos:

𝑣 = 𝛼1 𝑣1 + 𝛼2 𝑣2 ⇔ (1,2) = 𝛼1 (0, 3) + 𝛼2 (1, 1) ⟺ (1, 2)


= (𝛼1 × 0, 𝛼1 × 3) + (𝛼2 × 1, 𝛼2 × 1)

⟺ (1, 2) = (0, 3𝛼1 ) + (𝛼2 , 𝛼2 ) ⟺ (1, 2) = (0 + 𝛼2 , 3𝛼1 + 𝛼2 ) ⟺ (1, 2)


= (𝛼2 , 3𝛼1 + 𝛼2 )

Agora dois vetores são iguais se as componentes forem iguais. Então vamos ter de
resolver um sistema de duas equações e duas incógnitas que é o seguinte:

𝛼2 = 1
{
3𝛼1 + 𝛼2 = 2

Resolvendo este sistema concluímos que se trata de um sistema possível determinado,


1
sendo a solução única e dada por 𝛼1 = 3 e 𝛼2 = 1.

Então mostramos assim que o vetor 𝑣 = (1, 2) é combinação linear dos vetores 𝑣1 =
(0, 3), 𝑣2 = (1, 1) e as suas coordenadas são representadas pela matriz coluna 𝑋𝑏𝑣 =
1
𝛼1
[𝛼 ] = [ 3 ].
2 1

EXEMPLO 63

Considere o espaço vetorial ℝ2 e uma sua base dada por 𝑏′ = {𝑢1 , 𝑢2 }. onde 𝑢1 =
(1, 3), 𝑢2 = (1, 1) e consideremos o mesmo vetor 𝑣 = (1,2) de ℝ2 dado no exemplo 1.
Determine agora as coordenadas desse mesmo vetor 𝑣 mas agora em relação à base 𝑏′.

Então temos de escrever o vetor 𝑣 de ℝ2 como combinação linear dos vetores dados
da base 𝑏′. Assim temos:

𝑣 = 𝛼1 𝑢1 + 𝛼2 𝑢2 ⇔ (1,2) = 𝛼1 (1, 3) + 𝛼2 (1, 1) ⟺ (1, 2)


= (𝛼1 × 1, 𝛼1 × 3) + (𝛼2 × 1, 𝛼2 × 1)

⟺ (1, 2) = (𝛼1 , 3𝛼1 ) + (𝛼2 , 𝛼2 ) ⟺ (1, 2) = (𝛼1 + 𝛼2 , 3𝛼1 + 𝛼2 ) ⟺ (1, 2)


= (𝛼1 + 𝛼2 , 3𝛼1 + 𝛼2 )

Agora dois vetores são iguais se as componentes forem iguais. Então vamos ter de
resolver um sistema de duas equações e duas incógnitas que é o seguinte:
𝛼1 + 𝛼2 = 1
{
3𝛼1 + 𝛼2 = 2

Resolvendo este sistema concluímos que se trata de um sistema possível determinado,


1 1
sendo a solução única e dada por 𝛼1 = 2 e 𝛼2 = 2.

Então mostramos assim que o vetor 𝑣 = (1, 2) é combinação linear dos vetores 𝑢1 =
𝑣
(1, 3), 𝑢2 = (1, 1) e as suas coordenadas são representadas pela matriz coluna 𝑋𝑏′ =
1
𝛼1
[𝛼 ] = [21].
2
2

_____________________________________________________________________________

NOTAS IMPORTANTES: Repare que o mesmo vetor 𝑣 tem coordenadas diferentes


consoante a base considerada. Em cada referencial representado por cada base tem o
mesmo vetor coordenadas distintas. Na base do EXEMPLO 62 as coordenadas são 𝑋𝑏𝑣 =
1
1
𝛼1 𝛼1
𝑣
[𝛼 ] = [ 3 ], enquanto na base do EXEMPLO 63 as coordenadas são 𝑋𝑏′ = [𝛼 ] = [21].
2 1 2
2

Além disso reparemos ainda nas matrizes ampliadas dos sistemas de equações lineares
anteriormente considerados. Para o primeiro exemplo (ver EXEMPLO 62), a matriz
0 1⋮ 1
ampliada do sistema é a seguinte [𝐴 | 𝐵] = [ ]. Repare que as colunas da matriz
3 1⋮2
𝐴 são exatamente os vetores 𝑣1 = (0, 3), 𝑣2 = (1, 1) da base considerada e a coluna
dos termos independentes é formada pelo vetor 𝑣 do espaço vetorial que estamos a
considerar e em relação ao qual pretendemos calcular as respetivas coordenadas em
relação à base formada por 𝑣1 e por 𝑣2 .

O mesmo se passa com o caso do segundo exemplo (ver EXEMPLO 63). Temos a matriz
1 1⋮ 1
ampliada [𝐴 | 𝐵] = [ ], onde as colunas de A são os vetores 𝑢1 = (1, 3), 𝑢2 =
3 1⋮2
(1, 1) e a coluna 𝐵 é o vetor 𝑣.

_____________________________________________________________________________

Então podemos utilizar matrizes ampliadas de sistemas e todo o conhecimento que já


foi adquirido anteriormente para calcularmos as coordenadas de um vetor em relação
a uma dada base.
Então suponhamos que pretendemos calcular as coordenadas de um determinado vetor
𝑣 em relação a uma dada base 𝑏 = {𝑣1 , 𝑣2 , …, 𝑣𝑛 } de um dado espaço vetorial. Podemos
resolver este problema começando por:

1- Formar a matriz ampliada [𝐴 | 𝐵] do sistema de equações lineares, cujas colunas


de 𝐴 são as componentes dos vetores 𝑣1 , 𝑣2 , …, 𝑣𝑛 e a coluna 𝐵 é constituída
pelo vetor 𝑣 do espaço vetorial considerado;

2- Com operações elementares com as linhas da matriz ampliada, colocamos a


matriz em escada e confirmamos que as características de 𝐴, de [𝐴 | 𝐵] e o
número de incógnitas são iguais (tal resulta do facto de b ser uma base);

3- Escrevemos o sistema correspondente à matriz em escada de linhas e


resolvemos o sistema começando da última para a primeira equação. A solução
que é única representa as coordenadas que pretendíamos calcular.

_____________________________________________________________________________

5.7. Subespaço vetorial de um dado espaço vetorial


Vamos introduzir um novo conceito que é o de subespaço vetorial de um dado espaço
vetorial. Temos a seguinte definição:

Definição: Dado um espaço vetorial 𝐸 de dimensão finita 𝑛 e consideremos um seu


subconjunto 𝑆. Dizemos que 𝑆 é um subespaço vetorial de 𝐸, se forem
simultaneamente verdadeiras as seguintes afirmações:

1- 𝑆 é um conjunto não vazio, isto é, temos a garantia que 𝑆 tem, pelo menos, um
elemento;

2- 𝑆 é fechado para a adição, isto é, para quaisquer vetores 𝑣1 e 𝑣2 pertencentes a


𝑆, então 𝑣1 + 𝑣2 ainda pertence a 𝑆;

3- 𝑆 é fechado para a multiplicação escalar, isto é, para qualquer vetor 𝑣


pertencente a 𝑆 e qualquer escalar 𝛼, então 𝛼𝑣 ainda pertence a 𝑆.

Vamos apresentar alguns exemplos de subespaços vetoriais e exemplos de conjuntos


que não são subespaço vetoriais.
EXEMPLO 64

Considere o espaço vetorial ℝ2 e nele os seguintes subconjuntos de vetores dados por

𝑆 = {(𝑥, 𝑦) ∈ ℝ2 : 𝑥 = 0} e 𝑇 = {(𝑥, 𝑦) ∈ ℝ2 : 𝑦 = 0}.

É fácil verificar que os vetores que pertencem a 𝑆 estão no eixo dos 𝑦 e que os vetores
que pertencem a 𝑇 estão no eixo dos 𝑥. Ora ambos os subconjuntos dados verificam as
três condições de subespaço vetorial registadas na definição 1. Por exemplo o vetor
(0,0) pertence a ambos, o que mostra que tanto 𝑆 como 𝑇 são conjuntos não vazios.
Também é fácil verificar que se somarmos dois quaisquer vetores de 𝑆 resulta ainda um
vetor que pertence na mesma a 𝑆, o que mostra que 𝑆 é fechado para a adição.
Finalmente a multiplicação de qualquer escalar por qualquer vetor de 𝑆 origina ainda
um vetor que pertence a 𝑆. Logo 𝑆 é um subespaço de ℝ2 . De modo análogo se conclui
que também 𝑇 é um subespaço vetorial de ℝ2 .

EXEMPLO 65

Considere o espaço vetorial ℝ2 e nele os seguintes subconjuntos de vetores dados por

𝑆 = {(𝑥, 𝑦) ∈ ℝ2 : 𝑥 = 𝑦} e 𝑇 = {(𝑥, 𝑦) ∈ ℝ2 : 𝑦 = 𝑥 − 2}.

Nestes casos, temos que 𝑆 é subespaço vetorial de ℝ2 enquanto 𝑇 não é subespaço


vetorial de ℝ2 . Os vetores de 𝑆 são da forma (𝑦, 𝑦) para qualquer valor de 𝑦 e, portanto,
(0,0) pertence a 𝑆, a soma de dois quaisquer vetores de 𝑆 continua a ser um vetor de 𝑆
e a multiplicação de um escalar qualquer por um vetor de 𝑆 é também um vetor de 𝑆.
No que diz respeito ao subconjunto 𝑇, se considerarmos os vetores 𝑣1 = (0, −2) e 𝑣2 =
(1, −1), ambos pertencem a 𝑇 pois verificam a condição de pertencer a este
subconjunto (𝑦 = 𝑥 − 2). No entanto, a soma deles 𝑣1 + 𝑣2 = (1, −3) não pertence a
𝑇 uma vez que não verifica a condição a que devem satisfazer os vetores de 𝑇(−3 ≠
1 − 2). Assim, 𝑇 não é um subespaço vetorial de ℝ2 uma vez que não satisfaz à condição
2 da definição 1 referida anteriormente.

5.8. Reunião, interseção e soma de subespaços vetoriais de um dado espaço


vetorial
Como se constata são vários os exemplos de subespaços vetoriais de um determinado
espaço vetorial. Não é nosso propósito aprofundar em demasia este conceito, mas será
apenas referenciada o modo como se determinam bases de subespaços vetoriais e ainda
como se comportam em relação à reunião, interseção e soma de dois ou mais
subespaços vetoriais do mesmo espaço vetorial.

Comecemos por relembrar os conceitos de reunião e de interseção de dois conjuntos.


Então se 𝑆 e 𝑇 forem dois conjuntos, a reunião de 𝑆 com 𝑇 é o conjunto

𝑆 ∪ 𝑇 = {𝑡𝑜𝑑𝑜𝑠 𝑜𝑠 𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑜𝑠 𝑞𝑢𝑒 𝑜𝑢 𝑒𝑠𝑡ã𝑜 𝑒𝑚 𝑆 𝑜𝑢 𝑒𝑠𝑡ã𝑜 𝑒𝑚 𝑇}.

Então relativamente aos conjuntos 𝑆 e 𝑇 dados no EXEMPLO 62, a sua reunião é dada
pelo conjunto

𝑆 ∪ 𝑇 = {𝑡𝑜𝑑𝑜𝑠 𝑜𝑠 𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑜𝑠 𝑞𝑢𝑒 𝑜𝑢 𝑒𝑠𝑡ã𝑜 𝑒𝑚 𝑆 𝑜𝑢 𝑒𝑠𝑡ã𝑜 𝑒𝑚 𝑇} = {(𝑥, 𝑦) ∈


ℝ2 : 𝑥 = 0 𝑜𝑢 𝑦 = 0},

que é constituído por todos os vetores dos eixos dos 𝑥 e dos 𝑦.

Figura 1: eixos dos 𝑥 e dos 𝑦9

9
Imagem retirada de
https://www.google.com/search?q=eixos+coordenados+x+e+y&rlz=1C1GCEA_enPT876PT876&sxsrf=AL
eKk02uzRwOpH-iZIO7QlR4MRgx-
Efd3A:1590854607395&source=lnms&tbm=isch&sa=X&ved=2ahUKEwjh_Iye-
9vpAhXeAmMBHeG8A2YQ_AUoAXoECAwQAw&biw=1600&bih=789#imgrc=ODRfEKO-
r2tq8M&imgdii=zZaRBC6rGhRpLM em 30 de maio de 2020.
Quanto à interseção de 𝑆 com 𝑇, ela não é mais do que o conjunto

𝑆 ∩ 𝑇 = {𝑡𝑜𝑑𝑜𝑠 𝑜𝑠 𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑜𝑠 𝑞𝑢𝑒 𝑒𝑠𝑡ã𝑜 𝑒𝑚 𝑆 𝑒 𝑒𝑚 𝑇 𝑠𝑖𝑚𝑢𝑙𝑡𝑎𝑛𝑒𝑎𝑚𝑒𝑛𝑡𝑒}

Então relativamente aos conjuntos 𝑆 e 𝑇 dados no EXEMPLO 62, a sua interseção é dada
pelo conjunto

𝑆 ∩ 𝑇 = {𝑡𝑜𝑑𝑜𝑠 𝑜𝑠 𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑜𝑠 𝑞𝑢𝑒 𝑒𝑠𝑡ã𝑜 𝑒𝑚 𝑆 𝑒 𝑒𝑚 𝑇 𝑠𝑖𝑚𝑢𝑙𝑡𝑎𝑛𝑒𝑎𝑚𝑒𝑛𝑡𝑒}

= {(𝑥, 𝑦) ∈ ℝ2 : 𝑥 = 0 𝑒 𝑦 = 0}

= {(0, 0)}

Figura 2: A origem dos eixos dos 𝑥 e dos 𝑦 10

Quando se trata de subespaços vetoriais, também se fala na soma de subespaços


vetoriais do mesmo espaço vetorial. Tal conjunto é definido do seguinte modo

𝑆+𝑇
= {𝑡𝑜𝑑𝑜𝑠 𝑜𝑠 𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑜𝑠 𝑞𝑢𝑒 𝑠𝑒 𝑜𝑏𝑡ê𝑚 𝑑𝑎 𝑠𝑜𝑚𝑎 𝑑𝑒 𝑢𝑚 𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑜 𝑑𝑒 𝑆 𝑐𝑜𝑚 𝑢𝑚 𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑜 𝑑𝑒 𝑇}

Então relativamente aos conjuntos 𝑆 e 𝑇 dados no EXEMPLO 62, a sua soma é dada pelo
conjunto

10
Imagem retirada de
https://www.google.com/search?q=+a+origem+dos+eixos+coordenados+x+e+y&tbm=isch&ved=2ahUK
EwjSq8-f-9vpAhUS_IUKHQXwDrAQ2-
cCegQIABAA&oq=+a+origem+dos+eixos+coordenados+x+e+y&gs_lcp=CgNpbWcQDDoECAAQHlCz-
QxYkpkNYOGnDWgAcAB4AIABVYgB3giSAQIxNJgBAKABAaoBC2d3cy13aXotaW1n&sclient=img&ei=0oPSX
tL6IpL4lwSF4LuACw&bih=789&biw=1600&rlz=1C1GCEA_enPT876PT876#imgrc=t41n4yu9_KgGeM em
30 de maio de 2020.
𝑆+𝑇 =
{𝑡𝑜𝑑𝑜𝑠 𝑜𝑠 𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑜𝑠 𝑞𝑢𝑒 𝑠𝑒 𝑜𝑏𝑡ê𝑚 𝑑𝑎 𝑠𝑜𝑚𝑎 𝑑𝑒 𝑢𝑚 𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑜 𝑑𝑒 𝑆 𝑐𝑜𝑚 𝑢𝑚 𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑜 𝑑𝑒 𝑇}
=ℝ2

Figura 3: Plano cartesiano e alguns dos seus elementos aí representados11

Então podemos desde já apresentar um resultado importante quando de subespaços


vetoriais se tratar.

Proposição 8: Seja 𝐸 um dado espaço vetorial de dimensão finita e consideremos dois


seus subespaços vetoriais 𝑆 e 𝑇. Então as seguintes afirmações são verdadeiras:

1- A dimensão de qualquer subespaço vetorial é menor ou igual à do espaço


vetorial;

2- 𝑆 ∩ 𝑇 é sempre um subespaço vetorial de 𝐸;

3- 𝑆 + 𝑇 é sempre um subespaço vetorial e 𝐸;

4- 𝑆 ∪ 𝑇 nem sempre é subespaço vetorial de 𝐸. 𝑆 ∪ 𝑇 é subespaço vetorial de 𝐸


se e só se 𝑆 ⊆ 𝑇 ou 𝑇 ⊆ 𝑆;

11
Imagem retirada de
https://www.google.com/search?q=O+plano+cartesiano&rlz=1C1GCEA_enPT876PT876&sxsrf=ALeKk03I
R3tEFbCmmydsYF8B7W10n_xvHA:1589067511388&source=lnms&tbm=isch&sa=X&ved=2ahUKEwiC8Kj
k-afpAhXIxIUKHQi2BFsQ_AUoAXoECBIQAw&biw=1600&bih=740#imgrc=yXMnn01Klk406M no dia 10 de
maio de 2020.
5- dim( 𝑆 + 𝑇) = dim(𝑆) + dim(𝑇) − dim( 𝑆 ∩ 𝑇). (também é conhecida por ser
a equação das dimensões)

_____________________________________________________________________________

⚫ Vamos só mostrar que nem sempre 𝑆 ∪ 𝑇 é subespaço vetorial de um espaço


vetorial dado.

EXEMPLO 66

Considere o espaço vetorial ℝ2 e nele os seguintes subespaços vetoriais dados no


EXEMPLO 64

𝑆 = {(𝑥, 𝑦) ∈ ℝ2 : 𝑥 = 0} e 𝑇 = {(𝑥, 𝑦) ∈ ℝ2 : 𝑦 = 0}.

Então os elementos de 𝑆 são os pontos que estão no eixo dos 𝑦 e os elementos de 𝑇 são
os pontos que estão no eixo dos 𝑥 como já tinha sido referido no exemplo 1. Ora
considerando os vetores 𝑣1 = (0, 2) e 𝑣2 = (1, 0), acontece que 𝑣1 está em 𝑆 e que 𝑣2
está em 𝑇. Então tanto 𝑣1 como 𝑣2 estão em 𝑆 ∪ 𝑇 . No entanto, o vetor 𝑣1 + 𝑣2 =
(1, 2) não está em 𝑆 ∪ 𝑇, porque nem está em 𝑆 nem está em 𝑇. Este exemplo mostra
que 𝑆 ∪ 𝑇 não é fechado para a adição e, portanto, não é um subespaço vetorial de ℝ2 .

No entanto, para este exemplo, 𝑆 ∩ 𝑇 é um subespaço vetorial de ℝ2 e é constituído


apenas por um elemento que é o vetor nulo, 𝑆 ∩ 𝑇 = {(0,0)} como já tínhamos referido
acima. Já agora o subespaço vetorial 𝑆 + 𝑇 = ℝ2 também como referido
anteriormente.

Muitos outros exemplos se poderiam dar para mostrar que a reunião de dois subespaços
vetoriais do mesmo espaço vetorial nem sempre é um subespaço vetorial.

_____________________________________________________________________________

⚫ Como calcular a interseção 𝑆 ∩ 𝑇 de dois subespaços vetoriais do mesmo espaço


vetorial

De seguida vamos abordar como calcular uma base da interseção de dois subespaços
vetoriais do mesmo espaço vetorial. Recordemos que base é um conjunto de vetores
que são geradores e linearmente independentes. O cálculo da interseção de dois
subespaços vetoriais reduz-se à resolução de um sistema de equações lineares cujas
equações são as condições a que devem satisfazer os elementos de cada um dos
subespaços vetoriais considerados. Então dados dois subespaços vetoriais 𝑆 e 𝑇 de um
mesmo espaço vetorial 𝐸, para calcular o subespaço 𝑆 ∩ 𝑇 temos de resolver um
sistema de equações do tipo

𝑐𝑜𝑛𝑑𝑖çõ𝑒𝑠 𝑎 𝑞𝑢𝑒 𝑠𝑎𝑡𝑖𝑠𝑓𝑎𝑧𝑒𝑚 𝑜𝑠 𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑜𝑠 𝑑𝑒 𝑆


{
𝑐𝑜𝑛𝑑𝑖çõ𝑒𝑠 𝑎 𝑞𝑢𝑒 𝑠𝑎𝑡𝑖𝑠𝑓𝑎𝑧𝑒𝑚 𝑜𝑠 𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑜𝑠 𝑑𝑒 𝑇

e a solução do sistema representa os vetores que pertencem à interseção dos


subespaços vetoriais em causa. A partir da solução do sistema é possível determinar
uma base (vetores da interseção que são geradores e linearmente independentes).

Vamos apresentar três exemplos para mostrar como se calcula a sua interseção. O
primeiro exemplo que vamos apresentar é um caso especial em que a base é vazia e a
dimensão do subespaço interseção é igual a zero. Quanto aos outros exemplos, já esta
situação não vai acontecer.

EXEMPLO 67

Considere o espaço vetorial ℝ2 e nele os seguintes subespaços vetoriais dados por

𝑆 = {(𝑥, 𝑦) ∈ ℝ2 : 𝑥 + 𝑦 = 0} e 𝑇 = {(𝑥, 𝑦) ∈ ℝ2 : 𝑥 + 5𝑦 = 0}.

Para calcularmos a interseção, vamos então considerar o sistema seguinte:

𝑐𝑜𝑛𝑑𝑖çõ𝑒𝑠 𝑎 𝑞𝑢𝑒 𝑠𝑎𝑡𝑖𝑠𝑓𝑎𝑧𝑒𝑚 𝑜𝑠 𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑜𝑠 𝑑𝑒 𝑆 𝑥+𝑦 =0


{ ⇔{
𝑐𝑜𝑛𝑑𝑖çõ𝑒𝑠 𝑎 𝑞𝑢𝑒 𝑠𝑎𝑡𝑖𝑠𝑓𝑎𝑧𝑒𝑚 𝑜𝑠 𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑜𝑠 𝑑𝑒 𝑇 𝑥 + 5𝑦 = 0

Trata-se de um sistema homogéneo e, portanto, de um sistema possível e cuja matriz


1 1⋮ 0 ⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗ 1 1⋮ 0
ampliada é a seguinte [ ] 𝐿 → 𝐿2 − 𝐿1 [ ], da qual resulta que
1 5⋮0 2 0 4⋮0
𝑥+𝑦 =0 𝑥+𝑦 =0 𝑥=0
{ ⇔{ ⇔{ . Então neste caso a interseção é apenas
4𝑦 = 0 𝑦=0 𝑦=0
constituída por um único vetor que é o vetor nulo de ℝ2 , 𝑣 = (0,0). Ora se a seguir
pedíssemos uma base da interseção que acabamos de calcular, responderíamos que a
base é vazia e que a 𝑑𝑖𝑚(𝑆 ∩ 𝑇 ) = 0.

EXEMPLO 68

Considere o espaço vetorial ℝ3 e nele os seguintes subespaços vetoriais dados por


𝑆 = {(𝑥, 𝑦, 𝑧) ∈ ℝ3 : 𝑥 + 𝑦 + 𝑧 = 0 ∧ 2𝑧 = 0} e 𝑇 = {(𝑥, 𝑦) ∈ ℝ3 : 2𝑥 + 2𝑦 + 2𝑧 = 0 }.

Para calcularmos a interseção, vamos então considerar o sistema seguinte:

𝑐𝑜𝑛𝑑𝑖çõ𝑒𝑠 𝑎 𝑞𝑢𝑒 𝑠𝑎𝑡𝑖𝑠𝑓𝑎𝑧𝑒𝑚 𝑜𝑠 𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑜𝑠 𝑑𝑒 𝑆


{
𝑐𝑜𝑛𝑑𝑖çõ𝑒𝑠 𝑎 𝑞𝑢𝑒 𝑠𝑎𝑡𝑖𝑠𝑓𝑎𝑧𝑒𝑚 𝑜𝑠 𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑜𝑠 𝑑𝑒 𝑇

Então neste caso o sistema considerado é o seguinte:

𝑥+𝑦+𝑧 =0
{ 2𝑧 = 0
2𝑥 + 2𝑦 + 2𝑧 = 0

Resolvendo o sistema pelo método de eliminação de Gauss, obtemos neste caso o


seguinte:

1 1 1 ⋮0 1 1 1 ⋮0
[0 0 2⋮0] ⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗
𝐿3 → 𝐿3 − 2𝐿1 [0 0 2⋮0],
2 2 2⋮0 0 0 0⋮0

ou seja,

𝑥+𝑦+𝑧=0 𝑥+𝑦+𝑧 =0 𝑥+𝑦 =0 𝑥 = −𝑦


{ ⇔{ ⇔{ ⇔{ , com 𝑦 uma variável
2𝑧 = 0 𝑧=0 𝑧=0 𝑧=0
livre.

Então 𝑆 ∩ 𝑇 = {(𝑥, 𝑦, 𝑧) ∈ ℝ3 : 𝑥 = −𝑦 ∧ 𝑧 = 0}. Agora para calcularmos uma base de


𝑆 ∩ 𝑇 teremos de encontrar potenciais geradores deste subespaço vetorial. Então
temos de proceder do seguinte modo:

(𝑥, 𝑦, 𝑧) ∈ 𝑆 ∩ 𝑇 ⇔ (−𝑦, 𝑦, 0) = 𝑦(−1,1,0), com 𝑦 uma variável livre.

Logo qualquer vetor de 𝑆 ∩ 𝑇 se escreve como combinação linear do vetor (−1,1,0),


ou seja, este vetor é gerador de 𝑆 ∩ 𝑇. Como é único e não é o vetor nulo, então este
vetor é linearmente independente e, portanto, constitui uma base de 𝑆 ∩ 𝑇. Podemos
então concluir que 𝑏 = ((−1,1,0)) é uma base de 𝑆 ∩ 𝑇 e dim(𝑆 ∩ 𝑇) = 1.

EXEMPLO 69

Considere o espaço vetorial ℝ3 e nele os seguintes subespaços vetoriais dados por

𝑆 = {(𝑥, 𝑦, 𝑧) ∈ ℝ3 : 𝑥 + 𝑦 + 𝑧 = 0 } e 𝑇 = {(𝑥, 𝑦) ∈ ℝ3 : 2𝑥 + 2𝑦 + 2𝑧 = 0 }.

Para calcularmos a interseção, vamos então considerar o sistema seguinte:


𝑐𝑜𝑛𝑑𝑖çõ𝑒𝑠 𝑎 𝑞𝑢𝑒 𝑠𝑎𝑡𝑖𝑠𝑓𝑎𝑧𝑒𝑚 𝑜𝑠 𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑜𝑠 𝑑𝑒 𝑆
{
𝑐𝑜𝑛𝑑𝑖çõ𝑒𝑠 𝑎 𝑞𝑢𝑒 𝑠𝑎𝑡𝑖𝑠𝑓𝑎𝑧𝑒𝑚 𝑜𝑠 𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑜𝑠 𝑑𝑒 𝑇

Então neste caso o sistema considerado é o seguinte:

𝑥+𝑦+𝑧 = 0
{
2𝑥 + 2𝑦 + 2𝑧 = 0

Resolvendo o sistema pelo método de eliminação de Gauss, obtemos neste caso o


seguinte:

1 1 1 ⋮ 0 ⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗ 1 1 1 ⋮0
[ ] 𝐿 → 𝐿2 − 2𝐿1 [ ],
2 2 2 ⋮0 2 0 0 0 ⋮0

ou seja,

{𝑥 + 𝑦 + 𝑧 = 0 ⇔ {𝑥 = −𝑦 − 𝑧, com 𝑦 e 𝑧 duas variáveis livres.

Então 𝑆 ∩ 𝑇 = {(𝑥, 𝑦, 𝑧) ∈ ℝ3 : 𝑥 + 𝑦 + 𝑧 = 0 } = 𝑆 = 𝑇 = {(𝑥, 𝑦, 𝑧) ∈ ℝ3 : 𝑥 = −𝑦 −


𝑧 }. Agora para calcularmos uma base de 𝑆 ∩ 𝑇 teremos de encontrar potenciais
geradores deste subespaço vetorial. Então temos de proceder do seguinte modo:

(𝑥, 𝑦, 𝑧) ∈ 𝑆 ∩ 𝑇 ⇔ (−𝑦 − 𝑧, 𝑦, 𝑧) = (−𝑦, 𝑦, 0) + (−𝑧, 0, 𝑧) = 𝑦(−1,1,0) +


𝑧(−1, 0,1), com 𝑦 e 𝑧 duas variáveis livres.

Logo qualquer vetor de 𝑆 ∩ 𝑇 se escreve como combinação linear dos vetores (−1,1,0)
e (−1, 0,1), ou seja, estes vetores são geradores de 𝑆 ∩ 𝑇. Falta verificar se estes vetores
são linearmente independentes para serem uma base de 𝑆 ∩ 𝑇. Temos então de ver se
os vetores são linearmente independentes:

−1 −1⋮0 −1 −1⋮0 −1 −1⋮0


[1 ⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗ ⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗
0 ⋮0] 𝐿2 → 𝐿2 + 𝐿1 [ 0 −1⋮0] 𝐿3 → 𝐿3 + 𝐿2 [ 0 −1⋮0]
0 1 ⋮0 0 1 ⋮0 0 0 ⋮0

Concluímos que car(A)=car(A|B)=2= número de incógnitas = número de colunas de A, e


como o sistema é possível determinado, então concluímos que os vetores são
linearmente independentes.

Podemos então concluir que 𝑏 = ((−1,1,0); (−1, 0,1)) é uma base de 𝑆 ∩ 𝑇 e


dim(𝑆 ∩ 𝑇) = 2.
NOTA: Nos exemplos anteriores todos os subespaços foram dados através das condições
a que pertencem os seus elementos, mas podíamos ter dado os subespaços através dos
seus geradores. Se assim fosse teríamos de a partir dos geradores dados ir encontrar
a(s) condição(ões) a que pertencem os seus elementos.

_____________________________________________________________________________

⚫ Como calcular a soma 𝑆 + 𝑇 de dois subespaços vetoriais do mesmo espaço vetorial

De seguida vamos abordar como calcular uma base da soma de dois subespaços
vetoriais do mesmo espaço vetorial. Recordemos que base é um conjunto de vetores
que são geradores e linearmente independentes.

Se 𝑆 = 〈𝑈〉 e 𝑇 = 〈𝑉〉, onde U é um conjunto de geradores de S e V é um conjunto de


geradores de V, então

𝑆 + 𝑇 = 〈𝑈 ∪ 𝑉〉.

Se considerarmos uma matriz, onde os geradores de 𝑆 + 𝑇 serão as linhas dessa matriz,


efetuando operações elementares entre linhas as linhas obtidas continuam a ser
geradores de 𝑆 + 𝑇. Então dados dois subespaços vetoriais 𝑆 e 𝑇 de um mesmo espaço
vetorial 𝐸, para calcular o subespaço 𝑆 + 𝑇 temos de considerar uma matriz A do tipo

𝑔𝑒𝑟𝑎𝑑𝑜𝑟𝑒𝑠 𝑑𝑒 𝑆
𝐴=( )
𝑔𝑒𝑟𝑎𝑑𝑜𝑟𝑒𝑠 𝑑𝑒 𝑇

e car(A)=dim(𝑆 + 𝑇 ) e as linhas não totalmente nulas na forma final da matriz em


escada representam os vetores que pertencem à soma dos subespaços vetoriais em
causa e que são geradores e linearmente independentes. Também podemos considerar
para geradores da soma dos subespaços vetoriais considerados as linhas da matriz inicial
A que correspondem às linhas não totalmente nulas na forma final da matriz. Assim
temos muito facilmente uma base (vetores que são geradores e linearmente
independentes) do subespaço vetorial soma.

Vamos apresentar três exemplos para mostrar como se calcula a sua soma.

EXEMPLO 70

Considere o espaço vetorial ℝ2 e nele os seguintes subespaços vetoriais dados por


𝑆 = {(𝑥, 𝑦) ∈ ℝ2 : 𝑥 + 𝑦 = 0} e 𝑇 = {(𝑥, 𝑦) ∈ ℝ2 : 𝑥 + 5𝑦 = 0}

que são os que constam do EXEMPLO 65 anteriormente registado. Para calcularmos a


soma, vamos então em primeiro lugar encontrar os geradores de cada um dos
subespaços vetoriais. Assim temos:

Geradores de 𝑆: (𝑥, 𝑦) ∈ 𝑆 ⇔ (−𝑦, 𝑦) = 𝑦(−1, 1), com 𝑦 uma variável livre; então
concluímos que o vetor (−1, 1) é um gerador de 𝑆 e podemos escrever 𝑆 =< (−1, 1) >.

Geradores de 𝑇: (𝑥, 𝑦) ∈ 𝑇 ⇔ (−5𝑦, 𝑦) = 𝑦(−5, 1), com 𝑦 uma variável livre; então
concluímos que o vetor (−5, 1) é um gerador de 𝑆 e podemos escrever 𝑇 =<
(−5, 1) >.

Agora que já temos os geradores dos dois subespaços vetoriais, vamos formar a matriz
seguinte:

−1 1
𝐴=( ),
−5 1

cujas linhas de 𝐴 são os geradores dos subespaços vetoriais considerados. Vamos então
colocar a matriz na forma em escada de linhas e obtemos então neste caso que:

−1 1 ⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗ −1 1
𝐴=( ) 𝐿 → 𝐿2 − 5𝐿1 ( ),
−5 1 2 0 −4

o que significa que car(A)=2=dim(𝑆 + 𝑇) e os geradores para 𝑆 + 𝑇 poderão ser os


vetores que constituem as duas últimas linhas da matriz na forma em escada, ou as duas
linhas de A. Podemos então concluir que 𝑏 = ((−1,1); ( 0, −4)) é uma base de 𝑆 + 𝑇.
Como estamos em ℝ2 e a dimensão de 𝑆 + 𝑇 é exatamente igual à de ℝ2 , então
podemos concluir que 𝑆 + 𝑇 = ℝ2 .

EXEMPLO 71

Considere o espaço vetorial ℝ3 e nele os seguintes subespaços vetoriais dados por

𝑆 = {(𝑥, 𝑦, 𝑧) ∈ ℝ3 : 𝑥 − 𝑦 + 3𝑧 = 0} e 𝑇 =< (−6, 0,2) >.

Para calcularmos a soma, vamos então em primeiro lugar encontrar os geradores de 𝑆


uma vez que já nos dão conhecimento dos geradores de 𝑇. Assim temos:
Geradores de 𝑆: Notemos que 𝑥 − 𝑦 + 3𝑧 = 0 ⇔ 𝑥 = 𝑦 − 3𝑧. Assim temos (𝑥, 𝑦, 𝑧) ∈
𝑆 ⇔ (𝑦 − 3𝑧, 𝑦, 𝑧) = (𝑦, 𝑦, 0) + (−3𝑧, 0, 𝑧) = 𝑦(1, 1,0) + 𝑧(−3, 0,1), com 𝑦 e 𝑧 duas
variáveis livres; então concluímos que os vetores (1, 1, 0) e (−3, 0,1) são geradores de
𝑆 e podemos escrever 𝑆 =< (1, 1, 0); (−3, 0,1) >.

Agora que já temos os geradores dos dois subespaços vetoriais, vamos formar a matriz
seguinte:

1 1 0
𝐴 = (−3 0 1),
−6 0 2

cujas linhas de 𝐴 são os geradores dos subespaços vetoriais considerados, as duas


primeiras linhas são os geradores de 𝑆 e a última linha é o gerador de 𝑇. Vamos então
colocar a matriz na forma em escada de linhas e obtemos então neste caso que:

1 1 0 1 1 0 1 1 0
𝐴 = (−3 0 ⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗ ⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗
1) 𝐿2 → 𝐿2 + 3𝐿1 ( 0 3 1) 𝐿3 → 𝐿3 + 6𝐿1 (0 3 1)
−6 0 2 −6 0 2 0 6 2

1 1 0
⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗
𝐿3 → 𝐿3 − 2𝐿2 (0 3 1),
0 0 0

o que significa que car(A)=2=dim(𝑆 + 𝑇) e os geradores para 𝑆 + 𝑇 poderão ser os


vetores que constituem as duas primeiras linhas da matriz na forma em escada, ou as
duas primeiras linhas de A. Podemos então concluir que 𝑏 = ((1,1,0); (−3,0, 1)) é uma
base de 𝑆 + 𝑇. Podemos então concluir que 𝑆 + 𝑇=<(1,1,0); (−3,0, 1) >.

EXEMPLO 72

Considere o espaço vetorial ℝ2 e nele os seguintes subespaços vetoriais dados por

𝑆 =< (−6, 0) > e 𝑇 =< (−1, 0); (3,0) >.

Para calcularmos a soma, como já temos os geradores dos dois subespaços vetoriais,
vamos formar a seguinte matriz:

−6 0
𝐴 = [−1 0],
3 0
cujas linhas de 𝐴 são os geradores dos subespaços vetoriais considerados, a primeira
linha é o gerador de 𝑆 e as duas últimas linhas são os geradores de 𝑇. Vamos então
colocar a matriz na forma em escada de linhas e obtemos então neste caso que:

−6 0 −6 0 −6 0
𝐴 = [−1 ⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗ ⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗
0] 𝐿2 → 6𝐿2 − 𝐿1 [ 0 0] 𝐿3 → 2𝐿3 + 𝐿1 [ 0 0],
3 0 3 0 0 0

o que significa que car(A)=1=dim(𝑆 + 𝑇) e o gerador para 𝑆 + 𝑇 poderá ser o vetor que
constitui a primeira linha da matriz na forma em escada, ou a primeira linha de A que
neste caso são coincidentes. Podemos então concluir que 𝑏 = ((−6,0)) é uma base de
𝑆 + 𝑇. Podemos então concluir que 𝑆 + 𝑇=<(−6,0) >.

_____________________________________________________________________________

5.9. Soma Direta de Subespaços vetoriais de um dado espaço vetorial

Definição: Dois subespaços vetoriais de um mesmo espaço vetorial dizem-se em soma


direta quando a sua interseção for igual ao subespaço nulo.

Os subespaços vetoriais dos EXEMPLOS 64 e 65 estão em soma direta, uma vez que a
sua interseção é igual ao subespaço nulo.

_____________________________________________________________________________

Sugestão de trabalho: Podem resolver os exercícios 10 (página 47), 18, 19, 20, 22, 23
(página 49), 24, 25, 26 (página 50), 36, 37 (página 51), 40, 41, 42 (página 52), 44 (página
53), 64 (página 55), 65, 69 (página 56), 72, 74 (página 57) e 75, 77, 80 (página 58) da
Sebenta para consolidação deste conteúdo programático.

_____________________________________________________________________________

6. Capítulo - Aplicação linear

6.1. Aplicação linear


Vamos introduzir um novo conceito que é o de aplicação linear de um dado espaço
vetorial para o mesmo ou outro espaço vetorial sobre o mesmo corpo. Temos a seguinte
definição:

Definição: Dados dois espaços vetoriais 𝐸 e 𝐸′ de dimensão finita e consideremos uma


aplicação 𝑓: 𝐸 ⟶ 𝐸′. A 𝐸 costumamos chamar conjunto de partida de 𝑓 e a 𝐸′
costumamos chamar conjunto de chegada da aplicação 𝑓. Dizemos que 𝑓 é uma
aplicação linear (ou morfismo) de 𝐸 em 𝐸′, se forem simultaneamente verdadeiras as
seguintes afirmações:

1- 𝑓 preserva a adição, isto é, para quaisquer vetores 𝑣 e 𝑣′ de 𝐸 temos que


𝑓(𝑣 + 𝑣 ′ ) = 𝑓(𝑣) + 𝑓(𝑣´);

2- 𝑓 preserva a multiplicação escalar, isto é, para qualquer escalar 𝛼 e para


qualquer vetor 𝑣 de 𝐸 temos que 𝑓(𝛼𝑣) = 𝛼𝑓(𝑣).

Vamos apresentar um exemplo de uma aplicação linear e um exemplo de uma aplicação


não linear, ambas com o conjunto de partida igual ao conjunto de chegada.

EXEMPLO 73

Considere o espaço vetorial ℝ2 e a aplicação 𝑓: ℝ2 ⟶ ℝ2 definida por

𝑓(𝑣) = 𝑓(𝑥, 𝑦) = (𝑥 + 𝑦, 0).

É fácil verificar que a aplicação 𝑓 de ℝ2 em ℝ2 é uma aplicação linear. Comecemos


então por mostrar que é verificada a condição 1 da Definição 1. Consideremos então
dois quaisquer vetores 𝑣 = (𝑎, 𝑏) e 𝑣 ′ = (𝑐, 𝑑) de ℝ2 . Então temos:

𝑓(𝑣 + 𝑣 ′ ) = 𝑓(𝑎 + 𝑐, 𝑏 + 𝑑) = (𝑎 + 𝑐 + 𝑏 + 𝑑, 0) = (𝑎 + 𝑏, 0) + (𝑐 + 𝑑, 0) =
𝑓(𝑣) + 𝑓(𝑣´),

o que mostra que 𝑓 preserva a adição.

Mostremos agora que também é válida a condição 2 da Definição 1. Consideremos um


escalar 𝛼 qualquer e um vetor qualquer de ℝ2 , digamos 𝑣 = (𝑎, 𝑏). Então temos que:

𝑓(𝛼𝑣) = 𝑓(𝛼(𝑎, 𝑏)) = 𝑓(𝛼𝑎, 𝛼𝑏) = (𝛼𝑎 + 𝛼𝑏, 0) = 𝛼(𝑎 + 𝑏, 0) = 𝛼𝑓(𝑎, 𝑏) = 𝛼𝑓(𝑣),

o que mostra que 𝑓 preserva a multiplicação escalar. Logo como são verdadeiras as duas
condições da Definição 1, concluímos que 𝑓 é uma aplicação linear ou um morfismo.

EXEMPLO 74

Considere o espaço vetorial ℝ2 e a aplicação 𝑓: ℝ2 ⟶ ℝ2 definida por

𝑓(𝑣) = 𝑓(𝑥, 𝑦) = (𝑥 + 𝑦, 2𝑥 + 3).


É fácil verificar que a aplicação 𝑓 de ℝ2 em ℝ2 não é uma aplicação linear. Comecemos
então por mostrar que não é verificada a condição 1 da Definição anterior.
Consideremos então dois quaisquer vetores 𝑣 = (𝑎, 𝑏) e 𝑣 ′ = (𝑐, 𝑑) de ℝ2 . Então
temos:

𝑓(𝑣 + 𝑣 ′ ) = 𝑓(𝑎 + 𝑐, 𝑏 + 𝑑) = (𝑎 + 𝑐 + 𝑏 + 𝑑, 2(𝑎 + 𝑐) + 3) = (𝑎 + 𝑐 + 𝑏 +


𝑑, 2𝑎 + 2𝑐 + 3);

Por outro lado, temos

𝑓(𝑣) + 𝑓(𝑣´) = 𝑓(𝑎, 𝑏) + 𝑓(𝑐, 𝑑) = (𝑎 + 𝑏, 2𝑎 + 3) + (𝑐 + 𝑑, 2𝑐 + 3) = (𝑎 + 𝑏 +


𝑐 + 𝑑, 2𝑎 + 2𝑐 + 6),

o que mostra que 𝑓 não preserva a adição. Consideremos para 𝑣 = (1,2) e 𝑣 ′ = (−1,5)
de ℝ2 . Então temos:

𝑓(𝑣 + 𝑣 ′ ) = 𝑓(0,7) = (0 + 7, 2(0) + 3) = (7, 3);

Mas, por outro lado,

𝑓(𝑣) + 𝑓(𝑣´) = 𝑓(1,2) + 𝑓(−1,5) = (1 + 2, 2(1) + 3) + (−1 + 5, 2(−1) + 3) =


(3, 5) + (4,1) = (7,6),

o que mostra que 𝑓 não preserva a adição, pois 𝑓(𝑣 + 𝑣 ′ ) = (7, 3) ≠ (7,6) = 𝑓(𝑣) +
𝑓(𝑣´).

Notemos que a condição 2 da Definição anterior também não é válida para qualquer
escalar 𝛼 e para qualquer vetor 𝑣 = (𝑎, 𝑏) de ℝ2 . Mas mesmo que fosse, como falha a
condição 1 já não é aplicação linear.

_____________________________________________

Muitos outros exemplos se poderiam dar para verificar se uma dada aplicação é ou não
uma aplicação linear, mas tais exemplos/exercícios serão tratados nas aulas práticas
correspondentes.

_____________________________________________________________________________

6.2. Matriz de uma aplicação linear em relação a um par de bases


Vamos agora abordar um novo conceito que é o da matriz de uma aplicação linear em
relação a um par de bases (𝑏, 𝑏 ′ ). Vamos mostrar como podemos calcular essa matriz
que representará a aplicação linear que for considerada para o efeito. Apresentemos
então a definição correspondente a este tipo de matriz.

Definição: Dados dois espaços vetoriais 𝐸 e 𝐸′ de dimensão finita 𝑛 e 𝑚 respetivamente


e consideremos uma aplicação 𝑓: 𝐸 ⟶ 𝐸′. Consideremos duas suas bases, 𝑏1 =
(𝑣1 , 𝑣2 , … , 𝑣𝑛 ) de 𝐸 e 𝑏2 = (𝑢1 , 𝑢2 , … , 𝑢𝑚 ) de 𝐸′. Dizemos que

𝑎11 𝑎12 ⋯ 𝑎1𝑛


𝐴 = 𝑚(𝑓)𝑟𝑒𝑙(𝑏1 , 𝑏2 ) = [ ⋮ ⋱ ⋮ ]
𝑎𝑚1 𝑎𝑚2 ⋯ 𝑎𝑚𝑛

é a matriz da aplicação linear 𝒇 relativamente ao par de bases 𝒃𝟏 e 𝒃𝟐 se a primeira


coluna da matriz 𝐴 for constituída pelas coordenadas do vetor 𝑓(𝑣1) na base 𝑏2 , se a
segunda coluna da matriz 𝐴 for constituída pelas coordenadas do vetor 𝑓(𝑣2 ) na base
𝑏2 , se a terceira coluna da matriz 𝐴 for constituída pelas coordenadas do vetor 𝑓(𝑣3 ) na
base 𝑏2 , e assim sucessivamente. Então para determinarmos essa matriz 𝐴 =
𝑚(𝑓)𝑟𝑒𝑙(𝑏1 , 𝑏2 ) devemos proceder do seguinte modo:

1- Calcular as imagens por 𝑓 de todos os vetores da base 𝑏1 = (𝑣1 , 𝑣2 , … , 𝑣𝑛 ) (base


do conjunto de partida), ou seja, calculamos 𝑓(𝑣1 ), 𝑓(𝑣2 ), … , 𝑓(𝑣𝑛 ) usando a lei
de transformação da aplicação linear 𝑓;

2- Calcular a seguir as coordenadas de cada uma das imagens obtidas em 1 em


relação à base 𝑏2 = (𝑢1 , 𝑢2 , … , 𝑢𝑚 ) (base do conjunto de chegada), ou seja,
calculamos os escalares tais que:

𝛼1
𝑓(𝑣 )
𝑓(𝑣1 ) = 𝛼1 𝑢1 + 𝛼2 𝑢2 + ⋯ + 𝛼𝑚 𝑢𝑚 , o que permite calcular 𝑋𝑏2 1 = [ ⋮ ], que não é
𝛼𝑚
mais do que a primeira coluna da matriz 𝐴;

𝛽1
𝑓(𝑣2 )
𝑓(𝑣2 ) = 𝛽1 𝑢1 + 𝛽2 𝑢2 + ⋯ + 𝛽𝑚 𝑢𝑚 , o que permite calcular 𝑋𝑏2 = [ ⋮ ], que não é
𝛽𝑚
mais do que a segunda coluna da matriz 𝐴;


𝛾1
𝑓(𝑣 )
𝑓(𝑣𝑛 ) = 𝛾1 𝑢1 + 𝛾2 𝑢2 + ⋯ + 𝛾𝑚 𝑢𝑚 , o que permite calcular 𝑋𝑏2 𝑛 = [ ⋮ ], que não é
𝛾𝑚
mais do que a coluna 𝑛 da matriz 𝐴;

NOTA IMPORTANTE: o número de linhas da matriz 𝐴 = 𝑚(𝑓)𝑟𝑒𝑙(𝑏1 , 𝑏2 ) é sempre igual


à dimensão do conjunto de chegada e o número de colunas é igual à dimensão do
conjunto de partida.

Vamos dar alguns exemplos para calcular a matriz de uma aplicação linear em relação a
um par de bases (base do conjunto de partida e base do conjunto de chegada).

EXEMPLO 75

Consideremos a seguinte aplicação linear 𝑓: ℝ2 ⟶ ℝ2 definida por 𝑓(𝑥, 𝑦) = (𝑥 +


𝑦, 0) conforme foi apresentado no EXEMPLO 73. Consideremos o seguinte par de bases
𝑏1 = (𝑣1 , 𝑣2 ) e 𝑏2 = (𝑢1 , 𝑢2 ) de ℝ2 , sendo 𝑏1 = ((1,2); (0,5)) e 𝑏2 = ((−1, 3); (3,2)).
Vamos então calcular a matriz 𝐴 = 𝑚(𝑓)𝑟𝑒𝑙(𝑏1 , 𝑏2 ) e para isso temos de proceder do
seguinte modo:

1- Cálculo das imagens por 𝑓 de todos os vetores da base 𝑏1 = (𝑣1 , 𝑣2 ) do conjunto


de partida, ou seja,

𝑓(𝑣1 ) = 𝑓(1,2) = (1 + 2,0) = (3,0); 𝑓(𝑣2 ) = 𝑓(0,5) = (0 + 5,0) = (5,0);

2- Cálculo das coordenadas de cada imagem encontrada no passo 1 em relação à


𝑓(𝑣 ) 𝛼1
base 𝑏2 = (𝑢1 , 𝑢2 ) do conjunto de chegada, ou seja, 𝑋𝑏2 1 = [𝛼 ], que não é
2

𝑓(𝑣2 ) 𝛽1
mais do que a primeira coluna da matriz 𝐴; e ainda 𝑋𝑏2 =[ ], que não é mais
𝛽2
do que a segunda coluna da matriz 𝐴; neste caso a matriz 𝐴 terá duas linhas e
duas colunas. Calculemos então a primeira coluna e temos:

⚫ Coordenadas de 𝑓(𝑣1 ) = (3, 0) em relação à base 𝑏2

3⋮ 3 ⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗ −1 3 ⋮ 3
[𝐴 | 𝐵] = [−1 ] 𝐿 = 𝐿2 + 3𝐿1 [ ]
3 2⋮0 2 0 11 ⋮ 9
6
e, portanto, resolvendo o sistema, a solução encontrada é a seguinte 𝛼1 = − 11 e 𝛼2 =
6
9 (3,0) 𝛼1 −
, ou seja, 𝑋𝑏2 = [𝛼 ] = [ 11
9 ], que constitui a primeira coluna da matriz 𝐴;
11 2
11

⚫ Coordenadas de 𝑓(𝑣2 ) = (5, 0) em relação à base 𝑏2

⋮ −1 3 ⋮ 5
[𝐴 | 𝐵] = [−1 3 5] ⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗
𝐿2 = 𝐿2 + 3𝐿1 [ ]
3 2⋮0 0 11 ⋮ 15
10
e, portanto, resolvendo o sistema, a solução encontrada é a seguinte 𝛽1 = − 11 e 𝛽2 =
10
15 (5,0) 𝛽 − 11
, ou seja, 𝑋𝑏2 = [ 1 ] = [ 15 ], que constitui a segunda coluna da matriz 𝐴;
11 𝛽2
11

Então a matriz da aplicação linear 𝑓 em relação ao par de bases (𝑏1 , 𝑏2 ) é a seguinte


matriz:

6 10
− − 11
𝐴 = 𝑚(𝑓)𝑟𝑒𝑙(𝑏1 , 𝑏2 ) = [ 11
9 15].
11 11

Reparemos que dim(ℝ2 ) = 2 (conjunto de partida é igual ao conjunto de chegada) e,


portanto, neste caso a matriz é 2 × 2.

EXEMPLO 76

Consideremos a seguinte aplicação linear 𝑓: ℝ2 ⟶ ℝ3 definida por 𝑓(𝑥, 𝑦) = (𝑥 +


𝑦, 0, 2𝑦). Consideremos o seguinte par de bases 𝑏1 = (𝑣1 , 𝑣2 ) e 𝑏2 = (𝑢1 , 𝑢2 , 𝑢3 ) de
ℝ2 , sendo 𝑏1 = ((1,2); (0,5)) e 𝑏2 = ((−1, 3,0); (3,0,2); (0,1,1)). Vamos então
calcular a matriz 𝐴 = 𝑚(𝑓)𝑟𝑒𝑙(𝑏1 , 𝑏2 ) e para isso temos de proceder do seguinte modo:

1- Cálculo das imagens por 𝑓 de todos os vetores da base 𝑏1 = (𝑣1 , 𝑣2 ) do conjunto


de partida, ou seja,

𝑓(𝑣1 ) = 𝑓(1,2) = (1 + 2,0,2 × 2) = (3,0,4); 𝑓(𝑣2 ) = 𝑓(0,5) = (0 + 5,0,2 ×


5) = (5,0,10);
2- Cálculo das coordenadas de cada imagem encontrada no passo 1 em relação à
𝛼1
𝑓(𝑣1 )
(𝑢 ) 𝛼
base 𝑏2 = 1 , 𝑢2 , 𝑢3 do conjunto de chegada, ou seja, 𝑋𝑏2 = [ 2 ], que não
𝛼3
𝛽1
𝑓(𝑣2 )
é mais do que a primeira coluna da matriz 𝐴; e ainda 𝑋𝑏2 = [𝛽2 ], que não é
𝛽3
mais do que a segunda coluna da matriz 𝐴; neste caso a matriz 𝐴 terá três linhas
e duas colunas. Calculemos então a primeira coluna e temos:

⚫ Coordenadas de 𝑓(𝑣1 ) = (3,0,4) em relação à base 𝑏2

[𝐴 | 𝐵]
−1 3 0 ⋮3 −1 3 0⋮3 −1 3 0⋮ 3
=[ 3 0 1⋮0] ⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗
𝐿2 = 𝐿2 + 3𝐿1 [ 0 9 1⋮9] ⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗
𝐿3 = 9𝐿3 − 2𝐿2 [ 0 9 1⋮ 9 ]
0 2 1 ⋮4 0 2 1⋮4 0 0 7⋮18
6 5
e, portanto, resolvendo o sistema, a solução encontrada é a seguinte 𝛼1 = − 7 , 𝛼2 = 7
6
−7
𝛼1
18 (3,0,4) 5
e 𝛼3 = , ou seja, 𝑋𝑏2 𝛼
= [ 2] = , que constitui a primeira coluna da matriz 𝐴;
7 7
𝛼3 18
[ 7 ]

⚫ Coordenadas de 𝑓(𝑣2 ) = (5, 0,10) em relação à base 𝑏2

[𝐴 | 𝐵]
−1 3 0⋮ 5 −1 3 0⋮ 5 −1 3 0⋮ 5
=[ 3 0 1⋮ 0 ] ⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗
𝐿2 = 𝐿2 + 3𝐿1 [ 0 9 1⋮15] ⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗
𝐿3 = 9𝐿3 − 2𝐿2 [ 0 9 1⋮15]
0 2 1⋮10 0 2 1⋮10 0 0 7⋮60
20 5
e, portanto, resolvendo o sistema, a solução encontrada é a seguinte 𝛽1 = − , 𝛽2 = 7
7
20

𝛽1 7
60 (5,0,10) 5
e 𝛽3 = , ou seja, 𝑋𝑏2 = [𝛽2 ] = 7
, que constitui a segunda coluna da matriz
7
𝛽3 60
[ 7 ]
𝐴;

Então a matriz da aplicação linear 𝑓 em relação ao par de bases (𝑏1 , 𝑏2 ) é a seguinte


matriz:
6 20
−7 − 7
5 5
𝐴 = 𝑚(𝑓)𝑟𝑒𝑙(𝑏1 , 𝑏2 ) = 7 7
.
18 60
[ 7 7 ]

Reparemos que dim(ℝ2 ) = 2 (conjunto de partida) e que dim(ℝ3 ) = 3 (conjunto de


chegada) e, portanto, neste caso a matriz é 3 × 2.

_____________________________________________

Muitos outros exemplos se poderiam dar para calcular a matriz de uma aplicação linear
em relação a um par de bases, mas tais exemplos/exercícios serão tratados nas aulas
práticas correspondentes.

_____________________________________________________________________________

6.3. Núcleo e Imagem de uma aplicação linear


De seguida vamos abordar dois novos subespaços vetoriais que são o núcleo e a imagem
de uma dada aplicação linear. Comecemos pela definição de núcleo de uma aplicação
linear. Temos:

Definição: Dados dois espaços vetoriais 𝐸 e 𝐸′ de dimensão finita e consideremos uma


aplicação linear dada por 𝑓: 𝐸 ⟶ 𝐸′. Chamamos núcleo de 𝑓 ao subespaço vetorial de
𝐸 (conjunto de partida) definido por

𝑁𝑢𝑐𝑓 = {𝑣 ∈ 𝐸: 𝑓(𝑣) = 0𝐸′ },

onde 0𝐸′ representa o vetor nulo do conjunto de chegada.

Notemos que o cálculo do núcleo de uma aplicação linear reduz-se à resolução de um


sistema de equações lineares cuja solução representa os elementos que pertencem ao
núcleo dessa aplicação linear.

A seguir vamos apresentar a definição da Imagem de uma aplicação linear. Temos:

Definição: Dados dois espaços vetoriais 𝐸 e 𝐸′ de dimensão finita e consideremos uma


aplicação linear dada por 𝑓: 𝐸 ⟶ 𝐸′. Chamamos Imagem de 𝑓 ao subespaço vetorial
de 𝐸′ (conjunto de chegada) definido por

𝐼𝑚𝑓 = {𝑓(𝑣) ∈ 𝐸′: 𝑣 ∈ 𝐸},


ou seja, é o subespaço vetorial de 𝐸′ constituído por todas as imagens por 𝑓 de todos os
vetores de 𝐸.

Como tanto o núcleo como a imagem de uma aplicação linear constituem subespaço
vetoriais então podemos calcular a sua dimensão e também uma sua base. A próxima
proposição poderá ajudar nesse cálculo.

Proposição 9: Para qualquer aplicação linear 𝑓: 𝐸 ⟶ 𝐸′ são verdadeiras as seguintes


afirmações:

1- 𝑁𝑢𝑐𝑓 é um subespaço vetorial de 𝐸;

2- 𝐼𝑚𝑓 é um subespaço vetorial de 𝐸′;

3- dim(𝐸) = dim(𝑁𝑢𝑐𝑓 ) + dim(𝐼𝑚𝑓 ).

Vamos apresentar alguns exemplos para calcularmos o núcleo e a imagem de uma


aplicação linear.

EXEMPLO 77

Consideremos a aplicação linear do EXEMPLO 73, ou seja, 𝑓: ℝ2 ⟶ ℝ2 definida por

𝑓(𝑣) = 𝑓(𝑥, 𝑦) = (𝑥 + 𝑦, 0).

Vamos calcular o respetivo núcleo e a respetiva imagem. Temos então:

𝑁𝑢𝑐𝑓 = {𝑣 ∈ 𝐸: 𝑓(𝑣) = 0𝐸′ } = {(𝑥, 𝑦) ∈ ℝ2 : 𝑓(𝑥, 𝑦) = (0,0)} = {(𝑥, 𝑦) ∈


ℝ2 : (𝑥 + 𝑦, 0) = (0,0)}.

Então igualando os dois vetores de ℝ2 vamos obter:

𝑥+𝑦 =0 𝑥 = −𝑦
{ ⇔ {𝑦 𝑣𝑎𝑟𝑖á𝑣𝑒𝑙 𝑙𝑖𝑣𝑟𝑒
0=0

A solução deste sistema é o subespaço núcleo que pretendemos calcular. Assim temos:

(𝑥, 𝑦) ∈ 𝑁𝑢𝑐𝑓 ⟺ (−𝑦, 𝑦) = 𝑦(−1,1), com 𝑦 uma variável livre.

Então (−1, 1) é um gerador do 𝑁𝑢𝑐𝑓 e como é um único vetor não nulo, ele é
linearmente independente e como tal constitui uma base para o subespaço núcleo de
𝑓. Então 𝑁𝑢𝑐𝑓 =< (−1,1) > e dim 𝑁𝑢𝑐𝑓 = 1.
Vamos agora calcular a dimensão e uma base para o subespaço imagem de 𝑓. Usando a
Proposição 9 já podemos saber a dimensão da Imagem de 𝑓, pois já calculamos a
dimensão do núcleo de 𝑓. Então usando o item 3 da Proposição 9, obtemos que
dim(𝐼𝑚𝑓 )=dim(ℝ2 ) − dim(𝑁𝑢𝑐𝑓 ) ⟺ dim(𝐼𝑚𝑓 ) = 2 − 1 ⟺ dim(𝐼𝑚𝑓 ) = 1. Então já
sabemos que uma base para a Imagem de 𝑓 terá apenas um vetor. Calculemos então os
geradores de Imagem de 𝑓. Temos

𝑓(𝑣) = 𝑓(𝑥, 𝑦) = (𝑥 + 𝑦, 0) = (𝑥, 0) + (𝑦, 0) = 𝑥(1,0) + 𝑦(1,0)

Ora como os potenciais geradores que encontramos são iguais, temos apenas um
gerador que é o vetor (1,0), ou seja, 𝐼𝑚𝑓 =< (1,0) >. Este único gerador é um vetor
linearmente independente e, portanto, constitui uma base para a Imagem de 𝑓.

EXEMPLO 78

Consideremos a aplicação linear do EXEMPLO 76, ou seja, 𝑓: ℝ2 ⟶ ℝ3 definida por

𝑓(𝑣) = 𝑓(𝑥, 𝑦) = (𝑥 + 𝑦, 0, 2𝑦).

Vamos calcular o respetivo núcleo e a respetiva imagem. Comecemos desta vez pela
Imagem de 𝑓. Temos então:

𝐼𝑚𝑓 = {𝑓(𝑣) ∈ ℝ3 : 𝑣 ∈ ℝ2 } = { 𝑓(𝑣) = 𝑓(𝑥, 𝑦) = (𝑥 + 𝑦, 0, 2𝑦)},

e, então, 𝑓(𝑥, 𝑦) = (𝑥 + 𝑦, 0, 2𝑦) = (𝑥, 0,0) + (𝑦, 0,2𝑦) = 𝑥(1,0,0) + 𝑦(1,0,2), ou


seja, os vetores (1,0,0) e (1,0,2) são geradores da Imagem de 𝑓. Resta ver se estes
geradores são ou não linearmente independentes. Para tal vamos colocar os geradores
nas linhas de uma matriz 𝐴 e as linhas não totalmente nulas na sua forma em escada
são os vetores da base para a Imagem de 𝑓 e a característica dessa matriz é igual à
dimensão da Imagem de 𝑓. Consideremos então essa matriz

1 0 0 ⟶ 1 0 0
𝐴=( )𝐿 = 𝐿 − 𝐿 ( ).
1 0 2 2 2 1 0 0 2

Então car(𝐴)=2=dim(𝐼𝑚𝑓 ) e uma base para a imagem podem ser as duas linhas de 𝐴 ou
as duas linhas da matriz na forma em escada. Então 𝐼𝑚𝑓 =< (1,0,0); (1,0,2) >.

Para agora sabermos já qual é a dimensão do núcleo de 𝑓, vamos mais uma vez usar o
item 3 da Proposição 9 e temos que dim(𝑁𝑢𝑐𝑓 )=dim(ℝ2 ) − dim(𝐼𝑚𝑓 ) ⟺
dim(𝑁𝑢𝑐𝑓 ) = 2 − 2 ⟺ dim(𝑁𝑢𝑐𝑓 ) = 0. Então nem precisamos de efetuar mais
nenhum cálculo, pois se dim(𝑁𝑢𝑐𝑓 ) = 0 então significa que o núcleo de 𝑓 é constituído
apenas pelo vetor nulo do conjunto de partida que neste caso é ℝ2 . Então 𝑁𝑢𝑐𝑓 =
{(0,0)}.

Mas se pretendêssemos efetuar os cálculos para efetivamente determinar a dimensão


e uma base para o núcleo de 𝑓, procederíamos do seguinte modo:

𝑁𝑢𝑐𝑓 = {𝑣 ∈ ℝ2 : 𝑓(𝑣) = 0ℝ3 } = {(𝑥, 𝑦) ∈ ℝ2 : 𝑓(𝑥, 𝑦) = (0,0,0)} = {(𝑥, 𝑦) ∈


ℝ2 : (𝑥 + 𝑦, 0,2𝑦) = (0,0,0)}.

Então igualando os dois vetores de ℝ3 vamos obter:

𝑥+𝑦 =0 𝑥=0
{ ⟺{
2𝑦 = 0 𝑦=0

A solução deste sistema é o subespaço núcleo que pretendemos calcular. Assim temos
𝑁𝑢𝑐𝑓 = {(0,0)}. Então dim 𝑁𝑢𝑐𝑓 = 0 e dizemos que a base é vazia.

_____________________________________________________________________________

Quanto tratamos de aplicações é normal estudarmos se a aplicação considerada é ou


não injetiva, se é ou não sobrejetiva e se, consequentemente, será ou não bijetiva. Ora
neste contexto de aplicações lineares, vamos apresentar os nomes que são atribuídos
às aplicações lineares que são injetivas, sobrejetivas e bijetivas. Ainda faremos distinção
relativamente ao facto de o conjunto de partida ser ou não coincidente com o conjunto
de chegada. Assim, temos:

Definição: Uma aplicação linear 𝑓: 𝐸 ⟶ 𝐸′ diz-se um Monomorfismo se for injetiva;


será Epimorfismo se for sobrejetiva e será Isomorfismo se for bijetiva. No caso
particular de estarmos perante um Isomorfismo e ainda que o conjunto de partida seja
igual ao conjunto de chegada, então dizemos que estamos perante um Automorfismo.
Além disso, a aplicação linear será um endomorfismo caso o conjunto de partida seja
igual ao conjunto de chegada.

O seguinte resultado permite-nos, usando os subespaços núcleo e imagem da aplicação


linear, verificar se estamos perante uma aplicação injetiva, ou sobrejetiva, ou bijetiva.
Proposição 10: Para qualquer aplicação linear 𝑓: 𝐸 ⟶ 𝐸′ são verdadeiras as seguintes
afirmações:

1- 𝑁𝑢𝑐𝑓 = {0𝐸 } se e só se 𝑓 é monomorfismo;

2- 𝐼𝑚𝑓 = 𝐸′ se e só se 𝑓 é epimorfismo;

3- dim(𝐸′) = dim(𝐼𝑚𝑓 ) se e só se 𝑓 é epimorfismo;

4- dim(𝑁𝑢𝑐𝑓 ) = 0 se e só se 𝑓 é monomorfismo.

Aplicaremos este resultado à resolução de exercícios/problemas na aulas teórico-


práticas.

_____________________________________________________________________________

Sugestão de trabalho: Podem resolver o exercício 1 (página 65), os exercícios 7, 8, 9, 10,


11 (página 66), os exercícios 13, 14, 15, 17 (página 67), os exercícios 19, 20, 21 (página
68), os exercícios 25, 26 (página 69), os exercícios 29, 30, 31 (página 70), os exercícios
32, 33, 34, 35, 36 (página 71), os exercícios 37, 38 a) (página 72), o exercício 43 (página
73), os exercícios 48, 49, 50 (página 74) da Sebenta para consolidação destes conteúdos
programáticos.

_____________________________________________________________________________

6.4. Matriz de mudança de base num dado espaço vetorial


Ora a matriz de mudança de base que vamos abordar já de seguida vai permitir através
dela calcularmos as coordenadas de um dado vetor numa determinada base, sabendo
as coordenadas desse mesmo vetor em relação a uma outra base. Trata-se, portanto,
de olharmos para um vetor e identificá-lo em referenciais diferentes. Então a mudança
de um referencial para outro pode ser vista através daquilo a que vamos passar a chamar
de Matriz de Mudança de base, conceito que abordaremos de imediato.

Então comecemos pela definição formal de matriz de mudança de base num dado
espaço vetorial:

Definição: Dado um espaço vetorial 𝐸 de dimensão finita 𝑛 e dadas duas suas bases
distintas, 𝑏1 = {𝑣1 , 𝑣2 , … , 𝑣𝑛 } e 𝑏2 = {𝑢1 , 𝑢2 , … , 𝑢𝑛 }, dizemos que 𝑃𝑏1 ⟶𝑏2 =
𝑎11 𝑎12 ⋯ 𝑎1𝑛
[ ⋮ ⋱ ⋮ ] é a matriz de mudança da base 𝒃𝟏 para a base 𝒃𝟐 (ou matriz de
𝑎𝑛1 𝑎𝑛2 ⋯ 𝑎𝑛𝑛
passagem da base 𝑏1 para a base 𝑏2 ) se a primeira coluna da matriz 𝑃𝑏1 ⟶𝑏2 for
constituída pelas coordenadas do vetor 𝑣1 na base 𝑏2 , se a segunda coluna da matriz
𝑃𝑏1 ⟶𝑏2 for constituída pelas coordenadas do vetor 𝑣2 na base 𝑏2 , se a terceira coluna
da matriz 𝑃𝑏1 ⟶𝑏2 for constituída pelas coordenadas do vetor 𝑣3 na base 𝑏2 , e assim
sucessivamente.

Vamos dar alguns exemplos para calcular a matriz de mudança de uma base para outra
base de um dado espaço vetorial.

EXEMPLO 79

Considere o espaço vetorial ℝ2 e as bases consideradas nos exemplos 1 e 2, dadas por


𝑏 = {𝑣1 , 𝑣2 } e 𝑏′ = {𝑢1 , 𝑢2 }. onde 𝑣1 = (0, 3), 𝑣2 = (1, 1) e 𝑢1 = (1, 3), 𝑢2 = (1, 1).
Calculemos a matriz 𝑃𝑏⟶𝑏′ de mudança da base 𝑏 para a base 𝑏′. Temos então de
determinar as coordenadas de cada vetor da base 𝑏 em relação à base 𝑏′. Utilizando a
definição 1, obtemos:

⚫ Coordenadas de 𝑣1 = (0, 3) em relação à base 𝑏′

1⋮ 0 ⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗ 1 1 ⋮ 0
[𝐴 | 𝐵] = [1 ] 𝐿 = 𝐿2 − 3𝐿1 [ ]
3 1⋮3 2 0 −2 ⋮ 3

3 3 𝑣 𝛼1
e, portanto, a solução encontrada é a seguinte 𝛼1 = 2 e 𝛼2 = − 2, ou seja, 𝑋𝑏′1 = [𝛼 ] =
2
3
2
[ 3].
−2

⚫ Coordenadas de 𝑣2 = (1, 1) em relação à base 𝑏′

1⋮ 1 ⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗ 1 1⋮ 1
[𝐴 | 𝐵] = [1 ] 𝐿 = 𝐿2 − 3𝐿1 [ ]
3 1⋮1 2 0 −2 ⋮ −2

𝑣 𝛼1
e, portanto, a solução encontrada é a seguinte 𝛼1 = 0 e 𝛼2 = 1, ou seja, 𝑋𝑏′2 = [𝛼 ] =
2

0
[ ].
1
Então já temos todos os elementos necessários para formar a matriz de mudança de
base pretendida e neste caso vem:

3
0
2
𝑃𝑏⟶𝑏′ = [ 3 ].
−2 1

EXEMPLO 80

Considere o mesmo espaço vetorial ℝ2 e as mesmas bases consideradas no exemplo


anterior, dadas por 𝑏 = {𝑣1 , 𝑣2 } e 𝑏′ = {𝑢1 , 𝑢2 }. onde 𝑣1 = (0, 3), 𝑣2 = (1, 1) e 𝑢1 =
(1, 3), 𝑢2 = (1, 1). Calculemos a matriz 𝑄𝑏′⟶𝑏 de mudança da base 𝑏′ para a base 𝑏.
Temos então de determinar as coordenadas de cada vetor da base 𝑏′ em relação à base
𝑏. Mais uma vez, utilizando a definição 1, obtemos:

⚫ Coordenadas de 𝑢1 = (1, 3) em relação à base 𝑏

⋮ 3 1⋮ 3
[𝐴 | 𝐵] = [0 1 1] ⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗
𝐿1 ⟷ 𝐿2 [ ]
3 1⋮3 0 1⋮1

2 𝑣 𝛼1
e, portanto, a solução encontrada é a seguinte 𝛼1 = 3 e 𝛼2 = 1, ou seja, 𝑋𝑏′1 = [𝛼 ] =
2
2
[ 3 ].
1

⚫ Coordenadas de 𝑢2 = (1, 1) em relação à base 𝑏′

⋮ 3 1⋮ 1
[𝐴 | 𝐵] = [0 1 1] ⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗
𝐿1 ⟷ 𝐿2 [ ]
3 1⋮1 0 1⋮1

𝑣 𝛼1
e, portanto, a solução encontrada é a seguinte 𝛼1 = 0 e 𝛼2 = 1, ou seja, 𝑋𝑏′2 = [𝛼 ] =
2

0
[ ].
1

Então já temos todos os elementos necessários para formar a matriz de mudança de


base pretendida e neste caso vem:

2
0
𝑄𝑏′⟶𝑏 = [ 3 ].
1 1

_____________________________________________________________________________
NOTA IMPORTANTE: Façamos o produto das duas matrizes de mudança de base
3
0 2
0
2
encontradas nos exemplos 79 e 80, ou seja, 𝑃𝑏⟶𝑏′ × 𝑄𝑏′⟶𝑏 = [ 3 ] × [3 ]=
−2 1 1 1
3
1 0
2
0 0 1 0
[ ] = 𝐼2 e 𝑄𝑏′⟶𝑏 × 𝑃𝑏⟶𝑏′ = [ 3 ] × [ 23 ]=[ ] = 𝐼2 . Mais ainda vamos
0 1 1 1 −2 1 0 1

efetuar também os seguintes produtos 𝑃𝑏⟶𝑏′ × 𝑋𝑏𝑣 e ainda 𝑄𝑏′⟶𝑏 × 𝑋𝑏′


𝑣
. Então temos:

3 1 1
0 1 2
0
1
2 2
𝑃𝑏⟶𝑏′ × 𝑋𝑏𝑣 =[ 3
𝑣 𝑣
] × [ 3 ] = [1] = 𝑋𝑏′ e 𝑄𝑏′⟶𝑏 × 𝑋𝑏′ = [ 3 ] × [21] = [ 3 ] = 𝑋𝑏𝑣
−2 1 1 1 1 1
2 2

sendo o vetor 𝑣 aqui considerado o dos EXEMPLOS 77 e 78.

_____________________________________________________________________________

Então podemos desde já apresentar um resultado importante quando, não só de


matrizes de mudança de base se tratar, mas também das coordenadas de um dado vetor
em relação a bases distintas do mesmo espaço vetorial.

Proposição 11: Seja 𝐸 um dado espaço vetorial de dimensão finita 𝑛 e duas suas bases
distintas, 𝑏 = {𝑣1 , 𝑣2 , … , 𝑣𝑛 } e 𝑏′ = {𝑢1 , 𝑢2 , … , 𝑢𝑛 }. Sejam 𝑃𝑏⟶𝑏′ e 𝑄𝑏′⟶𝑏 as matrizes
de mudança da base 𝑏 para a base 𝑏′ e a de mudança da base 𝑏′ para a base 𝑏
respetivamente. Sejam 𝑋𝑏𝑣 e 𝑋𝑏′
𝑣
as matrizes coluna que representam as coordenadas de
um dado vetor 𝑣 em relação às bases 𝑏 e 𝑏′ respetivamente. Então as seguintes
afirmações são verdadeiras:

1- 𝑃𝑏⟶𝑏′ × 𝑄𝑏′⟶𝑏 = 𝑄𝑏′⟶𝑏 × 𝑃𝑏⟶𝑏′ = 𝐼𝑛 ;

2- As matrizes de mudança de base 𝑃𝑏⟶𝑏′ e 𝑄𝑏′⟶𝑏 são matrizes invertíveis, sendo


𝑃𝑏⟶𝑏′ = 𝑄𝑏′⟶𝑏 −1 e também 𝑄𝑏′⟶𝑏 = 𝑃𝑏⟶𝑏′ −1 ;

3- 𝑃𝑏⟶𝑏′ × 𝑋𝑏𝑣 = 𝑋𝑏′


𝑣 𝑣
e 𝑄𝑏′⟶𝑏 × 𝑋𝑏′ = 𝑋𝑏𝑣 .

_____________________________________________________________________________

Os próximos conceitos que vão ser introduzidos estão relacionados com o cálculo de
determinantes e ainda com a resolução de sistemas homogéneos. Terão uma grande
importância para a diagonalização de matrizes que será abordado na próxima aula
teórica. Tais conceitos são conhecidos por valores próprios (ou autovalores) e vetores
próprios (ou autovetores) que estão associados a cada um dos valores próprios da
matriz quadrada, caso existam.

6.5. Valores e vetores próprios de uma matriz quadrada


Então comecemos pela definição formal de polinómio característico de uma matriz
quadrada e a seguir apresentaremos a de valor próprio de uma matriz quadrada.

Definição: Dada uma matriz quadrada 𝐴 de ordem 𝑛, chama-se polinómio característico


de 𝐴 ao polinómio de grau 𝑛 dado pela expressão do seguinte determinante

|𝐴 − 𝑥𝐼𝑛 |.

À matriz 𝐴 − 𝑥𝐼𝑛 dá-se o nome de matriz característica de 𝐴 e ao seu determinante é


que chamamos polinómio característico de 𝐴 como foi referido anteriormente. O
coeficiente do termo deste polinómio de grau 𝑛 é (−1)𝑛 e o termo de grau zero é igual
ao 𝑑𝑒𝑡(𝐴).

Apresentemos alguns exemplos de seguida, onde vamos calcular o polinómio


característico de algumas matrizes quadradas.

EXEMPLO 81

2 1 1 1 5 −1
0 −1
Considere as matrizes 𝐴 = ( ), 𝐵 = [2 3 2] e 𝐶 = [ 0 −2 1 ].
1 0
3 3 4 −4 0 3
Calculemos o polinómio característico de cada uma destas matrizes. Assim temos:

|𝐴 − 𝑥𝐼2 | = |−𝑥 −1
| = 𝑥 2 + 1,
1 −𝑥

2−𝑥 1 1
|𝐵 − 𝑥𝐼3 | = | 2 3−𝑥 2 | = −(𝑥 − 1)2 (𝑥 − 7) = −𝑥 3 + 9𝑥 2 − 15𝑥 + 7
3 3 4−𝑥

1−𝑥 5 −1
|𝐶 − 𝑥𝐼3 | = | 0 −2 − 𝑥 1 | = (3 − 𝑥)(𝑥 − 2)(𝑥 + 3) = −𝑥 3 + 2𝑥 2 + 9𝑥 −
−4 0 3−𝑥
18.
Repara que a matriz 𝐴 é de ordem 2 e, portanto, o seu polinómio característico é de
grau 2. O coeficiente do termo de grau 2 é 1 = (−1)2 e o termo de grau zero é 1 =
𝑑𝑒𝑡(𝐴). De modo análogo, em relação à matriz 𝐵, sendo uma matriz de ordem 3, o seu
polinómio característico é de grau 3, o coeficiente do termo de grau 3 é −1 = (−1)3 e
o termo de grau zero é igual a 7 = 𝑑𝑒𝑡(𝐵). Também para a matriz 𝐶, temos que −1 =
(−1)3 é o valor do coeficiente do termo de grau 3 e −18 = 𝑑𝑒𝑡(𝐶) é o coeficiente do
termo de grau zero.

De seguida vamos apresentar a definição de valor próprio de uma matriz quadrada.


Temos então que:

Definição: Dada uma matriz quadrada 𝐴 de ordem 𝑛, chama-se valor próprio de 𝐴 ao


escalar 𝜆 tal que

|𝐴 − 𝜆𝐼𝑛 | = 0.

Repare que 𝜆 não é mais do que uma raiz do polinómio característico da matriz 𝐴. Ao
conjunto dos valores próprios de uma matriz quadrada 𝐴 dá-se o nome de espetro de 𝐴
e vamos representar esse conjunto por 𝑒𝑠𝑝(𝐴).

Tendo em conta as matrizes apresentadas no EXEMPLO 81, vamos então determinar os


respetivos valores próprios.

EXEMPLO 82

Considere as matrizes 𝐴, 𝐵 e 𝐶 dadas no exemplo anterior. Para estas matrizes vamos


calcular os seus valores próprios (caso existam). Temos:

Para a matriz 𝐴:

|𝐴 − 𝜆𝐼2 | = 0 ⇔ 𝜆2 + 1 = 0, uma equação impossível em ℝ

Para a matriz 𝐵:

|𝐵 − 𝜆𝐼3 | = 0 ⇔ −(𝜆 − 1)2 (𝜆 − 7) = 0 ⟺ 𝜆 = 1 ∨ 𝜆 = 7

Para a matriz 𝐶:

|𝐶 − 𝜆𝐼3 | = 0 ⇔ (3 − 𝜆)(𝜆 − 2)(𝜆 + 3) = 0 ⟺ 𝜆 = 3 ∨ 𝜆 = 2 ∨ 𝜆 = −3

Assim concluímos que:


- A matriz 𝐴 não tem valores próprios, ou seja, 𝑒𝑠𝑝(𝐴)=∅;

- A matriz 𝐵 tem dois valores próprios que são 1 e 7, ou seja, 𝑒𝑠𝑝(𝐵)={1, 7};

- A matriz 𝐶 tem três valores próprios que são −3, 2 e 3, ou seja, 𝑒𝑠𝑝(𝐶)={−3, 2, 3}.

_____________________________________________________________________________

Nota Importante:

Analisando o EXEMPLO 82, podemos desde já concluir neste contexto que para uma
qualquer matriz quadrada de ordem 𝑛, pode acontecer uma das seguintes situações:

- ou não tem valores próprios;

- ou tem no máximo 𝑛 valores próprios distintos;

- ou tem menos do que 𝑛 valores próprios, podendo haver neste caso repetição dos
valores próprios, ou seja, as raízes do polinómio característico não são todas raízes
simples.

As situações em que existem valores próprios estão relacionadas com o conceito de


multiplicidade algébrica de um valor próprio. Assim temos

Definição: Se o polinómio característico de uma matriz quadrada 𝐴 de ordem 𝑛 é dado


na sua forma fatorizada por

𝑑
|𝐴 − 𝑥𝐼𝑛 | = (−1)𝑛 (𝑥 − 𝜆1 )𝑎 (𝑥 − 𝜆2 )𝑏 (𝑥 − 𝜆3 )𝑐 … (𝑥 − 𝜆𝑝 ) ,

sendo 𝜆1 , 𝜆2 , 𝜆3 , …, 𝜆𝑝 valores próprios de 𝐴 com 𝑝 ≤ 𝑛, então chamamos aos


expoentes 𝑎, 𝑏, 𝑐, …, 𝑑, as multiplicidades algébricas de 𝜆1 , 𝜆2 , 𝜆3 , …, 𝜆𝑝 ,
respetivamente. Neste caso denotamos estas situações por

𝑚𝑎 (𝜆1 ) = 𝑎

𝑚𝑎 (𝜆2 ) = 𝑏

𝑚𝑎 (𝜆3 ) = 𝑐

.
.

𝑚𝑎 (𝜆𝑝 ) = 𝑑

Voltando a nossa atenção para o EXEMPLO 82, então podemos concluir que os valores
próprios 1 e 7 da matriz 𝐵 têm multiplicidades algébricas dadas por 2 e 1,
respetivamente e escrevemos 𝑚𝑎 (1) = 2 e 𝑚𝑎 (7) = 1. Já relativamente à matriz 𝐶,
temos que para os seus três valores próprios, temos que 𝑚𝑎 (−3) = 1, 𝑚𝑎 (2) = 1 e
𝑚𝑎 (3) = 1, uma vez que as raízes do seu polinómio característico são todas elas raízes
simples.
________________________________________________________________________

A seguir vamos apresentar a definição de vetor próprio de uma dada matriz quadrada
associado a um dado valor próprio dessa matriz.

Definição: Dada uma matriz quadrada 𝐴 de ordem 𝑛 e seja 𝜆 um seu valor próprio.
Chama-se vetor próprio (ou autovetor) de 𝐴 associado ao valor próprio 𝜆 ao vetor 𝑣 não
nulo que é solução do seguinte sistema homogéneo:

(𝐴 − 𝜆𝐼𝑛 )𝑣 = 0.

Este sistema homogéneo pela definição de valor próprio será sempre possível
indeterminado. Vamos representar o conjunto dos vetores próprios de uma dada matriz
quadrada 𝐴 de ordem 𝑛 associados a um dado valor próprio 𝜆 por

𝑉𝐴 (𝜆) = {𝑣 ∈ 𝐸: (𝐴 − 𝜆𝐼𝑛 )𝑣 = 0} \{𝑣𝑒𝑡𝑜𝑟 𝑛𝑢𝑙𝑜 𝑑𝑒 𝐸},

sendo 𝐸 o espaço vetorial que está a ser considerado.

Tendo em conta as matrizes apresentadas no EXEMPLO 81 e consequentemente tendo


também em atenção o que é referido no EXEMPLO 82, vamos então determinar os
vetores próprios das matrizes 𝐵 e 𝐶 associados a cada um dos valores próprios
calculados.

EXEMPLO 83

Considere as matrizes 𝐵 e 𝐶 dadas nos exemplos anteriores. Para estas matrizes vamos
calcular os seus vetores próprios associados a cada um dos valores próprios. Temos:
Para a matriz 𝐵:

Para 𝜆 = 1:

2 1 1 1 0 0 𝑎 0
(𝐵 − 𝐼3 )𝑣 = 0 ⟺ ([2 3 2] − [0 1 0]) (𝑏 ) = (0), o que vai origem a um
3 3 4 0 0 1 𝑐 0
sistema homogéneo de equações lineares e cuja solução não nula é exatamente igual
ao conjunto de vetores próprios procurados. Então obtemos neste caso o seguinte
sistema de equações lineares:

𝑎+𝑏+𝑐 =0
{2𝑎 + 2𝑏 + 2𝑐 = 0
3𝑎 + 3𝑏 + 3𝑐 = 0

Usando o Método de Eliminação de Gauss para resolver este sistema, temos

1 1 1|0 → 1 1 1|0
[𝐵|0] = [2 2 2|0] 𝐿2 → 𝐿2 − 2𝐿1 [0 0 0|0], dando origem a que {𝑎 + 𝑏 + 𝑐 =
3 3 3|0 𝐿3 → 𝐿3 − 3𝐿1 0 0 0|0
𝑎 = −𝑏 − 𝑐
0⟺{ 𝑏∈ℝ .
𝑐∈ℝ

Então os vetores próprios da matriz 𝐵 associados ao valor próprio 𝜆 = 1 são 𝑣 =


(−𝑏 − 𝑐, 𝑏, 𝑐), com 𝑏, 𝑐 não simultaneamente nulos, ou seja,

𝑉𝐵 (1) = {𝑣 ∈ ℝ3 : (𝐵 − 𝐼3 )𝑣 = 0} \{(0, 0, 0)}={(−𝑏 −


𝑐, 𝑏, 𝑐): 𝑏, 𝑐 não simultaneamente nulos}

Para 𝜆 = 7:

2 1 1 1 0 0 𝑎 0
(𝐵 − 7𝐼3 )𝑣 = 0 ⟺ ([2 3 2] − 7 [0 1 0]) (𝑏 ) = (0), o que vai origem a um
3 3 4 0 0 1 𝑐 0
sistema homogéneo de equações lineares e cuja solução não nula é exatamente igual
ao conjunto de vetores próprios procurados. Então obtemos neste caso o seguinte
sistema de equações lineares:

−5𝑎 + 𝑏 + 𝑐 = 0
{2𝑎 − 4𝑏 + 2𝑐 = 0
3𝑎 + 3𝑏 − 3𝑐 = 0

Usando o Método de Eliminação de Gauss para resolver este sistema, temos


[𝐵|0] =
−5 1 1 |0 → −5 1 1 |0 −5 1 1 |0

𝐿
[ 2 −4 2 |0] 2 → 5𝐿2 + 2𝐿1[ 0 −18 12 |0] 𝐿 → 𝐿 + 𝐿 [ 0 −18 12|0]
3 3 2
3 3 −3 | 0 𝐿3 → 5𝐿3 + 3𝐿1 0 18 −12|0 0 0 0 |0
1
𝑎 = 3𝑐
−5𝑎 + 𝑏 + 𝑐 = 0
, dando origem a que { ⟺ {𝑏 = 2 𝑐 . Então os vetores próprios da
−18𝑏 + 12𝑐 = 0 3
𝑐∈ℝ
1 2
matriz 𝐵 associados ao valor próprio 𝜆 = 7 são 𝑣 = (3 𝑐, 3 𝑐, 𝑐 ), com 𝑐 ∈ ℝ\{0}, ou

seja,

1 2
𝑉𝐵 (7) = {𝑣 ∈ ℝ3 : (𝐵 − 7𝐼3 )𝑣 = 0} \{(0, 0, 0)}={(3 𝑐, 3 𝑐, 𝑐 ) : 𝑐 não nulo}

_________________________________________________

Para a matriz 𝐶:

Para 𝜆 = −3:

1 5 −1 1 0 0 𝑎 0
(𝐶 + 3𝐼3 )𝑣 = 0 ⟺ ([ 0 −2 1 ] + 3 [0 𝑏
1 0]) ( ) = (0), o que vai origem a
−4 0 3 0 0 1 𝑐 0
um sistema homogéneo de equações lineares e cuja solução não nula é exatamente
igual ao conjunto de vetores próprios procurados.

Então obtemos neste caso o seguinte sistema de equações lineares:

4𝑎 + 5𝑏 − 𝑐 = 0
{ 𝑏+𝑐 =0
−4𝑎 + 6𝑐 = 0

Usando o Método de Eliminação de Gauss para resolver este sistema, temos

4 5 −1|0 → 4 5 −1|0 → 4 5 −1|0


[𝐶|0] = [ 0 1 1 |0] 𝐿 → 𝐿 + 𝐿 [0 1 1 |0] 𝐿 → 𝐿 − 5𝐿 [0 1 1 |0],
3 3 1 3 3 2
−4 0 6 |0 0 5 5 |0 0 0 0 |0
dando origem a que
3
𝑎 = 2𝑐
4𝑎 + 5𝑏 − 𝑐 = 0
{ ⟺ {𝑏 = −𝑐 . Então os vetores próprios da matriz 𝐶 associados ao
𝑏+𝑐 =0
𝑐∈ℝ
3
valor próprio 𝜆 = −3 são do tipo 𝑣 = (2 𝑐, −𝑐, 𝑐), com 𝑐 ∈ ℝ\{0}, ou seja, o conjunto

dos vetores próprios é dado por

3
𝑉𝐶 (−3) = {𝑣 ∈ ℝ3 : (𝐶 + 3𝐼3 )𝑣 = 0} \{(0, 0, 0)}={(2 𝑐, −𝑐, 𝑐) : 𝑐 não nulo}

Para 𝜆 = 2:

1 5 −1 1 0 0 𝑎 0
(𝐶 − 2𝐼3 )𝑣 = 0 ⟺ ([ 0 −2 1 ] − 2 [0 1 0]) (𝑏 ) = (0), o que vai origem a
−4 0 3 0 0 1 𝑐 0
um sistema homogéneo de equações lineares e cuja solução não nula é exatamente
igual ao conjunto de vetores próprios procurados. Então obtemos neste caso o seguinte
sistema de equações lineares:

−𝑎 + 5𝑏 − 𝑐 = 0
{ −4𝑏 + 𝑐 = 0
−4𝑎 + 𝑐 = 0

Usando o Método de Eliminação de Gauss para resolver este sistema, temos

[𝐶|0] =
−1 5 −1|0 → −1 5 −1|0 → −1 5 −1|0
|
[ 0 −4 1 0] 𝐿 → 𝐿 − 4𝐿 [ 0 −4 1 0] 𝐿 → 𝐿 − 5𝐿 [ 0 −4 1 |0]
|
3 3 1 3 3 2
−4 0 1 |0 0 −20 5 |0 0 0 0 |0
, dando origem a que

𝑎=𝑏
−𝑎 + 5𝑏 − 𝑐 = 0
{ ⟺ {𝑐 = 4𝑏 . Então os vetores próprios da matriz 𝐶 associados ao
−4𝑏 + 𝑐 = 0
𝑏∈ℝ
valor próprio 𝜆 = 2 são do tipo 𝑣 = (𝑏, 4𝑏, 𝑏), com 𝑏 ∈ ℝ\{0}, isto é,

𝑉𝐶 (2) = {𝑣 ∈ ℝ3 : (𝐶 − 2𝐼3 )𝑣 = 0} \{(0, 0, 0)}={(𝑏, 4𝑏, 𝑏): 𝑏 não nulo}

Finalmente para o último valor próprio da matriz 𝐶 temos:

Para 𝜆 = 3:
1 5 −1 1 0 0 𝑎 0
(𝐶 − 3𝐼3 )𝑣 = 0 ⟺ ([ 0 −2 1 ] − 3 [0 1 0]) (𝑏 ) = (0), o que vai origem a
−4 0 3 0 0 1 𝑐 0
um sistema homogéneo de equações lineares e cuja solução não nula é exatamente
igual ao conjunto de vetores próprios procurados. Então obtemos neste caso o seguinte
sistema de equações lineares:

−2𝑎 + 5𝑏 − 𝑐 = 0 𝑎=0
𝑎=0
{ −5𝑏 + 𝑐 = 0 , dando origem a que { ⟺ {𝑐 = 5𝑏 . Então os vetores
𝑐 = 5𝑏
0=0 𝑏∈ℝ
próprios da matriz 𝐶 associados ao valor próprio 𝜆 = 3 são 𝑣 = (0, 5𝑏, 𝑏), com 𝑏 ∈
ℝ\{0} e, portanto,

𝑉𝐶 (3) = {𝑣 ∈ ℝ3 : (𝐶 − 3𝐼3 )𝑣 = 0} \{(0, 0, 0)}={(0, 5𝑏, 𝑏): 𝑏 não nulo}

O conjunto de todos os vetores próprios associados a um dado valor próprio 𝜆


juntamente com o vetor nulo do espaço vetorial considerado é um subespaço vetorial e
tem o nome de Subespaço Próprio associado ao valor próprio 𝜆 e será denotado por
𝑆𝐴 (𝜆) e é então definido por:

𝑆𝐴 (𝜆) = {𝑣 ∈ 𝐸: (𝐴 − 𝜆𝐼𝑛 )𝑣 = 0} = 𝑉𝐴 (𝜆) ∪ {0𝐸 },

sendo 𝐴 uma matriz quadrada de ordem 𝑛, 𝐸 o espaço vetorial que está a ser
considerado e 0𝐸 o vetor nulo do espaço vetorial 𝐸.

Sendo um subespaço vetorial, qualquer subespaço próprio de uma matriz quadrada


associado a um seu valor próprio tem bases e faz sentido falar na sua dimensão. À
dimensão do subespaço próprio associado a um dado valor próprio chama-se a
multiplicidade geométrica desse valor próprio. Vamos denotar tal multiplicidade por
𝑚𝑔 (𝜆).

_____________________________________________________________________________

Nota importante:

Não confundir a multiplicidade algébrica de um valor próprio com a sua multiplicidade


geométrica. A multiplicidade algébrica nem sempre coincide com a multiplicidade
geométrica. Em geral
1 ≤ 𝑚𝑔 (𝜆) ≤ 𝑚𝑎 (𝜆).

_____________________________________________________________________________

Vamos a seguir novamente ter atenção aos exemplos anteriores e vamos calcular as
multiplicidades geométricas dos valores próprios das matrizes 𝐵 e 𝐶.

EXEMPLO 84

Considere as matrizes 𝐵 e 𝐶 dadas nos exemplos anteriores. Para estas matrizes vamos
calcular os seus subespaços próprios associados a cada um dos valores próprios e depois
vamos indicar as respetivas multiplicidades geométricas. Temos:

Para a matriz 𝐵:

Para 𝜆 = 1:

𝑆𝐵 (1) = {𝑣 ∈ ℝ3 : (𝐵 − 𝐼3 )𝑣 = 0} = {𝑣 = (−𝑏 − 𝑐, 𝑏, 𝑐): 𝑏, 𝑐 ∈ ℝ} = {(−𝑏, 𝑏, 0) +


(−𝑐, 0, 𝑐): 𝑏, 𝑐 ∈ ℝ},

que nos permite concluir que 𝑆𝐵 (1) =< (−1,1,0), (−1,0,1) >. É fácil ver que estes
geradores são linearmente independentes e que, portanto, constituem uma base para
o subespaço próprio 𝑆𝐵 (1). Então concluímos que dim(𝑆𝐵 (1)) = 2, ou seja, 𝑚𝑔 (1) =
2.

Para 𝜆 = 7:

1 2
𝑆𝐵 (7) = {𝑣 ∈ ℝ3 : (𝐵 − 7𝐼3 )𝑣 = 0} = {(3 𝑐, 3 𝑐, 𝑐) : 𝑐 ∈ ℝ},

1 2
que nos permite concluir que 𝑆𝐵 (7) =< (3 , 3 , 1) >. É fácil ver que este gerador, não

sendo nulo e como é único, é linearmente independente e que, portanto, constitui uma
base para o subespaço próprio 𝑆𝐵 (7). Então concluímos que dim(𝑆𝐵 (7)) = 1, ou seja,
𝑚𝑔 (7) = 1.

_________________________________________________

Para a matriz 𝐶:

Para 𝜆 = −3:

3
𝑆𝐶 (−3) = {𝑣 ∈ ℝ3 : (𝐶 + 3𝐼3 )𝑣 = 0} = {(2 𝑐, −𝑐, 𝑐) : 𝑐 ∈ ℝ},
3
que nos permite concluir que 𝑆𝐶 (−3) =< (2 , −1,1) >. É fácil ver que este gerador, não

sendo nulo e como é único, é linearmente independente e que, portanto, constitui uma
base para o subespaço próprio 𝑆𝐶 (−3). Então concluímos que dim(𝑆𝐶 (−3)) = 1, ou
seja, 𝑚𝑔 (−3) = 1.

Para 𝜆 = 2:

𝑆𝐶 (2) = {𝑣 ∈ ℝ3 : (𝐶 − 2𝐼3 )𝑣 = 0} = {(𝑏, 4𝑏, 𝑏): 𝑏 ∈ ℝ},

que nos permite concluir que 𝑆𝐶 (2) =< (1,4,1) >. É fácil ver que este gerador, não
sendo nulo e como é único, é linearmente independente e que, portanto, constitui uma
base para o subespaço próprio 𝑆𝐶 (2). Então concluímos que dim(𝑆𝐶 (2)) = 1, ou seja,
𝑚𝑔 (2) = 1.

Finalmente para o último valor próprio da matriz 𝐶 temos:

Para 𝜆 = 3:

𝑆𝐶 (3) = {𝑣 ∈ ℝ3 : (𝐶 − 3𝐼3 )𝑣 = 0} = {(0,5𝑏, 𝑏): 𝑏 ∈ ℝ},

que nos permite concluir que 𝑆𝐶 (3) =< (0,5,1) >. É fácil ver que este gerador, não
sendo nulo e como é único, é linearmente independente e que, portanto, constitui uma
base para o subespaço próprio 𝑆𝐶 (3). Então concluímos que dim(𝑆𝐶 (3)) = 1, ou seja,
𝑚𝑔 (3) = 1.

_____________________________________________________________________________

Nota Importante: Os exemplos anteriores representam situações onde a multiplicidade


algébrica coincide com a multiplicidade geométrica de cada valor próprio. No entanto
nem sempre isto acontece como já foi referenciado anteriormente. Vejamos uma
situação dessas no exemplo seguinte.

EXEMPLO 85

1 0
Considere a matriz 𝐴 dada por 𝐴 = ( ). Calculemos os seus valores próprios e as
1 1
multiplicidades algébricas e geométricas. Temos:

Valores próprios de 𝐴:
|𝐴 − 𝜆𝐼2 | = 0 ⇔ (1 − 𝜆)2 = 0 ⟺ 𝜆 = 1

A matriz 𝐴 tem um único valor próprio cuja 𝑚𝑎 (1) = 2, que é o expoente que aparece
no polinómio característico de 𝐴 já na sua forma fatorizada (com um único fator
associado a 𝜆 = 1).

Subespaço próprio associado a 𝜆 = 1:

𝑆𝐴 (1) = {𝑣 ∈ ℝ2 : (𝐴 − 𝐼2 )𝑣 = 0}, o que nos permite resolver o seguinte sistema


homogéneo

1 0 1 0 𝑎 0 0 0 𝑎 0 𝑎=0
(( )−( )) ( ) = ( ) ⟺ ( )( ) = ( ) ⟺ { ,
1 1 0 1 𝑏 0 1 0 𝑏 0 𝑏∈ℝ

ou seja,

𝑆𝐴 (1) = {𝑣 ∈ ℝ2 : (𝐴 − 𝐼2 )𝑣 = 0} = {(0, 𝑏): 𝑏 ∈ ℝ} = < (0,1) >.

É fácil ver que este gerador, não sendo nulo e como é único, é linearmente
independente e que, portanto, constitui uma base para o subespaço próprio 𝑆𝐴 (1).
Então concluímos que dim(𝑆𝐴 (1)) = 1, ou seja, 𝑚𝑔 (1) = 1.

Como reparam, neste caso a multiplicidade algébrica não é igual à multiplicidade


geométrica do mesmo valor próprio.

_____________________________________________________________________________

Sugestão de trabalho: Podem resolver os exercícios 88, 89, 90 (página 60), os exercícios
91, 92, 94 (página 61), o exercício 95 (página 62), os exercícios 122, 123, 124, 125 (página
41), os exercícios 126, 127, 128 (página 42), os exercícios 132, 134, 135, 137 (página 43),
os exercícios 139, 140 (página 44) da Sebenta para consolidação destes conteúdos
programáticos.

_______________________________________________________________________

7. Capítulo - Diagonalização de matrizes quadradas

No último capítulo falamos de valores e vetores próprios de uma matriz quadrada


qualquer. Também foram abordados os conceitos de multiplicidade algébrica e
multiplicidade geométrica. É exatamente este último conceito que vai ter um papel
muito importante na diagonalização (ou não) de uma matriz quadrada.

7.1. Matrizes semelhantes

Comecemos por apresentar a definição de matrizes semelhantes. Assim temos:

Definição: Duas matrizes quadradas 𝐴 e 𝐵 de ordem 𝑛 dizem-se matrizes semelhantes


se existe uma matriz invertível 𝑃 da mesma ordem das anteriores tal que a seguinte
igualdade é verdadeira

𝑩 = 𝑷−𝟏 𝑨𝑷

Algumas propriedades relacionadas com matrizes semelhantes são registadas no


seguinte resultado.

Proposição 12: Sejam 𝐴 e 𝐵 duas matrizes semelhantes. Então são verdadeiras as


seguintes afirmações:

1) det(𝐴) = det(𝐵);

2) 𝐴 é invertível se e só se 𝐵 é invertível;

3) 𝐴 e 𝐵 têm os mesmos valores próprios;

4) 𝐴 e 𝐵 têm o mesmo polinómio característico;

5) 𝐴 e 𝐵 têm o mesmo traço;

Vamos de seguida apresentar alguns exemplos de matrizes que são (ou não são)
semelhantes.

EXEMPLO 86

1 1 2 1 3 1 1 2
Considere as matrizes 𝐴 = ( ), 𝐵 = ( ), 𝐶 = ( ) e 𝐷=( ).
−1 4 1 3 −6 −2 1 0
Quais serão semelhantes?

Temos que 𝑡𝑟(𝐴) = 1 + 4 = 5, 𝑡𝑟(𝐵) = 2 + 3 = 5, 𝑡𝑟(𝐶) = 3 + (−2) = 1 e 𝑡𝑟(𝐷) =


1 + 0 = 1. Então perante estes resultados, podemos numa primeira resposta dizer que
poderão ser 𝐴 e 𝐵 semelhantes e também as matrizes 𝐶 e 𝐷 poderão ser matrizes
semelhantes. No entanto calculemos os respetivos determinantes e obtemos que
det(𝐴) = 5, det(𝐵) = 5, det(𝐶) = 0 e det(𝐷) = −2. Então com estes resultados,
concluímos que ainda as matrizes 𝐴 e 𝐵 poderão ser matrizes semelhantes, pois têm o
mesmo valor do determinante, enquanto as matrizes 𝐶 e 𝐷 não são semelhantes. Vamos
agora calcular os respetivos polinómios característicos das matrizes 𝐴 e 𝐵. Temos então
que |𝐴 − 𝑥𝐼2 | = |𝐵 − 𝑥𝐼2 | = 𝑥 2 − 5𝑥 + 5. Portanto as matrizes 𝐴 e 𝐵 ainda podem ser
semelhantes.

Vejamos que de facto as matrizes 𝐴 e 𝐵 são semelhantes. Então procuramos uma


matriz invertível 𝑃 tal que a seguinte igualdade é verdadeira 𝐵 = 𝑃−1 𝐴𝑃.

𝑥 𝑦
Seja 𝑃 = ( ) a tal matriz invertível que procuramos. Notemos que
𝑧 𝑡

𝑥 𝑦 2 1 1 1 𝑥 𝑦
𝐵 = 𝑃−1 𝐴𝑃 ⟺ 𝑃𝐵 = 𝐴𝑃 ⟺ ( )( )=( )( )⟺
𝑧 𝑡 1 3 −1 4 𝑧 𝑡
2𝑥 + 𝑦 𝑥 + 3𝑦 𝑥+𝑧 𝑦+𝑡
( )=( ),
2𝑧 + 𝑡 𝑧 + 3𝑡 −𝑥 + 4𝑧 −𝑦 + 4𝑡

o que vai dar origem ao seguinte sistema de equações lineares

−𝑥 − 𝑦 + 𝑧 = 0
−𝑥 − 2𝑦 + 𝑡 = 0
{
−𝑥 + 2𝑧 − 𝑡 = 0
−𝑦 − 𝑧 + 𝑡 = 0

que resolvendo pelo Método de Eliminação de Gauss, obtemos uma infinidade de


soluções dadas por

𝑥 = −𝑦 + 𝑧
𝑡 =𝑦+𝑧
{ .
𝑦∈ℝ
𝑧∈ℝ

Uma vez que queremos uma matriz 𝑃 invertível, então numa solução que vamos
escolher não podemos considerar 𝑦 = 𝑧 = 0, pois se assim fosse vinha também que 𝑥 =
𝑡 = 0 e a matriz 𝑃 escolhida não era invertível. Assim, por exemplo, vamos escolher 𝑦 =
1 e 𝑧 = 1, pelo que, temos então que 𝑥 = 0 e 𝑡 = 2. Então para estes valores escolhidos
0 1
por nós, a nossa matriz 𝑃 é igual a 𝑃 = ( ) que é invertível, pois det(𝑃) = −1 ≠ 0.
1 2
Usando agora um dos métodos já conhecidos para o cálculo da matriz inversa de 𝑃,
−2 1
obtemos que 𝑃 −1 = ( ). Verifiquemos então que as matrizes 𝐴 e 𝐵 são
1 0
semelhantes. Temos

−2 1 1 1 0 1 −3 2 0 1 2 1
𝑃−1 𝐴𝑃 = ( )( )( )=( )( )=( )=𝐵
1 0 −1 4 1 2 1 1 1 2 1 3

_____________________________________________________________________________

Vamos agora ver o quanto é importante o conceito de matrizes semelhantes para a


diagonalização de matrizes quadradas. Comecemos por introduzir o conceito de matriz
diagonalizável.

Definição: Uma matriz quadrada 𝐴 de ordem 𝑛 diz-se uma matriz diagonalizável se ela
for semelhante a uma matriz diagonal 𝐷 da mesma ordem da matriz 𝐴.

Reparemos que a matriz 𝐴 é semelhante a uma matriz diagonal 𝐷 se existir uma matriz
invertível 𝑃 da mesma ordem das anteriores tal que a seguinte igualdade é verdadeira

𝑫 = 𝑷−𝟏 𝑨𝑷

Caso esta igualdade seja verdadeira, a matriz invertível 𝑃 tem o nome de matriz
diagonalizante.

Uma matriz quadrada 𝐴 a ser diagonalizável, a matriz diagonal 𝐷 semelhante a ela não
é mais do que a matriz cujas entradas da diagonal principal são os valores próprios de
𝐴, repetidos tantas vezes na diagonal principal consoante for a sua multiplicidade
algébrica.

Então vamos voltar à matriz 𝐴 do EXEMPLO 86 e vamos ver se ela é ou não


diagonalizável, ou seja, se ela é ou não semelhante a uma matriz diagonal.

EXEMPLO 87

1 1
Considere a matriz 𝐴 = ( ) do exemplo anterior. Será 𝐴 uma matriz
−1 4
diagonalizável? Vamos considerar a matriz diagonal 𝐷 cujas entradas da diagonal
principal são os valores próprios de 𝐴 repetidos na diagonal tantas vezes consoante for
a sua multiplicidade geométrica. Temos então
1) Calculemos os valores próprios de 𝐴

5 ± √5
|𝐴 − 𝑥𝐼2 | = 0 ⟺ 𝑥 =
2

5−√5 5+√5
Então a matriz 𝐴 tem dois valores próprios distintos que são 𝑥1 = e 𝑥2 = .
2 2
5−√5 5+√5
Portanto, 𝑚𝑎 ( ) = 1 e também 𝑚𝑎 ( ) = 1.
2 2

Consideremos então a matriz diagonal da mesma ordem de 𝐴 cujas entradas da


diagonal principal são exatamente os valores próprios de 𝐴, ou seja,

5−√5
0
2
𝐷=( ).
5+√5
0 2

Vamos agora tentar encontrar uma matriz invertível 𝑃 da mesma ordem das anteriores
tal que a seguinte igualdade é verdadeira

𝐷 = 𝑃 −1 𝐴𝑃

Então para tal e relacionados com os dados que temos, vamos calcular os subespaços
próprios da matriz 𝐴 associados a cada um dos valores próprios de 𝐴. Assim temos:

2) Calculemos os vetores próprios de 𝐴 associados a cada valor próprio

5−√5
→Para 𝑥1 = :
2

5−√5
5−√5 1 1 0 𝑎 0
(𝐴 − 𝐼2 ) 𝑣 = 0 ⟺ (( )−( 2 )) ( ) = ( ) ⟺
2 −1 4 5−√5 𝑏 0
0 2

−3+√5
1 𝑎 0
2
( ) ( ) = ( ),
3+√5 𝑏 0
−1 2

o que vai origem a um sistema homogéneo de equações lineares e cuja solução não nula
é exatamente igual ao conjunto de vetores próprios procurados. Então obtemos neste
caso o seguinte sistema de equações lineares:
−3 + √5
( )𝑎 + 𝑏 = 0
2
3 + √5
−𝑎 + ( )𝑏 = 0
{ 2

Usando o Método de Eliminação de Gauss para resolver este sistema, temos

−3+√5
1 ⋮0 ⟶ −3+√5 ⋮
[𝐴 −
5−√5
𝐼2 |0] = [ 2
⋮ ] 𝐿 = −3+√5 𝐿 + 𝐿 [ 2 1⋮0], dando origem a
3+√5 0
0⋮0
2 2 2 1
−1 ⋮ 2 0
2
3−√5
) 𝑎 + 𝑏 = 0 ⟺ {𝑏 = ( 2 ) 𝑎. Então os vetores próprios da matriz 𝐴
−3+√5
que {( 2
𝑎∈ℝ
5−√5 3−√5
associados ao valor próprio 𝑥1 = são 𝑣 = (𝑎, ( ) 𝑎 ), com 𝑎 ∈ ℝ\{0}, ou seja,
2 2

5−√5 5−√5 3−√5


𝑉𝐴 ( ) = {𝑣 ∈ ℝ2 : (𝐴 − 𝐼2 )𝑣 = 0} \{(0, 0)}={(𝑎, ( ) 𝑎 ) : 𝑎 não nulo}
2 2 2

5+√5
→Para 𝑥2 = :
2

5+√5
5+√5 1 1 0 𝑎 0
(𝐴 − 𝐼2 ) 𝑣 = 0 ⟺ (( )−( 2 )) ( ) = ( ) ⟺
2 −1 4 5+√5 𝑏 0
0 2

−3−√5
1 𝑎 0
2
( ) ( ) = ( ),
3−√5 𝑏 0
−1 2

o que vai origem a um sistema homogéneo de equações lineares e cuja solução não nula
é exatamente igual ao conjunto de vetores próprios procurados. Então obtemos neste
caso o seguinte sistema de equações lineares:

−3 − √5
( )𝑎 + 𝑏 = 0
2
3 − √5
−𝑎 + ( )𝑏 = 0
{ 2

Usando o Método de Eliminação de Gauss para resolver este sistema, temos


−3−√5
1 ⋮0 ⟶ −3−√5 ⋮
[𝐴 −
5+√5
𝐼2 |0] = [ 2
⋮ ] 𝐿 = −3−√5 𝐿 + 𝐿 [ 2 1⋮0], dando origem a
3−√5 0
0⋮0
2 2 2 1
−1 ⋮ 2 0
2
3+√5
) 𝑎 + 𝑏 = 0 ⟺ {𝑏 = ( 2 ) 𝑎. Então os vetores próprios da matriz 𝐴
−3−√5
que {( 2
𝑎∈ℝ
5+√5 3+√5
associados ao valor próprio 𝑥2 = são 𝑣 = (𝑎, ( ) 𝑎 ), com 𝑎 ∈ ℝ\{0}, ou seja,
2 2

5+√5 5+√5 3+√5


𝑉𝐴 ( ) = {𝑣 ∈ ℝ2 : (𝐴 − 𝐼2 )𝑣 = 0} \{(0, 0)}={(𝑎, ( ) 𝑎 ) : 𝑎 não nulo}
2 2 2

Consideremos agora os subespaços próprios associados a cada um destes valores


próprios e consideremos uma base para cada um deles. Então obtemos o seguinte:

3) Subespaços próprios associados a cada valor próprio da matriz 𝐴

5−√5
→Para 𝑥1 = :
2

5 − √5 5 − √5 3 − √5
𝑆𝐴 ( ) = {𝑣 ∈ ℝ2 : (𝐴 − 𝐼3 ) 𝑣 = 0} = {(𝑎, ( ) 𝑎 ) : 𝑎 ∈ ℝ} =
2 2 2

3 − √5
< (1, )>
2

5+√5
→Para 𝑥2 = :
2

5 + √5 5 + √5 3 + √5
𝑆𝐴 ( ) = {𝑣 ∈ ℝ2 : (𝐴 − 𝐼3 ) 𝑣 = 0} = {(𝑎, ( ) 𝑎 ) : 𝑎 ∈ ℝ} =
2 2 2

3 + √5
< (1, )>
2

Vamos então considerar para a matriz 𝑃 que andamos à procura a matriz cujas colunas
são exatamente os vetores das bases que encontramos para os subespaços próprios
anteriormente calculados. Assim consideremos para matriz 𝑃 a seguinte matriz 𝑃 =
1 1
(3−√5 3+√5). É óbvio que esta matriz é invertível, pois 𝑑𝑒𝑡(𝑃) = √5 ≠ 0. Calculemos
2 2

então a sua matriz inversa por um dos métodos já conhecidos. É fácil verificar que 𝑃−1 =
3+√5 1

2√5 √5
( ). Vamos então ver se a igualdade pretendida é verdadeira. Temos então
−3+√5 1
2√5 √5

neste caso:

3 + √5 1
− 1 1
𝑃−1 𝐴𝑃 =
2√5 √5 ( 1 1) (3 − √5 3 + √5)
−3 + √5 1 −1 4
2 2
( 2√5 √5 )
−10 + 10√5 5 − √5
0 0
4√5 2
= = =𝐷
10 + 10√5 5 + √5
0 0
( 4√5 ) ( 2 )

Assim acabamos de mostrar que a matriz 𝐴 é diagonalizável.

NOTA IMPORTANTE: Reparemos que na diagonal principal da matriz 𝐷 estão os dois


valores próprios de 𝐴 listados na diagonal pela ordem que foi adotada para a escolha
das bases dos subespaços próprios associados a cada valor próprio. Se tivesses escolhido
a ordem inversa dos vetores da base, então a correspondente matriz 𝑃 seria a seguinte
−3+√5 1
1 1 2√5 √5
matriz (3+√5 3−√5), a sua inversa seria ( ) e o produto
3+√5 1
2 2 −
2√5 √5

−3+√5 1 5+√5
2√5 1 1 1 1 0
√5 2
( )( ) (3+√5 3−√5) =( ). Como se pode ver, os
3+√5

1 −1 4 2 2 0
5−√5
2√5 √5 2

valores próprios de 𝐴 aparecem na diagonal principal pela ordem inversa da que foi
considerada anteriormente na primeira escolha da base que efetuamos. Outra
observação é que as multiplicidades geométricas dos valores próprios de 𝐴 são iguais e
5−√5 5+√5
dadas por 𝑚𝑔 ( ) = 𝑚𝑔 ( ) = 1 e a soma destas multiplicidades geométricas é
2 2

igual à ordem da matriz 𝐴, ou seja, é igual a 2.

_____________________________________________________________________________

Vamos agora ainda apresentar um outro exemplo.


2 1 1
EXEMPLO 88: Considere a matriz 𝐵 = [2 3 2]. Será 𝐵 uma matriz diagonalizável?
3 3 4
Vamos considerar a matriz diagonal 𝐷 cujas entradas da diagonal principal são os valores
próprios de 𝐵 repetidos na diagonal tantas vezes consoante for a sua multiplicidade
geométrica. Temos então

1) Calculemos os valores próprios de 𝐵

2−𝑥 1 1
|𝐵 − 𝑥𝐼3 | = | 2 3−𝑥 2 | = −(𝑥 − 1)2 (𝑥 − 7) = −𝑥 3 + 9𝑥 2 − 15𝑥 + 7
3 3 4−𝑥

|𝐵 − 𝜆𝐼3 | = 0 ⟺ −(𝑥 − 1)2 (𝑥 − 7) = 0 ⟺ 𝑥 = 1 ∨ 𝑥 = 1 ∨ 𝑥 = 7.

Assim concluímos que:

- A matriz 𝐵 tem dois valores próprios que são 1 e 7, ou seja, 𝑒𝑠𝑝(𝐵)={1, 7}; além
disso, o valor próprio 1 é uma raiz dupla e o valor próprio 7 é uma raiz simples do
polinómio característico de 𝐵. Portanto, 𝑚𝑎 (1) = 2 e 𝑚𝑎 (7) = 1.

Consideremos então a matriz diagonal da mesma ordem de 𝐵 cujas entradas da


diagonal principal são exatamente os valores próprios de 𝐵 cuja ordem que vamos
escolher é 1, 1, 7, ou seja,

1 0 0
𝐷 = [0 1 0]
0 0 7

Vamos agora tentar encontrar uma matriz invertível 𝑃 da mesma ordem das anteriores
tal que a seguinte igualdade é verdadeira

𝐷 = 𝑃 −1 𝐵𝑃

Então para tal e relacionados com os dados que temos, vamos calcular os subespaços
próprios da matriz 𝐵 associados a cada um dos valores próprios de 𝐵. Assim temos:

2) Calculemos os vetores próprios de 𝐵 associados a cada valor próprio

→Para 𝑥1 = 1:
2 1 1 1 0 0 𝑎 0
(𝐵 − 𝐼3 )𝑣 = 0 ⟺ ([2 3 2] − [0 1 0]) (𝑏 ) = (0), o que vai origem a um
3 3 4 0 0 1 𝑐 0
sistema homogéneo de equações lineares e cuja solução não nula é exatamente igual
ao conjunto de vetores próprios procurados. Então obtemos neste caso o seguinte
sistema de equações lineares:

𝑎+𝑏+𝑐 =0
{2𝑎 + 2𝑏 + 2𝑐 = 0
3𝑎 + 3𝑏 + 3𝑐 = 0

Usando o Método de Eliminação de Gauss para resolver este sistema, temos

1 1 1|0 → 1 1 1|0
[𝐵|0] = [2 2 2|0] 𝐿2 → 𝐿2 − 2𝐿1 [0 0 0|0], dando origem a que {𝑎 + 𝑏 + 𝑐 =
3 3 3|0 𝐿3 → 𝐿3 − 3𝐿1 0 0 0|0
𝑎 = −𝑏 − 𝑐
0⟺{ 𝑏∈ℝ .
𝑐∈ℝ

Então os vetores próprios da matriz 𝐵 associados ao valor próprio 𝑥1 = 1 são 𝑣 =


(−𝑏 − 𝑐, 𝑏, 𝑐), com 𝑏, 𝑐 não simultaneamente nulos, ou seja,

𝑉𝐵 (1) = {𝑣 ∈ ℝ3 : (𝐵 − 𝐼3 )𝑣 = 0} \{(0, 0, 0)}={(−𝑏 −


𝑐, 𝑏, 𝑐): 𝑏, 𝑐 não simultaneamente nulos}

→Para 𝑥2 = 7:

2 1 1 1 0 0 𝑎 0
(𝐵 − 7𝐼3 )𝑣 = 0 ⟺ ([2 3 2] − 7 [0 1 0]) (𝑏 ) = (0), o que vai origem a um
3 3 4 0 0 1 𝑐 0
sistema homogéneo de equações lineares e cuja solução não nula é exatamente igual
ao conjunto de vetores próprios procurados. Então obtemos neste caso o seguinte
sistema de equações lineares:

−5𝑎 + 𝑏 + 𝑐 = 0
{2𝑎 − 4𝑏 + 2𝑐 = 0
3𝑎 + 3𝑏 − 3𝑐 = 0

Usando o Método de Eliminação de Gauss para resolver este sistema, temos


[𝐵|0] =
−5 1 1 |0 → −5 1 1 |0 −5 1 1 |0

𝐿
[ 2 −4 2 |0] 2 → 5𝐿2 + 2𝐿1[ 0 −18 12 |0] 𝐿 → 𝐿 + 𝐿 [ 0 −18 12|0]
3 3 2
3 3 −3 | 0 𝐿3 → 5𝐿3 + 3𝐿1 0 18 −12|0 0 0 0 |0
1
𝑎 = 3𝑐
−5𝑎 + 𝑏 + 𝑐 = 0
, dando origem a que { ⟺ {𝑏 = 2 𝑐 . Então os vetores próprios da
−18𝑏 + 12𝑐 = 0 3
𝑐∈ℝ
1 2
matriz 𝐵 associados ao valor próprio 𝑥2 = 7 são 𝑣 = (3 𝑐, 3 𝑐, 𝑐 ), com 𝑐 ∈ ℝ\{0}, ou

seja,

1 2
𝑉𝐵 (7) = {𝑣 ∈ ℝ3 : (𝐵 − 7𝐼3 )𝑣 = 0} \{(0, 0, 0)}={(3 𝑐, 3 𝑐, 𝑐 ) : 𝑐 não nulo}

Consideremos agora os subespaços próprios associados a cada um destes valores


próprios e consideremos uma base para cada um deles. Então obtemos o seguinte:

3) Subespaços próprios associados a cada valor próprio da matriz 𝐵

→Para 𝑥1 = 1:

𝑆𝐵 (1) = {𝑣 ∈ ℝ3 : (𝐵 − 𝐼3 )𝑣 = 0} = {𝑣 = (−𝑏 − 𝑐, 𝑏, 𝑐): 𝑏, 𝑐 ∈ ℝ} = {(−𝑏, 𝑏, 0) +


(−𝑐, 0, 𝑐): 𝑏, 𝑐 ∈ ℝ},

que nos permite concluir que 𝑆𝐵 (1) =< (−1,1,0), (−1,0,1) >. É fácil ver que estes
geradores são linearmente independentes e que, portanto, constituem uma base para
o subespaço próprio 𝑆𝐵 (1).

→Para 𝑥2 = 7:

1 2
𝑆𝐵 (7) = {𝑣 ∈ ℝ3 : (𝐵 − 7𝐼3 )𝑣 = 0} = {(3 𝑐, 3 𝑐, 𝑐) : 𝑐 ∈ ℝ},

1 2
que nos permite concluir que 𝑆𝐵 (7) =< (3 , 3 , 1) >. É fácil ver que este gerador, não

sendo nulo e como é único, é linearmente independente e que, portanto, constitui uma
base para o subespaço próprio 𝑆𝐵 (7).

Vamos então considerar para a matriz 𝑃 que andamos à procura a matriz cujas colunas
são exatamente os vetores das bases que encontramos para os subespaços próprios
anteriormente calculados. Assim consideremos para matriz 𝑃 a seguinte matriz 𝑃 =
1
−1 −1 3
[1 0 3 ], em que as duas primeiras colunas são os vetores da base de 𝑆𝐵 (1) e a
2

0 1 1
outra coluna é o vetor da base de 𝑆𝐵 (7). É óbvio que esta matriz é invertível, pois
𝑑𝑒𝑡(𝑃) = 2 ≠ 0. Calculemos então a sua matriz inversa por um dos métodos já
1 2 1
−3 −3
3
−1 1 1 1
conhecidos. É fácil verificar que 𝑃 = −2 −2 2
. Vamos então ver se a igualdade
1 1 1
[ 2 2 2 ]
pretendida é verdadeira. Temos então neste caso:

1 2 1
−3 −3 1
3 2 1 1 −1 −1 3
1 1 1
𝑃−1 𝐵𝑃 = − 2 − 2 2
[2 3 2] [ 1 0 3] =
2

1 1 1 3 3 4
[ 2 2 2 ] 0 1 1
1 2 1
−3 − 3 −1 −1 7
3 1 0 0
1 1 1 3
−2 −2 [1 0
14] = [0 1 0] = 𝐷.
2
1 1 1 3 0 0 7
[ 2 2 2 ]
0 1 7

Assim acabamos de mostrar que a matriz 𝐵 é diagonalizável.

NOTA IMPORTANTE: Reparemos que na diagonal principal da matriz 𝐷 estão os dois


valores próprios de 𝐵 listados na diagonal pela ordem que foi adotada para a escolha
das bases dos subespaços próprios associados a cada valor próprio. Se tivesses escolhido
outra ordem dos vetores da base de cada subespaço próprio, então as correspondentes
matrizes 𝑃 seriam as seguintes matrizes para as diferentes escolhas possíveis:

1 1 1 1
−1 −1 −1 −1 −1 −1 −1 −1
3 3 3 3
𝑃1 = [ 1 2
0 ], 𝑃2 = [ 2
1 0 ], 𝑃3 = [ 0
2 ],
−1 4 𝑃 = [ 2
0 1 ]e
3 3 3 3
0 1 1 1 0 1 1 1 0 1 1 0
1
−1 −1 3
𝑃5 = [ 0 1 3 ].
2

1 0 1

Em relação a cada uma destas matrizes as correspondentes matrizes diagonais são as


seguintes
1 0 0 7 0 0 1 0 0 7 0 0
𝐷1 = [0 7 0], 𝐷2 = [0 1 0], 𝐷3 = [0 7 0], 𝐷4 = [0 1 0] e 𝐷5 =
0 0 1 0 0 1 0 0 1 0 0 1
1 0 0
[0 1 0],
0 0 7

sendo que 𝐷1 = 𝐷3 , 𝐷2 = 𝐷4 e 𝐷5 = 𝐷. A matriz 𝐵 é semelhante a qualquer uma destas


matrizes diagonais e, portanto, é obviamente uma matriz diagonalizável. Outra
observação é que as multiplicidades geométricas dos valores próprios de 𝐵 são dadas
por 𝑚𝑔 (1) = 2, 𝑚𝑔 (7) = 1 e a soma destas multiplicidades geométricas é igual à
ordem da matriz 𝐵, ou seja, é igual a 3.

_____________________________________________________________________________

Vamos agora ainda apresentar um outro exemplo.

EXEMPLO 89

1 0
Considere a matriz 𝐶 dada por 𝐶 = ( ). Verifiquemos se esta matriz é ou não
1 1
diagonalizável. Calculemos primeiro os seus valores próprios e as multiplicidades
algébricas e geométricas. Temos:

Valores próprios de 𝐶:

|𝐶 − 𝑥𝐼2 | = 0 ⇔ (1 − 𝑥)2 = 0 ⟺ 𝑥 = 1 ∨ 𝑥 = 1

A matriz 𝐶 tem um único valor próprio cuja 𝑚𝑎 (1) = 2, que é o expoente que aparece
no polinómio característico de 𝐶 já na sua forma fatorizada (com um único fator
associado a 𝑥 = 1).

Subespaço próprio associado a 𝑥 = 1:

𝑆𝐶 (1) = {𝑣 ∈ ℝ2 : (𝐶 − 𝐼2 )𝑣 = 0}, o que nos permite resolver o seguinte sistema


homogéneo

1 0 1 0 𝑎 0 0 0 𝑎 0 𝑎=0
(( )−( )) ( ) = ( ) ⟺ ( )( ) = ( ) ⟺ { ,
1 1 0 1 𝑏 0 1 0 𝑏 0 𝑏∈ℝ

ou seja,

𝑆𝐶 (1) = {𝑣 ∈ ℝ2 : (𝐶 − 𝐼2 )𝑣 = 0} = {(0, 𝑏): 𝑏 ∈ ℝ} = < (0,1) >.


É fácil ver que este gerador, não sendo nulo e como é único, é linearmente
independente e que, portanto, constitui uma base para o subespaço próprio 𝑆𝐶 (1).
Então concluímos que dim(𝑆𝐶 (1)) = 1, ou seja, 𝑚𝑔 (1) = 1.

Como reparam, neste caso, só podemos escolher um vetor para a base do subespaço
próprio associado ao único valor próprio da matriz considerada. Ora se tentarmos
construir uma matriz 𝑃 invertível como é o nosso objetivo, não conseguimos fazê-lo,
pois com a base de 𝑆𝐶 (1) só tenho uma coluna dessa matriz e, portanto, não é quadrada
e, por conseguinte, não é invertível. Assim concluímos que a matriz 𝐶 não é
diagonalizável, isto é, 𝐶 não é semelhante à matriz diagonal 𝐷 = 𝐼2 .

NOTA IMPORTANTE: Observemos que a multiplicidade geométrica do único valor


próprio de 𝐶 não é igual à ordem da matriz 𝐶.

_____________________________________________________________________________

A seguir vamos apresentar um resultado que nos ajudará a responder à questão que
norteou esta aula:

Questão: dada uma matriz quadrada, será que ela é diagonalizável?

Proposição 13: Uma matriz quadrada 𝐴 de ordem 𝑛 é diagonalizável se e só se a soma


das multiplicidades geométricas dos seus valores próprios for igual à ordem da matriz.

Reparemos que nos exemplos apresentados anteriormente: no caso da matriz 𝐴, ela é


diagonalizável e verifica-se que a soma das multiplicidades geométricas dos seus valores
próprios é igual a 2; no caso da matriz 𝐵 passa-se o mesmo, sendo a soma das
multiplicidades geométricas dos seus valores próprios igual a 3; já no caso da matriz 𝐶,
já nada disto acontece, pois, a ordem da matriz é 2 e como tem um só valor próprio cuja
multiplicidade geométrica é 1, ela não coincide com a ordem da matriz.

NOTA IMPORTANTE: Como sabem qualquer matriz representa uma aplicação linear em
relação a um par de bases, pelo que, por vezes, em vez de questionarmos se uma dada
matriz é ou não diagonalizável, podemos questionar se a aplicação linear que ela
representa é ou não diagonalizável.

_____________________________________________________________________________

Você também pode gostar