Apostila Mat2
Apostila Mat2
Apostila Mat2
4 Álgebra Matricial 18
4.1 Tipos Especiais de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4.2 Matrizes Elementares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4.3 Álgebra de Matrizes Quadradas . . . . . . . . . . . . . . . . . . . . . . . . 21
4.4 Decomposição LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.5 Produto de Kronecker . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.6 Vetorização de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
5 Determinantes 26
5.1 Menores de uma Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
5.2 Matriz Adjunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
6 Espaços Euclidianos 28
6.1 Comprimento e Distância . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
6.2 Produto Interno (Produto Escalar) . . . . . . . . . . . . . . . . . . . . . . 29
6.3 Propriedades do comprimento Euclidiano: (norma) . . . . . . . . . . . . . 32
6.4 Produto Vetorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
6.5 Retas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
6.6 Parametrização . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
i
7 Independência Linear 36
7.1 Independência Linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
7.2 Conjuntos Geradores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
7.3 Base e Dimensão em Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
ii
15 Formas Quadráticas e Matrizes Definidas 73
15.1 Matrizes Simétricas Definidas . . . . . . . . . . . . . . . . . . . . . . . . . 73
15.2 Restrições Lineares e Matrizes Orladas . . . . . . . . . . . . . . . . . . . . 74
iii
21.4 Resolvendo equações a diferenças não diagonalizáveis . . . . . . . . . . . . 114
21.5 Processos de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
21.6 Matrizes Simétricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
21.7 Formas Quadráticas definidas . . . . . . . . . . . . . . . . . . . . . . . . . 120
Referências 168
4
1 Noções de Lógica
O homem geralmente se expressa através da linguagem. A linguagem corrente, pode
ser vaga e ambígua, não é adequada ao tratamento científico. Por isso, necessitamos, para
o tratamento da matemática, de uma linguagem mais adequada chamada de linguagem
simbólica.
Nesta linguagem, destaca-se o uso do termo (expressão que nomeia ou descreve algum
objeto) e do enunciado (expressão que correlaciona objetos, descreve propriedades de
objetos etc.)
Exemplos:
x
x+2=4
x+y
a>b
Termos Enunciados
∅
7<x
{3, 5, 7} x2 − 5x + 6 = 0
O enunciado aberto é qualquer expressão que contém variáveis. Entendemos por va-
riável um elemento que pode assumir qualquer valor dentro de um conjunto de escolhas.
Já no enunciado fechado, a variável deve assumir pelo menos um valor. Podemos também,
chamar de sentença ou proposição.
O juntor não (~), de um enunciado p, pode formar-se o enunciado ~p, dito negação de p:
p ~p
V F
F V
5
O próximo juntar a ser tratado é o “e”. Dados dois enunciados p e q, podemos formar
o enunciado “p e q” dito conjunção de p e q:
p q peq
V F F
V V V
F V F
F F F
Também temos o juntor “ou”, sendo usado no contexto de lógica como não exclusivo:
p q p ou q
V V V
V F V
F V V
F F F
• Fez sol e André foi à praia, então podemos concluir que a afirmação acima não foi
falseada pelo experimento em questão.
• Fez sol e André não foi à praia, então podemos concluir que o enunciado acima é
falso.
• Não fez sol. Neste caso, não importa se André foi ou não a praia. Isto é, concluímos
que o enunciado acima é verdadeiro.
p q p⇒q
V V V
V F V
F V V
F F F
6
p q p⇔q
V V V
V F F
F V F
F F V
Um enunciado atômico é uma sentença declarativa que contém uma ideia que é falsa
ou verdadeira, mas não ambas. Um enunciado é chamado de composto se é obtido com
base em enunciados atômicos, através do uso de juntores. Um enunciado composto é dito
ser uma tautologia se é verdadeiro ao considerarmos todas as possíveis valorações de seus
componentes atômicos:
p ⇒ p; p ou ∼ p; ∼∼ p ⇔ p
(p e q) ⇔∼ (∼ p ou ∼ q) ; p ou q⇔ (∼ p e ∼ q)
1. ∼ (p e q) é equivalente a ~p ou ~q;
2. ∼ (p ou q) é equivalente a ~p e ~q;
3. p ⇒ q é equivalente a ∼ q ⇒ p
Quantificadores:
Seja o conjunto X = {1, 3, 5, 7} os enunciados abertos:
• q{x}: x é múltiplo de 3;
7
• r{x}: x ≥ 10
∀x (x ∈ X ⇒ p {x})
∃x (x ∈ X e q {x})
∼ ∃x (x ∈ X e r {x})
∀x (x ∈ B ⇒ x ∈ F ) equivale a ∼ ∃x (x ∈ B e x ∈
/ F)
∀x p ⇔ ∃x ∼ p
∀x p ⇔ ∀x ∼ p
e em sequência:
∼ ∃ p ⇔ ∀x ∼ p
∼ ∀p ⇔ ∃x ∼ p
R+ = {x ∈ R : x > 0}
Definição 3. Interseção
Sejam A e B ⊂ R, A ∩ B = {x : x ∈ A e x ∈ B}
Definição 4. Subtração
Sejam A e B ⊂ R, A − B,ou A\B,A − B = {x : x ∈ A e x ∈
/ B}
2.2 Números
O primeiro conjunto de números que apresentamos é o dos números Naturais:
N = {1, 2, 3, ...}
A soma e o produto de dois números naturais é outro número natural, mas a diferença
não precisa estar em N. Adicionalmente, o conjunto dos números inteiros inclui os números
negativos:
a
Q= : a, b ∈ Z; b 6= 0
b
Podemos destacar algumas propriedades dos números Racionais:
a
a e b ∈ Q → a + b, a − b, ab, ∈Q
b
9
Todo o número pode ser escrito como o quociente de dois inteiros? Embora não
√
seja imediatamente óbvio, alguns números como 2 e π não podem ser escritos como o
quociente de inteiros. Os números que não podem ser escritos como a razão ou quociente
de inteiros são denominados irracionais. Por exemplo, expansões decimais sem padrão são
números irracionais. Por fim, o conjunto dos números racionais e irracionais é o conjunto
dos números reais.
Definição 5. Um inteiro n é dito número par se existe um inteiro m tal que n=2m. Um
inteiro que não é par é dito ímpar.
Definição 6. Um número natural m é dito primo se, sempre que m puder ser escrito
como o produto m=ab de dois números naturais, então a=1 ou b=1 (um ou outro, não
simultaneamente). Os seis primeiros números primos são: 1,2,3,5,7 e 11.
1. Fechamento: a + b e ab ∈ R
2. Comutatividade: a + b = b + a e a − b = b − a
Exemplo:
S = {0.3; 0.33; 0.333; 0.3333; ...}
2.4 Demonstrações
A maneira direta de provar que A → B é encontrar uma sequência de axiomas e teoremas
aceitos de tal forma que Ai → Ai+1 ∀ i = 1, ..., n de tal modo que A0 = A e An+1 = B.
A = A0 → A1 → A2 → ... → An−1 → An = B
a=beb=c→a=c
a=b→a+c=b+c
a = b → a.c = b.c
c = d → a.c = b.d
a=b
Demonstração.
x+z =y+z
(x + z) + (−z) = (y + z) + (−z)
x ((−z) + z) + = y ((−z) + z)
x+0=y+0
x=y
Demonstração.
0+0=0
x(0 + 0) = x.0
(x.0) + 0 = x.0
x.0 = 0
Teorema 3. Seja m um inteiro par e p um inteiro qualquer. Então m.p é um inteiro par.
Demonstração.
m é um inteiro par
Existe q ∈ Z, m = 2q
mp é par
Definição 9. Recíproca
Considere a proposição P da forma A → B. Se vale a hipótese A então vale a conclusão
B. A recíproca de P é a afirmação B → A, que troca a hipótese e conclusão de P.
A contraposição afirmar que (~B) n não é um inteiro ímpar então (~A) não é um
número primo diferente de 2, de outro modo, se n é par, então n é igual a 2 ou não é um
número primo.
√
Teorema 7. 2 é um número irracional
√
Demonstração. Vamos realizar essa prova por contradição. Suponha que 2 não seja um
√
número racional. Desse modo 2 pode ser expresso por uma fração simplificada ab em
que a e b são inteiros primos entre si:
a √ a2
= 2 → 2 → 2 → a2 = 2b2
b b
2 2
Note que a é múltiplo de 2, então a é par. Assim a pode ser escrito como a = 2k ∀ k ∈
Z.
2. Sempre que alguma afirmação P (k) for verdadeira para algum k então P (k + 1)
também é.
n (n + 1)
P (n) : 1 + 2 + 3 + ... + n =
2
Tomando n=1 no lado direito da equação acima, obtemos:
1 (1 + 1)
1= →1=1
2
Agora aplicaremos a hipótese de indução, ou seja, que a afirmação P(k) é verdadeira
para algum inteiro k:
k (k + 1)
1 + 2 + 3 + ... + k =
2
Adicionando k+1 em ambos lados da equação acima, teremos:
k (k + 1)
1 + 2 + 3 + ... + k + k + 1 = +k+1
2
!
k
= + 1 (k + 1)
2
(k + 2) (k + 1)
=
2
Note que essa última expressão é exatamente a afirmação P(k+1). Mostramos que
P(1) é verdadeira e que P(k) é verdadeira então vale P (k + 1) ∀k. Pelo princípio da
indução concluímos que P (n) ∀n.
1 + 3 + 5 + 7 + ... + (2n − 1) = n2
14
Demonstração. É trivial notar que a fórmula acima é válida para n=1. Assim, vamos ao
passo indutivo. Considere que a equação vale para algum inteiro k positivo:
1 + 3 + 5 + 7 + ... + (2k − 1) = k 2
1 + 3 + 5 + 7 + ... + (2k − 1) + (2 (k + 1) − 1) = k 2 + 2k + 1
Note que ficamos com k+1 no lugar de k. Por indução concluímos que a primeira
fórmula vale ∀ n ∈ N .
2x1 + 3x2 = 7 ou x1 + x2 + x3 = 5
(1)
x1 − x2 = 2 x2 − x3 = 0
O sistema linear geral de m equações a n incógnitas pode ser escrito como:
1. Substituição;
2. Eliminação de variáveis, e
3. Métodos Matriciais
Definição. A matriz é dita escalonada por linhas se cada linha subsequente começa com
mais zeros que a linha anterior.
Exemplo:
1 −0.4 −0.3 | 130
H= 0 0.8 −0.2 | 100
0 0 0.7 | 210
Definição. Dizemos que a linha de uma matriz tem k zeros líderes se os k primeiros
elementos da linha são todos zero e o (k+1)-iésimo elemento de cada linha é não nulo.
Com essa terminologia podemos dizer que a matriz está escalonada por linha se cada linha
tem mais zeros líderes do que a que a precede.
Definição. Dizemos que uma matriz em forma escalonada por linhas está na forma re-
duzida por linhas se cada pivô é 1 e cada coluna que contém um pivô não contém outros
elementos não nulos.
Definição. Se a j-ésima coluna de B̂ não contém um pivô, dizemos que xj é uma variável
livre ou não básica.
w +2x +y −z = 1
3w −x −y +2z = 3
−x +y −z = 1
2w +3x +3y −3z = 3
w +2x +y −z | 1
3w −x −y +2z | 3
−x +y −z | 1
2w +3x +3y −3z | 3
Na forma escalonada reduzida por linhas:
17
3
1 0 0 − 11 | 12
11
1 4
0 1 0 − 11 | − 11
12 7
0 0 1 − 11 | 11
0 0 0 0 | 0
Então temos que:
w = 12
11
3
− 11 z
4 1
x = − 11 + 11 z
7
w = 11 + 12
11
z
Assim, z é a única variável livre e as demais são variáveis básica.
Fato. 7.2: Um sistema de equações lineares com matriz de coeficientes A e matriz au-
mentada  possui uma solução se, e somente se, posto de  = posto de A
7.3: Um sistema linear de equações não tem nenhuma solução, ou apenas uma solução,
ou infinitas soluções. Assim, se um sistema tiver mais do que uma solução, então terá
infinitas soluções.
Fato. 7.4: Se um sistemas tem exatamente uma solução, então a matriz de coeficientes
A tem pelo menos tantas linhas quanto colunas. Em outras palavras, um sistema com
solução única deve ter pelo menos tantas equações quanto variáveis.
Fato. 7.5: Se um sistema de equações lineares tem mais incógnitas do que equações, então
o sistema não tem nenhuma solução ou tem uma quantidade infinita de soluções.
Fato. 7.6: Um sistema homogêneo de equações lineares com mais incógnitas do que equa-
ções necessariamente possui uma infinidade de soluções distintas
18
Fato. 7.7: Um sistema de equações lineares com matriz de coeficientes A tem uma solução
para cada escolha de lado direito b1 , ..., bm se, e somente se,
postoA = número de linhas de A
Fato. 7.8: Se um sistemas de equações lineares tem mais equações do que incógnitas,
então existe um lado direito tal que o sistema resultante não possui solução
Fato. 7.9: Qualquer sistema de equações lineares com matriz de coeficientes A tem no
máximo uma solução para cada escolha de lado direito b1 , ..., bm se, e somente se, posto
A = número de colunas de A.
7.10: Uma matriz d coeficientes A é não-singular, ou seja, o sistema linear correspon-
dente tem uma, e só uma solução para cada escolha do lado direito b1 , ..., bm se, e somente
se, número de linhas de A = número de colunas de A = posto de A
7.11: Considere o sistema linear de equações Ax = b
(a) Se o número de equações <o número de incógnitas, então:
(i) Ax = 0 tem um número infinito de soluções;
(ii) para qualquer b dado, Ax = b tem 0 ou um número infinito de soluções, e
(iii) se posto A = número de equações, Ax = b tem um número infinito de soluções
para cada escolha do lado direito de b.
(b) Se o número de equações > o número de incógnitas, então:
(i) Ax = 0 tem um ou um número infinito de soluções
(ii) para qualquer b dado, Ax = b tem 0, uma ou um número infinito de soluções, e
(iii) se posto A = número de incógnitas, Ax = b tem 0 ou uma solução para cada
escolha do lado direito b.
(c) Se o número de equações = o número de incógnitas, então
(i) Ax = 0 tem uma ou um número infinito de soluções
(ii) para qualquer b dado, Ax = b tem 0 ou um número infinito de soluções, e
(iii) se posto A = número de incógnitas = número de equações, Ax = b tem exatamente
uma solução para cada escolha de lado direito b.
4 Álgebra Matricial
Teorema. Sejam A uma matriz k x m e B uma matriz m x n. Então (AB)T = B T AT
=
X
Ajh Bhi
h
X
= AT BT
hj ih
h
19
X
= BT AT
ih hj
h
= B T AT
ij
Portanto,
(AB)T = B T AT
• Matriz coluna: n = 1.
• Matriz linha: k = 1.
• Matriz triangular superior: aij = 0 sei > j (geralmente quadrada) na qual cada
a b
entrada abaixo da diagonal principal é 0.
0 d
a 0
• Matriz triangular inferior: aij = 0 se i < j.
c d
1. permutação de linhas,
20
Essas operações podem ser efetuadas em uma matriz A pela multiplicação à esquerda
por certas matrizes especiais denominadas matrizes elementares. Por exemplo, o seguinte
teorema ilustra como permutar as linhas i e j de uma dada matriz A.
Teorema. Forme a matriz de permutação Eij pela permuta da i-ésima com a j-ésima
linha da matriz identidade I. Então, a multiplicação à esquerda de uma matriz A por Eij
tem efeito de permutar a i-ésima com j-ésima linha de A.
Demonstração. Para verificar isso, denotaremos por ehk uma entrada qualquer de Eij :
eij = eji = 0
eii = ejj = 0
(3)
ehh = 1 se h 6= i, j
ekk = 0 caso contrário
O elemento na linha k e coluna n de Eij A é
a
jn
k=i
ekm amn = k=j
X
a
in
m
k 6= i, j
a
kn
por (1). Portanto, Eij A é simplismente A com as linhas i e j trocadas entre si.
1 0 0 a11 a12 a13
a11 a12 a13
E23 (5).A = 0 1 0 a a22 a23 = a21 a22 a23
21
0 5 1 a31 a32 a33 5a21 + a31 5a22 + a32 5a23 + a33
Definição. As Matrizes Eij , Eij (r) e Ei (r), que foram obtidas executando as operações
elementares sobre linhas na matriz identidade, são denominadas matrizes elementares.
21
Teorema. Seja E uma matriz elementar n x n obitida executando-se uma dada operação
elementar sobre linhas na matriz identidade n x n. Se A é uma matriz n x n qualquer,
então EA é a matriz obtida executando aquela mesma operação elementar sobre linhas
em A.
Teorema. Uma matriz A de tamanho n x n pode ter, no máximo, uma única inversa.
Lema. Se uma matriz A tem uma inversa à direita B e uma inversa à esquerda C, então
A é invertível e B = C = A−1 . A Prova é análoga a do teorema 8.5 .
Ax = b
Ix = A−1 b
x = A−1 b.
AC = A [c1 , . . . , cn ]
= [Ac1 , . . . , Acn ]
= [e1 , . . . , en ]
=I (4)
Assim C é uma inversa a direita de A. Para ver que A também possui uma inversa a
esquerda, use o teorema 8.4 para escrever EA = U , onde E é um produto de matrizes
elementares e U é a forma escalonada reduzida por linhas de A. Como A é não-singlar U
não tem linha de zero e cada coluna contém exatamente 1, U = I. Portanto, E é uma
inversa a esquerda de A. Como A tem uma inversa à direita e uma inversa à esquerda, A
é invertível.
Podemos ser mais eficientes aglutinando todas essas informações em uma matriz au-
mentada gigantesca (A | e1 , . . . , en ) = (A | I) e executar a eliminação de Gauss-Jordan
somente uma única vez em vez de n vezes. Nesse processo, a matriz aumentada se reduz
a (I | A−1 ).
Exemplo. 8.4
a b
A= (5)
c d
23
a b | 1 0
(A | I) =
c d | 0 1
(a) A é invertível.
(f ) A é não-singular.
Teorema. Se A é invertível:
Teorema. Seja A uma matriz arbitrária k x n suponha que não é necessário efetuar
permuta de linhas para reduzir A à sua forma escalonada por linhas. Então A pode ser
escrita como um produto LU , onde L é uma matriz trinagular inferior k x k com entradas
1 na diagonal e U é uma matriz triangular superior k x n.
25
4.4 Decomposição LU
Vamos resolver o sistema Ax = b da forma LU x = b. Primeiro tome U x = Z e LZ = b e
então resolva.
UX = Z
L U b
2 4 0 1 0 0 2 4 0
x1
2
4 6 3 = 2 1 0 0 −2 3 ⇒ x2 = 1
−6 −10 0 −3 −1 1 0 0 3 x3 −6
LZ = b
1 0 0 z1 2 z
1
2
2 1 0 z = 1 ⇒ z2 = −3
2
−3 −1 1 z3 −6 z3 3
UX = Z
2 4 0
x1
2
x1
1
0 −2 3
x2
=
−3
⇒
x2
=
0
0 0 3 x3 −3 x3 −1
a11 0 a12 0 a13 0
0a11 0a12 0a13
AI =
a21 0 a22 0 a23 0
0a21 0a22 0a23
Propriedades
0 0 0
(1) (A B) = A B
(2) (A B)(C D) = AC BD
(3) A (B + C) = A B + A C
(4) (A + C) A = B A + C A
5 Determinantes
5.1 Menores de uma Matriz
Definição. Seja A uma matriz n x n. Seja Aij a submatriz (n − 1) × (n − 1) obtida
suprimindo-se a i-ésima linha e a j-ésima coluna de A. O escalar Mij ≡ detAij é denomi-
27
a11 a12 a13
det a21 a22 a23 = a11 M11 − a12 M12 + a13 M13
a31 a32 a33
a11 a12 a13
a22 a23 a21 a23 a21 a22
a21 a22 a23 = a11 − a12 + a13
a a a a a a
32 33 31 33 31 32
a31 a32 a33
Teorema. 9.1
O determinante de uma matriz triangular inferior ou triangular superior é simples-
mente o produto de suas entradas diagonais.
Teorema. 9.2
Seja A uma matriz de tamanho n x n e seja R sua forma escalonada por linhas. Então
detA = ±detR
Se não tiverem sido usadas permutações de linhas para obter R de A, então detA =
detR.
Definição. Para qualquer matriz A de tamanho n × n, seja Cij o (i, j)-ésimo co-fator de
A, ou seja, (−1)i+j vezes o determinante da submatriz obtida suprimindo a i-ésmia linha
e a j-ésima coluna de A. A matriz de tamanho n x n cuja (i, j)-ésima entrada é Cij , o (i,
28
Teorema. 9.4
Seja A uma matriz não-singular. Então,
1
(a) A−1 = detA
· adjA
xi = detBi
detA
, para i = 1, ..., n. Onde Bi é a matriz A com o lado direito b subs-
tituindo a i-ésima coluna de A.
4 5
Exemplo. A = detA = −1
1 1
C11 C21
adjA = C11 = 1; C12 = −1; C21 = −5; C22 = 4
C12 C22
1 1 −5 −1 5
A−1 = −1
· ⇒A−1 =
−1 4 1 −4
Teorema. 9.5
Seja A uma matriz quadrada. Então,
6 Espaços Euclidianos
6.1 Comprimento e Distância
Se P e Q são dois pontos no Rn , escrevemos P Q para o seguimento ligando P e Q e
−→
P Q para
o vetor
de P a Q. O comprimento do segmento de reta P Q é denominado pelo
símbolo
P Q
, valor absoluto na reta. Sejam P e Q R2 , para calcularmos o comprimento
do segmento ` ligando esses dois pontos P (a1 , b1 ) e Q (a2 , b2 ) marcamos um ponto inter-
mediário R (a2 , b1 ). Seja m o segmento de reta (horizontal) de P (a1 , b1 ) a R (a2 , b1 ) e n o
segmento de reta (vertical) de Q (a2 , b2 ) a R (a2 , b1 ). O triângulo correspondente P RQ é
um triângulo retângulo cuja hipotenusa é o segmento de reta `.
`2 = |a1 − a2 | 2 + |b1 − b2 | 2
29
q
P Q
= (a1 − a2 )2 + (b1 − b2 )2
Demonstração.
kr (v1 , ..., vn )k = k(rv1 , ..., rvn )k
q
= r2 (v1 ) 2 + ... + r2 (vn )2
q
|r| v12 + ... + vn2
krk . kvk
1
1 1
.v
= . kvk = . kvk = 1
kvk kvk
v
Ex: q √
k(1, −2, 3)k = 12 + (−2)2 + 32 = 14
1 1 3
!
−2
√ (1, −2, 3) = √ ,√ ,√
14 14 14 14
u.v = u1 v1 + u2 v2 + ... + un vn
30
Teorema. 10.3 Sejam u e v dois vetores em Rn . Seja θ o ângulo entre dois vetores.
Então,
Demonstração. Suponha que u e v sejam vetores com ponto inicial na origem 0; Digamos
→
− →
−
que u = O P e v = O Q. Seja ` a reta pelo vetor v, ou seja, a reta pelos pontos 0 e Q.
Seja m o segmento de reta perpendicular do ponto P à reta `. Seja R o ponto em que
→
− →
− →
−
m encontra `. Como R está em `, O R é um múltiplo escalar de v = O R. Escreva O R
como t.v. Como u, t.v e o segmento m são os três lados do triângulo retângulo P OR,
podemos escrever m como o vetor u − tv. Como u é a hipoensa desse triângulo retângulo,
ktvk t kvk
cosθ = = (4)
kuk kuk
Por outro lado, pelo teorema de Pitágoras e o teorema 10.2, o quadrado do compri-
mento da hipotenusa é:
Segue que
u.v
t= (5)
kvk2
Substituindo (5) em (4) resuta:
u1 .d (c, 0, 0) . (c, c, c) c2 1
cosθ = = √ 2 = √ =√
ku1 k . kdk c. c + c + c 2 2 c.3 c 2 3
Teorema. 10.4 O ângulo entre os vetores u e v em Rn é:
(a) agudo se u.v > 0
(b) obtuso se u.v < 0
(c) reto se u.v = 0
Quando esse ângulo é reto dizemos que u e v são ortogonais. Dizemos que u e v são
ortogonais se, e somente se, u.v = u1 v1 + ... + un vn = 0
ku + vk ≤ kuk + kvk
Essa regra afirma que qualquer lado de um triângulo é mais curto do que a soma dos
comprimentos dos outros dois lados.
Demonstração. kukkvk
u.v
= cosθ ≤ 1 A função cosseno está definida da seguinte forma:
f : R → [−1, 1]
Pelo teorema 10.3 u.v ≤ kuk . kvk→Multiplique por 2 e some por kuk2 + kvk2
(u + v) . (u + v) ≤ (kuk + kvk)2
ku + vk ≤ (kuk + kvk)
ku + vk ≤ kuk + kvk
ky − x + xk ≤ ky − xk + kxk
|kxk − kyk| ≤ kx − yk
3. ku + vk ≤ kuk + kvk
Qualquer associação de números reais e vetores que satisfaça essas 3 propriedades é de-
nominada norma.
33
Exercício. 10.16 Prove que |k(u1 , u2 )|k = |u1 |+|u2 |(1) e k|(u1 , u2 )|k = max {|u1 | , |u2 |}(2)
são normas no R2
Prova (1)
ku| ≥ 0
|u1 | + |u2 | ≥ 0
(2)
u2 u3 u1 u3 u1 u2
=
,−
,
v2 v3 v1 v3 v1 v2
34
6.5 Retas
Os objetos da geometria euclidiana são retas e planos e pontos. Inicialmente trabalhamos
com retas no R2
Por exemplo:
x2 = mx1 + b
x (t) = x0 + tv
= (4, 2) + t (1, 1)
= (4 + t.1, 2 + t.1)
x1 = 4 + t.1
x2 = 2 + t.1
35
Uma outra maneira de determinar uma reta é identificando dois de seus pontos. Di-
gamos que x e y são dois pontos da reta `. Então, ` pode ser vista como a reta que passa
por x e aponta na direção y − x. Assim uma parametrização para essa reta é
x (t) = x + t (y − x)
= x + ty − tx
= (1 − t) x + ty
Definição. Plano
Seja P um plano em R3 pela origem. Sejam v e w dois vetores em P, escolha v e
w de modo que apontem para direções diferentes, de tal modo que nenhum deles seja
um múltiplo escalar do outro. Para quaisquer escalares s e t o vetor sv + tw é denomi-
nado combinação escalar de v e w. Pela nossa interpretação geométrica da adição e da
multiplicação, fica claro que todas as combinações lineares de v e w estão no plano P.
x = sv + tw
x1 = sv1 + tw1
x2 = sv2 + tw2
x3 = sv3 + tw3
6.6 Parametrização
Se o plano P não passa pela origem, mas sim pelo ponto p 6= 0 e se v e w são dois vetores
direcionais linearmente independentes posicionados em p que estão no plano, podemos
parametrizar o plano da seguinte for
x = p + sv + tw ∀s, tR
36
x (s, t) = p + s (q − p) + t (r − p)
= (1 − s − t) p + sq + tr
a1 x1 + a2 x2 + ... + an xx = d
O hiperplano pode ser entendido como o conjunto de todos os vetores com cauda
em 0, .., 0, adn que são perpendiculares ao vetor n = (a1 , ...an )→n é um vetor normal
ao hiperplano. Um hiperplano que surge frequentemente nas aplicações é o espaço de
vetores-probabilidade
7 Independência Linear
Daremos uma definição precisa da “dimensão” de espaços vetoriais. O conceito central é
o de independência linear.
Definição. Sejam v1 e v2 dois vetores não-nulos (tomados com suas caudas na origem)
podemos tomar todas as combinações lineares de v1 e v2 para obter o conjunto gerado por
v1 e v2 :
L [v1 , v2 ] = {r1 v1 + r2 v2 : r1 ∈ R e r2 ∈ R}
c1 v1 + c2 v2 = 0 =⇒ c1 = c2 = 0
c1 v1 + c2 v2 + ... + ck vk = 0
c1 + 4c2 + 7c3 = 0
2c1 + 5c2 + 8c3 = 0
3c1 + 6c2 + 9c3 = 0
c1 = 1; c2 = −2 ; c3 = 1
A = (v1 , v2 , ..., vk )
c1
Demonstração. A. . = c1 v1 + ... + ck vk ,então as colunas de A são linearmente de-
ck
pendentes se, e somente se o sistemas de equações de A.c = 0 tem uma solução não-nula.
O próximo teorema é uma reformulação do teorema 11.1 para o caso k = n usando o
seguinte fato: uma matriz quadrada é não-singular se, e somente se, seu determinante é
não-nulo.
Demonstração. Sejam v1 , ..., vk quaisquer vetores de Rn , com k > n pelo teorema 11.1 os
vi são linearmente dependentes se, e somente se, o sistema
c1
Ac = (v1 v2 ...vk ) . . =0
ck
39
Tem uma solução não-nula. Qualquer matriz A com mais colunas do que linhas possui
uma variável livre e portanto Ac = 0 tem infinitas soluções, todas as quais, com excessão
de uma são nulas.
Quando ocorre (10) dizemos que v1 , ..., vk gera V . Cada reta pela origem é gerada por
um vetor não-nulo da reta. Por exemplo, o eixo x1 é gerado por e1 = (1, 0, ..., 0) e a reta
diagonal
∆ ≡ {(a, a, ..., a) ∈ Rn : a ∈ R} é gerada pelo vetor (1, 1, ..., 1)
Seja b um vetor de Rn . Então, b está no espaço L [v1 , ..., vk ] gerado por v1 , ..., vk se, e
somente se, o sistema Ac = b tem uma soluçãoc.
Assim, b ∈ L [v1 , ..., vk ] se, e somente se, o sistema (12) tem uma solução c.
Teorema. 11.6 Um conjunto que gera Rn deve conter pelo menos n vetores.
Demonstração. Pelo teorema 11.5 os vetores v1 , ..., vk geram Rn se, e somente se, o sistema
(12) tem uma solução e para cada lado direito b ∈ Rn . O fato 7.7 nos diz que se o sistema
(12) tem uma solução para cada lado direito, então o posto da matriz de coeficientes é
igual ao número de linhas, n. O fato 7.1 estabelece que o posto da matriz de coeficientes
é sempre menor ou igual ao número de colunas, k. Portanto, se k vetores geram Rn , então
n ≤ k.
a1
1
0
0
a2 0 1 0
= + a2 + ... + an
a1
. . . .
an 0 0 1
Isto é o espaço euclidiano n-dimensional é gerado por e1 , ..., en . Deste modo e1 , ..., en
é uma base de Rn . Por ser tão natural, essa base recebe o nome de canônica.
Demonstração. Pelo teorema 11.3, uma base de Rn não pode conter mais do que n ele-
mentos. Caso contrário, o conjunto em questão não poderia ser linearmente independente.
Pelo teorema 11.6, uma base de Rn não pode ter menos do que n elementos; caso contrário
o conjunto em questão não geraria Rn . Portanto uma base de Rn deve ter exatamente n
elementos.
2. u + v = v + u (a adição é comutativa),
3. u + (v + w) = (u + v) + w (a adição é associativa),
8. (r + s).u = r.u+s.u,
9. r.(s.u) = s.(r.u), e
10. 1.u = u
8.1 Subespaços de Rn
As propriedades de existência: 1,4,5, e 6 não valem para qualquer subconjunto de Rn . As
propriedades 2, 5, 7, 8, 9, e 10 valem para qualquer subconjunto de Rn .
Teorema. 27.1:
Seja V ⊂ Rn . Sejam x e y∈ V , se (x + y) ∈ V e seja r ∈ R, e se rx e ry ∈ V então
V é um subespaço vetorial, portanto um subespaço de Rn .
para um conjunto {aij }de escalares, com j = 1, ..., r e i = 1, ..., m. Para verificar a
independência linear dos wj , escreva:
c1 w1 + ... + cm wm = 0 (10)
como os ui são linearmente independentes por hipótese a única ombinação dos ui que
tem soma 0 é a combinação nula. Portanto,
r r
cj a1i = 0, ..., (12)
X X
c j am
j=1 j=1
O sistema (4) possui m equações homogêneas nas r incógnitas c1 , ..., cr com r > m. Um
sistema de equações homogêneas com mais incógnitas do que equações possui variáveis
livres e portanto tem infinitas soluções distintas; portanto existe um conjunto de cj não
nulos que satisfaz o sistema (4) e portanto o sistema (2). Assim, w1 , ..., wr não pode ser
linearmente independente.
Teorema. 27.3
Seja V um subespaço de Rn . Duas quaisquer bases de V possuem o mesmo número de
vetores.
w = c1 v1 + cj v j
onde c1 6= 0
44
u = d1 v1 + dj vj
!
d1 d 1 cj
u = (c1 v1 + cj v j ) + dj − vj
c1 c1
somando e subtraindo d1 cj v j /v1
!
d1 d 1 cj
u= · w + dj − vj
c1 c1
Assim, u é uma combinação linear dos vetores w e vj , de modo que ζ [v1 , v j ] ⊂ ζ [w, vj ] .
Analogamente, se x é um vetor arbitrário em ζ [w, vj ]
x = b1 w + b2 vj
x = b1 (c1 v1 + cj vj ) + b2 vj
x = b1 c1 v1 + (b1 cj + b2 ) vj
Conclusões:
Lema. 27.2. Sejam v1 , ..., v k vetores não-nulos, tais que cada vi+1 tem mais 0 líderes do
que vi . Então, os vetores v1 , ..., v k são linearmente independentes.
Intuição:
Considere 3 vetores:
5
0 0
4 , 3 , 0
3 2 7
5
0
0
c1 4 + c2 3 + c3 0
3 2 7
45
5c1 =0 → c1 = 0
4c1 + 3c2 = 0 → c2 = 0
3c + 2c2 + 7c3 = 0 → c3 = 0
1
Demonstração. Escreva o vetor vj em coordenadas como vj = (vj1 , ..., vjn ). Para provar
a independência, precisamos mostrar que a única solução da equação
c1 v1 + ... + ck v k = 0 (13)
c1 v1i∗ + c2 0 + ... + ck 0 = 0
v1i∗ 6= 0;
c2 v2 + ... + ck v k = 0 (14)
Seja v2j∗ o primeiro componente não nulo de v2 . Pelo mesmo argumento v3j∗ = ... =
vnj∗ = 0. Escrevendo a j-ésima equação de (6), temos c1 v2j∗ de modo que c2 = 0. Con-
tinuando dessa maneira até esgotar todas os ci concluímos que a única solução de (5) é
c1 = c2 = ... = ck = 0
Teorema. 27.4
Seja Ar qualquer forma escalonada por linhas de uma matriz A. Então, o subespaço
Lin(A) é o mesmo que o subespaço Lin(Ar ). Os vetores linha não nulos de Ar são uma
base de Lin(A) e a dimensão de Lin(A) e o posto de A.
1 2 0 3
3 5 1 7
A=
1 1 1 1
0 1 −1 2
Somar L3+L4=L4
1 2 0 3
3 5 1 7
A=
1 1 1 1
1 2 0 3
Subtrair L1-L4=L4
1 2 0 3
3 5 1 7
A=
1 1 1 1
0 0 0 0
Multiplicar 3.L1 e subtrair com L2
1 2 0 3
0 −1 1 −2
A=
1 1 1 1
0 0 0 0
Somar L3 + (-1).L2=L3
1 2 0 3
0 −1 1 −2
A=
1 2 0 3
0 0 0 0
Subtrair L2 de L3
1 2 0 3
0 −1 1 −2
A=
0 0 0 0
0 0 0 0
Bases:
1 2 0 3 .a1
0 −1 1 −2 .a2
Lin(A) = ζ[a1 , a2 ]
47
P osto = 2
Definição. Uma coluna de uma matriz A é uma coluna básica se a coluna correspondente
numa forma escalonada por linhas Ar , contém um pivô.
Teorema. 27.5
As colunas básicas de A constituem uma base de Col(A).
Teorema. 27.6
Para qualquer matriz n × m,
Exemplo. 27.11
2 3 1 4
2 3 1 4
A = 2 3 7 9 , Ar = 0 0 6 5
2 3 13 14 0 0 0 0
4 2 1
19 5
9= · 2 + · 7
12 6
14 2 13
Teorema. 27.7
Seja uma matriz de tamanho n × m:
2. O sistema Ax = b tem uma solução para qualquer b se, e somente se, postoA = n.
A(ru + v) = rAu + Av
A(ru + v) = 0
Teorema. 27.9
Seja Ax = b um sistema n × m de equações lineares e c0 ∈ Rm uma solução particular
0 0
deste sistema. Então, qualquer outra solução c de Ax = b pode ser escrita como c = c0 +w,
49
0 0
A(c − c0 ) = Ac − Ac0 = b − b = 0
0
de modo que w = c − c0 está em N ul(A). Reciprocamente, se w está em N ul(A),
então A(c0 + w) = Ac0 + Aw = b + 0 = b
Exemplo. 27.14
Seja A a matriz 1 1 . O conjunto solução de Ax = 1 é o conjunto
{(x1 , x2 ) : x1 + x2 = 1} (15)
N ul(A) = {(x1 , x2 ) : x1 + x2 = 0}
1 − x2 1
= N ul(A) +
x2 0
Teorema. 27.10
Seja A uma matriz n × m. Então,
Exemplo. 27.16
1 2 0 −2 0
1 2 0 −2 0
A = 2 4 1 −1 0 e Ar = 0 0 1 3 0
1 2 1 1 1 0 0 0 0 1
L3 − L2 → L3
L3 + L1 → L3
operações para escalonar A
2L1 − L2 → L2
(−1)L2
50
x5 = 0
x3 = −3x4
x1 = −2x2 + 2x4
dimN ul(A) = 5 − 3 = 2
Conclusões:
Exemplo. 27.19
Seja F {x ∈ R; f (x) : R → R}
O que precisamos para somar funções?
Simplesmente somamos seus valores para cada x. Suponha, por exemplo, que u(x) =
x2 e que v(x) = lnx. Então, sua soma é a função (u + v)(x) = x2 + lnx. A multiplicação
por escalar: ru(x) = rx2 . O elemento neutro na adição é a função nula w(x) ≡ 0.
Exemplo. 27.20
F2 ≡ a0 x2 + a1 x + a2 : a0 , a1 , a2 ∈ R1
n o
Adição
a0 x 2 + a1 x + a2 + b 0 x 2 + b 1 x + b 2
Nesse caso dizemos que F2 é um subespaço de F . Note que se fixarrmos nossa atenção
para os três coeficientes, então a operação de adição será:
Exemplos:
1. {1, 2, 3, 4, . . .}
|xn − r| < ε
lim xn = r
n→∞
Mais precisamente, denotamos por ε um número real positivo e pequeno. Então, o inter-
valo de raio ε em torno do número r é definido por:
Iε (r) ≡ {s ∈ R : |s − r| < ε}
Em notação intervalar:
Iε (r) = (r − ε, r + ε)
Demonstração. Suponha que {xn }∞ n=1 tem 2 limites r1 e r2 . Tomamos ε como um número
menor do que a metade da distância entre r1 e r2 . Digamos que ε = 14 |r1 − r2 |, de modo
que Iε (r1 ) e Iε (r2 ) são intervalos disjuntos. Como xn → r1 , existe N1 tal que todos os
xn estão em Iε (r1 ), desde que n ≥ N1 ; como xn → r2 , existe N2 tal que todos xn estão
em Iε (r2 ), desde que n ≥ N2 . Portanto, todos os xn estão em ambos Iε (r1 ) e Iε (r2 ) para
todos n ≥ max{N1 , N2 }. Mas ponto algum pode estar em ambos intervalos, o que é uma
contradição e prova o teorema.
Teorema. Sejam {xn }∞ n=1 e {yn }n=1 sequência com limites x e y respectivamente. Então
∞
a sequência {xn + yn }∞
n=1 converge ao limite x + y.
ε
|xn − x| < para n ≥ N1
2
e um inteiro N2 tal que
ε
|yn − y| < para n ≥ N2
2
Lembre que:
|x + y| ≤ |x| + |y|
Para qualquer x, y
||x| − |y|| ≤ |x − y|
≤ |xn − x| + |yn − y|
ε ε
≤ +
2 2
54
=ε
Teorema. Sejam {xn }∞ n=1 e {yn }n=1 sequência com limites x e y respectivamente. Então
∞
Demonstração. Para mostrar que |xy − xn yn | é pequeno quando |xn − x| e |yn − y| são
pequenos, tente escrever o primeiro em termos dos dois últimos. Conseguimos isso usando
o truque dos matemáticos de somar e subtrair o mesmo elemento à dada expressão; com
efeito, fazemos isso duas vezes:
= |x(y − yn ) + (x − xn )yn |
Sabemos que cada parcela na última expressão tende a zero. Para tornar este processo
preciso, proceda exatamente como na prova do teorema 12.2. Escolha e fixe um número
positivo pequeno ε, com ε < 1. Como xn → x, existe um inteiro N1 tal que:
ε
n ≥ N1 ⇒ |x − xn | <
3(|y| + 1)
Como yn → y, existe um inteiro N2 tal que:
ε
n ≥ N2 ⇒ |y − yn | <
3(|x| + 1)
Não esqueça o seguinte fato: como ε e |x| são números reais fixados, também 3(|x|+1)
ε
ε ε ε ε
≤ |x| + + |y|
3(|x| + 1) 3(|y| + 1) 3(|x| + 1) 3(|y| + 1)
|x| ε ε2 1 |y| ε
= + 2 +
(|x| + 1) 3 3 (|y| + 1)(|x| + 1) (|y| + 1) 3
2
ε ε ε
≤ + +
3 3 3
≤ε
|x| |y| 1 1
< 1, (|y|+1) < 1, (|x|+1) < 1, (|y|+1) <1 e
(|x| + 1)
2
ε ε ε
ε<1⇒ <1⇒ <
3 3 3
Demonstração. Suponha, então que xn ≤ b∀n e suponha que x > b. Escolha ε de tal
modo que 0 < ε < x − b, então b < x − ε e Iε (x) = (x − ε, x + ε) fica a direita de b na reta
numérica. Existe um inteiro N tal que xn ∈ Iε (x)∀n ≥ N . Para esses xn temos b < xn ;
Essa é a contradição da hipótese que todos xn são ≤ b. Agora suponha que xn ≥ b∀n e que
x < b. Escolha ε > 0 tal que 0 < ε < b − x. Então, ε + x < b e Iε (b) = (x − ε, x + ε) está
a esquerda do número b na reta numérica. Existe um N > 0 tal que ∀n ≥ N xn ∈ Iε (x).
Para esses xn , xn < x + ε < b, uma contradição a hipótese que xn ≥ b∀n
Proposição. Se {xn }∞ n=1 converge a 0 e se {yn }n=1 é limitada, então a sequência dos
∞
Demonstração. Seja ε > 0. Escolha N tal que n ≥ N , |xn − 0| ≤ εB onde |yn | ≤ B∀n.
Então, n ≥ N
ε
|xn yn − 0| = |xn yn | = |xn ||yn | ≤ B=ε
B
56
9.2 Sequências em Rm
Uma sequência em Rm é a associação de um vetor de Rm a cada número natural n :
{x1 , x2 , x3 , . . .}. Cada vetor possui m coordenadas e a sua posição na sequência é dada
por n
Definição. (Bola Aberta) Seja r um vetor em Rm e ε um número positivo. A bola de
raio ε em torno de r é dada por
Bε (r) ≡ {x ∈ Rm / kx − rk < ε}
Teorema. Uma sequência de vetores em Rm converge se, e somente se, cada uma das m
sequência de seus componentes converge em R1 .
Demonstração. (se) Seja {xn }∞ n=1 uma sequência de vetores em R . Escreva xn = (x1n , . . . , xmn ).
m
Suponha que cada uma das m sequências {xin }∞ n=1 de números, com i = 1, . . . , m converge
a um limite xi . Seja x = (x1 , . . . , xm ). Escolha e fixe uma pequena constante positiva ε.
∗ ∗ ∗ ∗
√
Para cada i entre 1 e m, existe um inteiro Ni tal que, se n ≥ Ni então |xin − x∗i | < ε/ m.
Seja N = max{N1 , . . . , Nm }. Suponha que n ≥ N . Então,
s
q ε2 ε2
kxn − x∗ k = (x1n − x∗1 )2 + (x2n − x∗2 )2 + . . . + (xmn − x∗m )2 < + ... + =ε
m m
(Somente se) Escolha ε > 0. Existe N , tal que, para cada n ≥ N , vale kxn − x∗ k < ε.
Mas então, para cada n ≥ N e para cada i
q
|xin − x∗i | ≤ (x1n − x∗1 )2 + . . . + (xmn − x∗m )2
Como a sequência dos yn → y,sabemos que existe um inteiro N1 tal que para cada
n ≥ N1 ,vale kyn − yk < ε/2. Por outro lado, para cada componente i, a sequência
n=1 → cxi pelo Teorema 12.3. Pelo teorema 12.5 isso implica que a sequên-
{cn xn }∞
n=1 converge a cx.
cia {cn xn }∞ Assim, existe um N2 tal que, para casa n ≥ N2 ,vale
kcn xn − cxk < ε/2. Segue que, para cada n ≥ N = max{N1 , N2 }vale k(cn xn + yn ) − (cx + y)k ≤
ε
Definição. O vetor x é um ponto de acumulação da sequência {xn }∞ n=1 se, para cada
ε > 0 dado, existem infinitos números inteiros n tais que kxn − xk < ε
Exemplo. 12.1 c
1 1
{1, , 4, , 16, . . .} ⇒ os termos pares formam uma subsequência convergente com limite 0
2 8
Exemplo. 12.1 d
1 2 3 4
{0, − , , − , , . . .}
2 3 4 5
os termos de índice par formam uma subsequência convergente com limite igual a -1.
ka − bk = ka − xm + xm − bk
ka − bk
ε + ε = 2ε = ⇒ contradição!
2
x ∈ S ⇒ ∃ε > 0, Bε (x) ⊂ S
Bε (x) = {x ∈ S : ky − xk < ε}
kz − xk ≤ kz − yk + ky − xk < (ε − δ) + δ = ε
Assim, V ⊂ B
kz − xk = k(x − y) + (y − z)k ≤ kx − yk + ky − zk
x ∈a cada Si . Como cada Si é aberto, para cada i existe um εi tal que Bεi (x) ⊂ Si . Seja
ε = min εi . A bola Bε (x) está contida em cada Bεi (x) e portanto está contida em cada
Si .Assim, a bola está contida na intersecção das ,Si .
interior de um conjunto pode ser considerado o maior conjunto aberto que está contido
no conjunto dado.
Demonstração. (Somente se) Seja S fechado. Precisamos mostrar que S C é aberto. Isto
é, ∀x ∈ S C ∃ε > 0, Bε (x) ⊂ S C . Escolhemos um x ∈ S C e supomos que isto não ocorre,
ou seja, que nenhum Bε (x) está completamente contido em S C .Então, para cada ε > 0,
temos Bε (x) S 6= ∅. Em particular, para cada inteiro positivo n, existe um elemento
T
xn de S em B1/n (x). A sequência {xn }∞n=1 está em S e converge a x, pois kxn − xk < 1/n.
Como S é fechado, x está em S – uma contradição com nossa escolha de x em S C .
(Se) Seja S o complementar de S C . Seja {xn }∞ n=1 uma sequência convergente em S
com limite x. Para mostrar que S é fechado, precisamos mostrar que x ∈ S. Suponha que
isso não ocorra, isto é, suponha que x ∈ S C . Como S C é aberto, existe Bε (x) em torno
de x contida em S C . Como a sequência converge a x, temos xn ∈ Bε (x) de modo que
xn ∈ S C , novamente uma contradição, pois os xn estão em S, o complementar de S C .
Demonstração. (Se) Seja {xn }∞n=1 uma sequência convergente de pontos de um conjunto
S com limite x. Então {xn }n=1 ⊂ T para qualquer conjunto fechado T ⊃ S,assim, x ∈ T .
∞
Como isto vale para qualquer conjunto fechado contendo S, temos que x ∈ fecho S
(Somente se) Suponha que x ∈ fecho S. Afirmamos que Bε (x) S 6= ∅, para cada
T
Teorema. Qualquer sequência contida no intervalo fechado e limitado [0, 1] tem uma
subsquência convergente.
Teorema. (29.1)
Toda sequência convergente em Rm é de Cauchy.
Demonstração. Seja {xn }∞ n=1 uma sequência convergente a x. Dado ε > 0, escolha N tal
que d(xn , x) < 2 para qualquer n ≥ N . Então, para quaisquer n, m ≥ N
ε
ε ε
d(xn , xm ) ≤ d(xn , x) + d(xm , x) < + =ε
2 2
Definição. Seja S ⊂ R. S tem uma cota superior se existe um número B tal que cada
x em S é menor que B, ∀x ∈ S. O supremo de um tal conjunto S é o número C, que é
uma cota superior de S e satisfaz C ≤ B para qualquer cota superior B de S. Qualquer
conjunto não vazio de números reais que tem uma cota superior tem um supremo.
Definição. Uma sequência de números reais {xn }∞ n=1 é monotonamente crescente se cada
entrada da sequência é pelo menos tão grande quanto a entrada anterior, ou seja, se
xn−1 ≤ x ∀n. A sequência é monótona se é monotonamente crescente ou decrescente.
Para usarmos o termo estrita(o), utilizamos a desigualdade estrita.
61
Teorema. (29.2)
Toda sequência monótona e limitada converge. (prova como exercício)
Lema. (29.1)
Toda sequência de Cauchy é limitada.
1
Demonstração. Seja {xn }∞ n=1 uma sequência de Cauchy em R . Fixe ε > 0. Existe um N
tal que |xi − xj | < ε para quaisquer i, j ≥ N. Em particular |xn − xi | < ε para qualquer
i ≥ N. Como:
|xi | ≤ |xn | + ε
para qualquer i ≥ N e portanto |xn | + ε é uma cota para todos os termos da sequência,
exceto possivelmente os primeiros N-1.
n o
Seja b = max |x1 , . . . |xn−1 |, |xn | . Daí, |xi | ≤ b + ε para cada xi da sequência.
Lema. (29.2)
Toda sequência possui uma subsequência monótona.
Lema. (29.3)
n=1 de Cauchy tem uma subsequência monótona convergente a
Se uma sequência {xn }∞
y, então a sequência toda converge a y.
Demonstração. ε > 0. Como a sequência é de Cauchy, existe um N tal que |xi − xj | < 2ε
para qualquer i, j ≥ N. Escolha um xk da subsequência convergente com k ≥ N e k
suficientemente grande para ter |xk − y| < 2ε . Então, para qualquer i ≥ N ,
|xi − y| = |(xi − xk ) + (xk − y)| ≤ |xi − xk | + |xk − y| < 2ε + 2ε = ε
Portanto, {xn }∞n=1 converge a y.
Teorema. (29.3)
Qualquer sequência de Cauchy de números reais converge.
Teorema. (29.5)
Qualquer sequência contida num subconjunto fechado e limitado de Rm possui uma
subsequência convergente.
Teorema. (29.6)
Seja S um subconjunto de Rm que tem a seguinte propriedade: qualquer sequência
contida em S possui uma subsequência convergente com limite em S. Então, S é fechado
e limitado.
Teorema. (29.7)
Um subconjunto S de R é conexo se, e somente se, dados x ∈ S, z ∈ S e x ≤ y ≤ z,
vale y ∈ S.
Seja S um conjunto em Rm . Seja u uma coleção de conjuntos abertos, tal que cada ponto
de S esteja em pelo menos um dos conjuntos u : S ⊂ ∪{U : U ∈ u}. A coleção u
é denominada cobertura aberta de S. Dizemos que o conjunto S tem a propriedade da
cobertura finita se, de qualquer cobertura aberta u de S, pudermos extrair uma subcoleção
finita de conjuntos u que ainda cobre S, ou seja: Existem U1 , . . . , Uk ∈ u, tais que S ⊂
∪kk=1 Uk
Teorema. De Heine-Borel
Os conjuntos com a propriedade da cobertura finita são compactos.
Teorema. (29.11)
Se um conjunto S em Rn é fechado e limitado, então S tem a propriedade da cobertura
finita.
63
Teorema. (13.1)
Seja F : Rk → R uma função linear. Então existe um vetor a ∈ Rk tal que f (x) = a.x
∀x ∈ Rk .
= x1 f (e1 ) + x2 f (e2 )
= x 1 a1 + x 2 a2
= a.x
Teorema. (13.2)
Seja f : Rk → Rm uma função linear. Então, existe uma matriz A de tamanho m × k
tal que f (x) = Ax ∀x ∈ Rk .
x1
..
f (x) = a.x = = Ax
.
a1 . . . ak
xk
k
=
P
Q x1 . . . xk aij xi xj
ij=1
Teorema. (13.3)
A forma quadrática geral
=
P
Q x1 . . . xk aij xi xj
i≤j
1 1
a11 a
2 12
... a
2 1n
1 1
x1
a
2 21
a22 ... a
2 2n
..
.
x1 . . . xn . .. .. .. .
. ... . .
1
xn
a
2 n1
... ... ann
f x1 . . . xk = cxa1 a2 ak
1 x 2 . . . xk
k
a1 , . . . , ak são inteiros não negativos. ai é denominada grau do monômio.
P
i=1
Teorema. (13.4)
Sejam f e g funções de Rk em Rm . Suponha que f e g são contínuas em x, então: f+g,
f-g e f.g são contínuas em x.
Teorema. (13.5)
Seja f = ( f1 . . . fn ) uma função de Rk em Rm . Então f é contínua se, e somente
se, cada fi : Rk → Rm é contínua em x.
Teorema. (13.7)
Sejam f : Rk → Rm uma função contínua em xRk e g : Rm → Rn uma função
contínua em f (x) ∈ Rm . Então, a função composta g ◦ f : Rk → Rn é uma função
contínua em x.
n
dg X ∂f ∂xi
= (X (t)) .
dt i=1 ∂xi ∂t
X = X ∗ + tV
Para ver como F varia ao longo dessa reta, inicialmente calculamos F ao longo dessa
reta:
∂F ∂F
g 0 (0) = (X ∗ ) v1 +, · · · , + (X ∗ ) vn
∂x1 ∂xn
Derivada de F em X ∗ na direção V .
67
v1
!
dg ∂F ∂F
v2
= (X ∗ ) · · · (X ∗ ) = DFX ∗ .V
..
dt ∂x1 ∂xn .
vn
A matriz coluna DFXT ∗ pode ser interpretado como um vetor de Rn com cauda em
X ∗ . Esse vetor é denotado por F (X ∗ ) ou, as vezes grad F (X ∗ ), é denominado vetor
`
∂F ∂F ∗
(K ∗ ) v1 + (L ) v2 = 3K −1/4 .1 + L−3/4 .1 = 1, 5.1 + 8.1 = 9, 5
∂K ∂L
Normalizando o comprimento para 1, fazemos:
∂F (K ∗ ) v1 ∂F (L∗ ) v2
. + .
∂K kV k ∂L kV k
∇F (X ∗ ) .V mede a taxa à qual F aumenta ou diminui quando saímos de X ∗ na
direção de V .
∇F (X ∗ ) .V =k ∇F (X ∗ ) kk V k cosθ =k ∇F (X ∗ ) k cosθ
X ∂fi
g0i (t) = (a1 (t) , · · · , an (t)) a0j (t) = Dfi (a (t)) .a0 (t)
j ∂xj
Juntando todas essas condições de componentes, obtemos a equação vetorial
H = F ◦ A : Rs → Rn
68
Como a multiplicação matricial pode ser vista como a composição das correspondentes
aplicações lineares, a regra da cadeia diz que a derivada da aplicação composta é a com-
posição das derivadas das aplicações componentes, calculadas nos pontos certos.
∂f f x∗1 , · · · , x∗i + h, x∗i+1 , · · · , x∗n − f (x∗1 , · · · , x∗i , · · · , x∗n )
(X ∗ ) = lim
∂xi h→0 h
Se todas as derivadas de f de ordem ≤ k que são contínuas em um intervalo J ,
dizemos que f é k vezes continuamente diferenciável ou C k . Se f é C k para cada k, cada
derivada de f de qualquer ordem existe e é contínua e dizemos que f é C ∞ .
3 1
Exemplo. f (K, L) = 4K 4 L 4
1 1
fk = 3K − 4 L 4
1 3 3
fL = K 4 L− 4
4
3 5 1
fKK = − K − 4 L 4
4
3 3 7
fLL = − K 4 L− 4
4
3 1 3
fKL = K − 4 L− 4
4
3 1 3
fLK = K − 4 L− 4
4
− 3 K − 4 L 4 3 K − 4 L− 4
5 1 1 3
D2 f(k,L) = 3 4 −1 −3 4 3 −5 1
4
K 4 L 4 −4K 4 L4
f : R2 → R, 2 variáveis 2n derivadas.
69
∂2f ∂2f ∂2f
∂x21 ∂x2 ∂x1
··· ∂xn x1
∂2f ∂2f ∂2f
···
∂x22
D 2 fx =
∂x1 ∂x2 ∂xn x2
.. .. Matriz Hessiana
...
. .
∂2f ∂2f ∂2f
∂x1 xn ∂xn x2
··· ∂x2n
∂ 2f ∂ 2f
(X) = (X)
∂xi ∂xj ∂xj ∂xi
PS: O teorema de Young vale para derivadas de ordens superiores.
1. O Teorema de Weierstrass, que afirmar que uma função contínua, cujo domínio é
um conjunto compacto, sempre alcança seu valor máximo e seu valor mínimo em
seu domínio;
Demonstração. Suponha que F não é limitada. Então existe {xn }∞ n=1 em C tal que
∞
F (xn ) → ∞ quando n → ∞. Se C é compacto, temos {yn }n=1 uma subsequência de
{xn }∞ ∞
n=1 que converge para y ∈ C. Como F (xn ) → ∞ e {yn }n=1 é uma subsequência de
∗
{xn }∞
n=1 então {F (yn )} → ∞. Contudo, como F é contínua em C e yn → y a sequência
∗
Adicionalmente, suponha que F não atinja seu máximo em C. Seja M o conjunto dos
valores do supremo de F em C. Pelo argumento do parágrafo anterior, M é limitado.
Ainda, existe uma subsequência {zn }∞
n=1 tal que {F (zn )} → M . Como C é um conjunto
compacto, podemos encontrar uma sequência {wn }∞ ∞ ∞
n=1 de {zn }n=1 tal que {wn }n=1 → w
∗
Teorema. de Rolle
Seja F : [a, b] → R uma função contínua em [a,b] e C 1 em ]a,b[. Se f (a) = f (b) = 0,
0
existe um c ∈ [a, b] tal que f (c) = 0.
0
Demonstração. Se f é constante em [a,b], então f (c) = 0∀c ∈]a, b[. Se f não é constante
em [a,b] então podemos supor, sem perda de generalidade que f>0 em algum intervalo
de ]a,b[. Pelo Teorema de Weierstrass, f atinge seu máximo em algum ponto c ∈ [a, b].
0 0
Então, f (c) > 0 e c ∈]a, b[ . O que resulta em f (c) = 0.
0 f (b) − f (a)
f (c) =
(b − a)
Esse teorema afirma que se traçarmos qualquer segmento de reta entre quaisquer dois
ponto de U, então existe um ponto entre eles no qual a reta tangente ao gráfico de f é
paralela a esse segmento de reta.
f (b) − f (a)
g0 (x) = f (b) − f (x) + (x − b)
(b − a)
É fácil ver que g0 (a) = 0 e g0 (b) = 0; Pelo Teorema de Rolle existe c ∈]a, b[ tal que
0
g0 = 0. Derive a expressão acima em relação a x para obter:
0 f (b) − f (a) 0
g0 (x) = + − f (x)
(b − a)
0
Fazendo x=c e g0 = 0 teremos:
0 f (b) − f (a)
f (c) =
b−a
71
G(x1 , . . . , xn , y) = 0
A equação acima define a variável endógena y como uma função implícita das variáveis
exógenas x1, . . . , xn .
Teorema (Teorema 15.1). Seja G(x, y) uma função C 1 numa bola em torno de (x0 , y0 )
em R2 . Suponha que G(x0 , y0 ) = c e considere a expressão:
G(x, y) = c
1. *
Considere a função:
G(x, y) = x2 − 3xy + y 3 − 7 = 0 em torno do ponto (x0 , y0 ) = (4, 3)
∂G
∂x
= 2x − 3y = −1 em (4, 3)
∂G
∂y
= 3y 2 − 3x = 15 em (4, 3) →como ∂G/∂y 6= y, então existe uma função C 1 de x
em torno de (x0 , y0 ).
0 ,y0 ) 1
Além disso, y 0 (x0 ) = − ∂G/∂x(x
∂G/∂y(x0 ,y0 )
= 15
1
y1 ≈ y0 + y 0 (x0 )∆x = 3 + 15 (0, 3) para x1 = 4, 3.
Teorema (Teorema 15.2). Seja G(x1 , . . . , xk , y) uma função C 1 numa bola em torno do
ponto (x∗1 , . . . , x∗k , y ∗ ). Suponha também que (x∗1 , . . . , x∗k , y ∗ ) satisfaz:
G(x∗1 , . . . , x∗k , y ∗ ) = c
∂G ∗
(x , . . . , x∗k , y ∗ ) 6= 0
∂y 1
Então existe uma função C 1 y = y(x1 , . . . , xk , y) definida numa bola aberta B em torno
de (x∗1 , . . . , x∗k ) tal que:
72
1. *
1. *
• Q(x1 , x2 ) = x21 − x22 , que assumem valores tanto positivos quanto negativos são
chamadas indefinidas.
Há dois casos intermediários: uma forma quadrática que é sempre ≥, mas pode ser
zero em alguns x não nulos, é chamada de não negativa. Veja por exemplo, Q4 (x21 , x22 ) =
(x1 + x2 )2 = x21 + 2x1 x2 + x22 , é nunca negativa, mas é zero em pontos não-nulos como
(x1 , x2 ) = (1, −1) ou (−2, 2). Uma forma quadrática como Q5 (x1 , x2 ) = −(x1 + x2 )2 que
nunca é positiva, mas pode ser zero em alguns x fora da origem é chamada não-positiva.
Formas quadráticas não-negativas ou não-positivas são chamadas de semidefinidas.
Definição. Menor Principal: Seja A uma matriz n×n. Uma submatriz principal de
ordem k de A é uma submatriz de A de tamanho k×k formada a partir de A suprimindo
n − k colunas, digamos, as colunas i1 , i2 , ..., in−k e as mesmas n − k linhas, ou seja, as
linhas i1 ,i2 , ... ,in−k . O determinante de uma submatriz principal k×k é denominado um
menor principal de ordem k de A.
Definição. Seja A uma matriz n × n. A submatriz principal de ordem k de A obtida
suprimindo as últimas n − k linhas e as últimas n − k colunas de A é denominada a sub-
matriz principal líder de ordem k de A.Seu determinante é denominado o menor principal
líder de ordem k de A. Vamos denotar a submatriz
principal líder de ordem k por Ak e
o correspondente menor principal líder por Ak .
74
Teorema. 16.1:
Seja A uma matriz n × n simétrica. Então,
(a) A é positiva se, e somente se, todos os n menores principais líderes são (estri-
tamente) positivos.
Teorema. 16.2:
Seja A uma matrizn × n simétrica. Então A é não negativa se, e somente se, todos os
menores principais de A são ≥ 0; A é não positiva se, e somente se, cada menor principal
de A de ordem ímpar é ≤ 0 e cada menor principal de A de ordem par é ≥ 0.
s. a
Ax1 + Bx2 = 0.
x1 = − B x
A 2
2
Q − Bx
A
2
, x2 = a − Bx
A
2
+ 2b − Bx
A
2
x2 + cx22 .
75
Teorema. 16.3:
A forma quadrática Q(x1 , x2 ) = ax21 + 2bx1 x2 + cx22 é positiva (respectivamente, ne-
gativa) no conjunto-restrição Ax1 + Bx2 = 0 se, e somente se, o determinante:
0 A B
det A a b
B b c
Teorema. 16.4:
Para determinar a classificação da forma quadrática,
a a12 · · · a1n x
11 1
a12 a22 · · · a2n
x2
Q(x) = xT Ax = x1 · · ·
xn .. . .. .
..
. · · · · · ·
a1n a2n · · · ann xn
(b) Se det H e estes últimos n − m menores principais líderes têm todos o mesmo
sinal de (−1)m , então Q é positiva no conjunto-restrição Bx = 0 e x = 0 é um
min global estrito de Q neste conjunto-restrição.
(c) Se ambas as condições a) e b) são violadas por menores principais líderes não-
nulos, então Q é indefinida no conjunto-restrição Bx = 0 e x = 0 não é nem
um max nem um min de Q no conjunto-restrição.
Teorema. 16.5:
Para determinar a definição de uma forma quadrática Q(x1 , . . . , xn ) sujeita auma res-
trição linear, construa a matriz orlada H de tamanho (n + 1) × (n + 1) usual como em:
0 A1 · · · An
A1 a11 · · · a1n
Hn+1 = . .. .. .
..
..
. . .
An a1n · · · ann
Condições suficientes
Definição. Um ponto n-dimensional x∗ é um ponto crítico de uma função F (x1, ..., xn )
se x∗ satisfaz:
∂F ∗
(x ) = 0, ∀ i = 1, ..., n.
∂xi
Teorema. (17.2) Seja F : U → R uma função C 2 cujo domínio é o aberto U em Rn .
Suponha que x∗ é um ponto crítico de F , isto é, satisfaz a definição anterior:
Teorema. (17.4) Análogo, os menores principais líderes devem ser todos positivos para
que x∗ seja um mínimo.
Teorema. (17.5) Se os menores principais líderes não respeitam esses critérios, então
x∗ é um ponto de sela.
Condições necessárias
A desigualdade fraca substitui a desigualdade estrita. Em resumo, substituimos as
condições de negativa e positiva da hessiana de F pela exigência que a hessiana deve ser
não positiva (máximo) e não negativa (mínimo).
Nessas condições, os teoremas 17.6 e 17.7 reproduzem os resultados dos teoremas 17.3
e 17.4.
Fx = 3x2 + 9y = 0
Fy = −3y 2 + 9x = 0
3x2 + 9x = 0
3x2 = −9x
y = −3 e x = 3
y=0ex=0
Fxx Fyx
A hessiana: D2 F (x∗ ) =
Fxy Fyy
As derivadas segundas:
Fxx = 6x
Fyy = −6y
Fxy = Fyx = 9
6x 9
E teremos:
9 −6y
Como: Fxx > 0; Fxx Fyy − Fxy Fyx > 0
−36xy − 81 > 0 (mínimo)
80
Suponha também que (x∗1 , x∗2 ) não é um ponto crítico de h. Então existe um número
real µ∗ tal que (x∗1 , x∗2 , µ∗ ) é um ponto crítico da função lagranngiana. Temos:
∂L
∂x1
= 0; ∂L
∂x2
=0e ∂L
∂µ
= 0.
Observação. Se ∂x
∂h
1
e ∂x
∂h
1
fossem zero no máximo a redução de um problema com restrições
para um problema sem restrições, isto é, L(x1 , x2 , µ) não funcionaria. Essa imposição
∇h(x) 6= 0 chama-se qualificação da restrição.
∇f (x∗ ) = µ∗ .∇h(x∗ )
.
Em seguida consideramos o problema de maximizar uma função f (x1 , . . . , xn ) de n
variáveis condicionada por mais de uma, digamos, por m restrições de igualdade. Se-
jam h1 (x), . . . , hm (x) as funções que definem o conjunto-restrição. Em outras palavras,
queremos
sujeito a
.
Então:
81
!
∂h ∗ ∂h ∗ ∂h ∗
(x ), (x ), . . . , (x ) 6= (0, 0, . . . , 0)
∂x1 ∂x2 ∂xn
.
A generalização natural caso estejamos tratando com m funções envolve a derivada
Jacobiana:
Teorema. 18.2:
Sejam f, h1, . . . , hm funções C 1 de n variáveis. considere o problema de maximizar
(ou minimizar) f (x)no conjunto-restrição:
m
L(x, µ) = f (x) − µi [hi (x) − ai ]
X
i=1
∇L(x∗ , µ∗ ) = 0.
Algumas considerações:
A restrição é ativa, isto é, se g(x, y) − b = 0 entãoλ ≥ 0. A restrição é inativa quando
λ = 0. Tal situação, na qual uma das duas desigualdades deve ser ativa, é denominada
condição de folga complementar (slackness condition).
82
Teorema. 18.3:
Suponha que f e g são funções C 2 em R2 e que (x∗ , y ∗ ) maximiza f no conjunto-
restrição g(x, y) ≤ b. Se g(x∗ , y ∗ ) = b, suponha que:
∂g
∂x
(x∗ , y ∗ ) 6= 0 ou ∂g
∂y
(x∗ , y ∗ ) 6= 0
(a) ∂L
∂x
(x∗ , y ∗ , λ∗ ) = 0.
(b) ∂L
∂y
(x∗ , y ∗ , λ∗ ) = 0
(c) λ∗ [g(x∗ , y ∗ ) − b] = 0
(d) λ≥0
(e) g(x∗ , y ∗ ) ≤ b
Teorema. 18.4:
Suponha que f, g1 , . . . , gk são funções C 1 de n variáveis. Suponha que x∗ ∈ Rn é um
max local de f no conjunto-restrição definido pelas k desigualdades
g1 (x1 , . . . , xn ) ≤ b1 , . . . , gk (x1 , . . . , xn ) ≤ bk .
Para facilitar a notação, suponha que as primeirask restrições são ativas em x∗ e que
as últimas k − k0 são inativas. Suponha que a seguinte QRND está satisfeita em x∗ :
O posto x∗ da matriz Jacobiana
∂g1 (x∗ ) ∂g1 (x∗ )
∂x1
··· ∂xn
.. .. ..
. . .
∂gk0 (x∗ )
∂gko (x∗ )
∂x1
··· ∂xn
m
L(x1 , . . . , xn , λ1 , . . . , λk ) ≡ f (x) − λi [gi (x) − bi ]
X
i=1
(a) ∂L
∂x1
(x∗ , λ∗ ) = 0, . . . , ∂L
∂xn
(x∗ , λ∗ ) = 0
Teorema. 18.5:
Suponha que f, g1 , . . . , gk , h1 , . . . , hm são funções C 1 de n variáveis. Suponha que
x∗ ∈ Rn é um max local de f no conjunto-restrição definido pelas k desigualdades e pelas
m igualdades:
g1 (x1, . . . , xn ) ≤ b1 , . . . , gk (x1 , . . . , xn ) ≤ bk
h1 (x1 , . . . , xn ) = c1 , . . . , hm (x1 , . . . , xn ) = cm
(a) ∂L
∂x1
(x∗ , λ∗ ) = 0, . . . , ∂L
∂xn
(x∗ , λ∗ ) = 0
x1 ≥ 0, . . . , xn ≥ 0 (16)
∀ j = 1, . . . , n,
∂L∼ ∂L∼
∂L
∂xj
= ∂xj
+ vj = 0 ou ∂xj
= −vj
∂L∼ ∼
∂xj
≤ 0 e xj ∂L
∂xj
=0
∂L∼ ∂L
= = bj − gj (x) ≥ 0
∂λi ∂λj
Resumidamente:
∂L∼ ∂L∼
≤ 0; xj = 0; xj ≥ 0 (17)
∂xj ∂xj
∂L∼ ∂L∼
≥ 0; λj = 0; λj ≥ 0 (18)
∂λj ∂λj
Teorema. 18.7:
Considere o problema de maximização condicionada (1) sem restrições de igualdade e
com uma coleção completa de restrições de não-negatovodade. Forme o kuhntuckeriano
L∼ , e suponha que x∗ é uma solução de (1) e que a matriz (∂gi/∂xj ) tem posto máximo
em x∗ , onde os i variam sobre os índices das restrições gi que são ativas em x∗ e os j
variam sobre os índices para os quais x∗j > 0. Então existem multiplicadores não-negativos
λ∗1 , . . . , λ∗k tais que x∗1 , . . . , x∗k , λ∗1 , . . . , λ∗k satisfaz o sistema de equações e desigualdades
(2) e (3) .
85
L∼ (x1 , x2 , λ) = U (x1 , x2 ) − λ(
X
pi xi − b)
x1 = U x1 − λp1 ≤ 0; x1 Lx1 = 0; x1 ≥ 0
L∼
x2 = U x2 − λp2 ≤ 0; x2 Lx2 = 0; x2 ≥ 0
L∼
λ = p1 x1 + p2 x2 − b ≥ 0; λLλ = 0; λ ≥ 0
L∼
−0.5 0.5
x1 = 0.5x1
L∼ x2 − λ ≤ 0; x1 Lx1 = 0; x1 ≥ 0
0.5 −0.5
x2 = 0.5x1 x2
L∼ − λ ≤ 0; x2 Lx2 = 0; x2 ≥ 0
λ = x1 + x2 − 100 ≥ 0; λLλ = 0; λ ≥ 0
L∼
x1 + x2 = 100
0.5x−0.5 x0.5 λ x2
1 2
0.5 −0.5
= → =1
0.5x1 x2 λ x1
x 2 = x1
Usando:
xi = α m
pi
→ x1 = 0.5 100
1
x1 = 50.
86
Vamos considerar que a varia de problema a problema. Para qualquer a (fixo), escreva
(x∗ (a), y ∗ (a)) para a solução do problema acima e escreva µ∗ (a) para o multiplicador que
corresponde a esta solução. Seja f (x∗ (a), y ∗ (a)) a função de valor ótimo. Vamos provar
que, sob condições razoáveis que valem para quase todos os problemas de maximização,
µ∗ (a) mede a taxa de variação do valor ótimo f em relação ao parâmetro a.
Teorema. (19.1) Sejam f e h funções C 1 de duas variáveis. Para qualquer a fixo, seja
(x∗ (a), y ∗ (a)) a solução do problema max f (x, y) s.a h(x, y) = a com o multiplicador cor-
respondente µ∗ (a). Suponha que x∗ , y ∗ e µ∗ são funções C 1 de a e que QRN D (qualificação
da restrição não degenerada) vale em (x∗ (a), y ∗ (a), µ∗ (a)). Então:
d
µ∗ (a) = f (x∗ (a), y ∗ (a))
da
Demonstração.
L(x, y, µ; a) = f (x, y) − µ(h(x, y) − a)
∂L ∗ ∂f ∗ ∂h
(x (a), y ∗ (a), µ∗ (a); a) = 0 → (x (a), y ∗ (a), µ∗ (a)) − µ∗ (a) (x∗ (a), y ∗ (a), µ∗ (a))
∂x ∂x ∂x
∂L ∗ ∂f ∗ ∂h
(x (a), y ∗ (a), µ∗ (a); a) = 0 → (x (a), y ∗ (a), µ∗ (a)) − µ∗ (a) (x∗ (a), y ∗ (a), µ∗ (a))
∂y ∂y ∂y
para cada a. Além disso, temos que: h(x∗ (a), y ∗ (a)). Usando a regra da cadeia:
∂h ∗ ∗ dx∗ ∂h ∗ ∗ dy ∗
(x , y ) (a) + (x , y ) (a) = 1
∂x da ∂y da
Sabemos que f ∗ (x∗ (a), y ∗ (a)), logo:
87
d ∂f ∗ dx∗ ∂f ∗ dy ∗
f (x∗ (a), y ∗ (a)) = (x (a), y ∗ (a)) (a) + (x (a), y ∗ (a)) (a)
da ∂x da ∂y da
d ∂h dx∗ ∂h dy ∗
f (x∗ (a), y ∗ (a)) = µ∗ (x∗ (a), y ∗ (a)) (a) + µ∗ (x∗ (a), y ∗ (a)) (a)
da ∂x da ∂y da
d ∂h dx∗ ∂h ∗ dy ∗
f (x∗ (a), y ∗ (a)) = µ∗ (x∗ (a), y ∗ (a)) (a) + (x (a), y ∗ (a)) (a)
da ∂x da ∂y da
d
f (x∗ (a), y ∗ (a)) = µ∗ .1
da
Seja x∗ = (x∗1 (a), ..., x∗n (a)) a solução do problema exposto acima, com correspondentes
multiplicadores de Lagrange µ∗1 (a), ..., µ∗m (a). Suponha também que x∗i e µ∗j são funções
diferenciáveis de (a1 , ..., am ) e que vale QRN D. Então, para cada j = 1, ..., m temos:
∂
µj (a1 , ..., am ) = f (x∗1 (a1 , ..., am ), ..., x∗n (a1 , ..., am )).
∂aj
Demonstração. Análoga a anterior.
Seja x∗1 (a∗ ), ..., x∗n (a∗ ) a solução do problema (Q∗a ) e sejam λ∗1 (a), ..., λ∗k (a) os corres-
pondentes multiplicadores de Lagrange. Suponha que à medida que a varia perto de a∗ ,
88
x∗1 , ..., x∗n e λ∗1 , ..., λ∗k são funções diferenciáveis de (a1 , ..., ak ) e que vale a QRN D em a∗ .
Então, para cada j = 1, ..., k temos:
∂
λj (a∗1 , ..., a∗k ) = f (x∗1 (a∗1 , ..., a∗k ), ..., x∗n (a∗1 , ..., a∗k )).
∂aj
Demonstração. Escrevemos a∗ como a. Sejam gj as restrições inativas: gj (x∗ (a)) < aj .
0 0 0
Seja também aj qualquer número que gj (x∗ (a)) < aj < aj e C descrito por:
0
g1 (x1 , ..., xn ) ≤ a∗1 , ..., gk (x1 , ..., xn ) ≤ a∗k com gj (x) ≤ aj .
0 0
Como x∗ (a) maximiza f em C, C ⊂ C e x∗ (a) ∈ C , segue que x∗ (a) maximiza f
0 0 0 0
em C . Em outras palavras, se a = (a1 , ..., aj−1 , aj , aj+1 , ..., ak ), então x∗ (a ) = x∗ (a) e,
0
portanto, f (x∗ (a )) = f (x∗ (a)), de modo que o valor máximo de f não é afetado quando
aj varia um pouco. Isso implica que:
∂
f (x∗1 (a1 , ..., am ), ..., x∗n (a1 , ..., am )) = 0
∂aj
Como λ∗j (a) = 0, a equação
∂
λj (a∗1 , ..., a∗k ) = f (x∗1 (a∗1 , ..., a∗k ), ..., x∗n (a∗1 , ..., a∗k )).
∂aj
d ∂
f (x∗ (a); a) = f (x∗ (a); a).
da ∂a
Demonstração. Calculamos a regra da cadeia, tal que:
d X ∂f dx∗i ∂f ∗ ∂f ∗
f (x (a); a) =
∗
(x (a); a)
∗
(a) + (x (a); a) = (x (a); a)
da i ∂xi da ∂a ∂a
89
pois ∂f
∂xi
(x∗ (a); a) = 0, ∀ i = 1, ..., n.
Exemplo. Suponha que f (x; a) = −x2 + 2ax + 4a2 . Desejamos escolher x que maximize
essa função.
0
f (x; a) = −2x + 2a = 0 → x∗ (a) = a
∂f ∗
f (x∗ (a); a) = −a2 + 2a2 + 4a2 = 5a2 (x (a); a) = 10a
→
∂a
Se aplicássemos diretamente o teorema de envoltória, poderíamos ter pulado o primeiro
passo e encontrado:
Avaliando f em x∗ (a), isto é, f (x∗ (a); a) = −x2 + 2ax∗ + 4a2 :
∗ ∗
∂f ∗ dx dx dx dx
(x (a); a) = + 2x∗ + + 8a = 2x∗ + 8a = 10a.
∂a dx da dx da
dπ ∂
= (pαy − c(y)) = py > 0
dα ∂α
dπ ∗ dy ∗ dy dc∗ dy
= pα + py ∗ (α) − → py ∗ > 0
dα dy dα dy dα
d ∂L ∗
f (x∗ (a); a) = (x (a), µ(a); a)
da ∂a
onde L é o lagrangeano natural deste problema.
Forme o lagrangeano:
e suponha que:
(a) ∂L
∂x
= 0, ∂L
∂y
= 0, ∂L
∂µ
= 0 em (x∗ , y ∗ , µ∗ ); e
0 ∂h
∂x
∂h
∂y
(b) det ∂h ∂2L ∂2L
> 0 em (x∗ , y ∗ , µ∗ ).
∂x ∂x2 ∂x∂y
∂h ∂2L 2
∂ L
∂y ∂y∂x ∂y 2
∂h ∂h 0 0
∂h
(x, φ(x))
(x, φ(x)) + (x, φ(x))φ (x) = 0 ou φ (c) = − ∂h
∂x
∂x ∂y ∂y
(x, φ(x))
Seja F (x) ≡ f (x, φ(x)) a função f calculada em Ch que é uma função variável não
restrita. Pelas condições usuais de primeira e de segunda ordens para tais funções, se
0 00
F (x∗ ) = 0 e F (x∗ ) < 0, então x∗ será um máximo local estrito de F e (x∗ , y ∗ ) =
(x∗ , φ(x∗ )) será um máximo local condicionado de f .
0 ∂f ∂f 0
F (x) = (x, φ(x)) + (x, φ(x))φ (x)
∂x ∂y
0 0
Multiplicando ∂h
∂x
(x, φ(x)) + ∂h
∂y
(x, φ(x))φ (x) = 0 por -µ∗ , somando com a F (x) acima
e calculando ambas em x = x∗ :
0 ∂f ∂h 0 ∂f ∂h
F (x∗ ) = (x∗ , y ∗ ) − µ∗ (x∗ , y ∗ ) + φ (x∗ ) (x∗ , y ∗ ) − µ∗ (x∗ , y ∗ )
∂x ∂x ∂y ∂y
∂L ∗ ∗ 0 ∂L
= (x , y ) + φ (x∗ ) (x∗ , y ∗ ).
∂x ∂y
Agora, tome mais uma derivada de F (x) em x∗ , coloque y ∗ = φ(x∗ ) na equação
anterior, então, teremos:
00 ∂ 2L ∂ 2L 0 ∗ ∂ 2L 0 ∗ 2
F (x∗ ) = + 2 φ (x ) + φ (x ) =
∂x2 ∂x∂y ∂y 2
2
∂ 2L ∂ 2 L ∂h ∂ 2 L ∂h
= 2
+2 − ∂h + 2 − ∂h
∂x ∂x
=
∂x ∂x∂y ∂y
∂y ∂y
2 2
1 ∂ 2 L ∂h ∂ 2 L ∂h ∂h ∂ 2 L ∂h
= 2 2 − 2 + 2
∂h ∂x ∂y ∂x∂y ∂x ∂y ∂y ∂x
∂y
0 00
que é negativa pela hipótese (b) do teorema. Como F (x∗ ) = 0 e F (x∗ ) < 0, implica
que x → F (x) = f (x, φ(x)) tem um máximo local em x∗ e, portanto, f restrita a Ch tem
um máximo local em (x∗ , y ∗ ).
por:
Lembre que se det H tem o mesmo sinal de (−1)n e se estes últimos (n − m) menores
principais líderes alternam de sinal, então H é negativa no conjunto restrição. Se det H
e esses últimos (n − m) menores principais líderes tem todos o mesmo sinal de (−1)m ,
então H é positiva no conjunto restrição.
Observação. n é o número de variáveis, m é o número de restrições.
Forme o lagrangeano:
L(x1 , ..., xn , λ1 , ..., λm , µ1 , ..., µk ) = f (x) − λ1 (g1 (x) − b1 ) − ... − λm (gm (x) − bm )
(a) Suponha que existam λ∗1 , ..., λ∗m , µ∗1 , ..., µ∗k tais que valem as condições de pri-
meira ordem do Teorema 18.5, ou seja, que:
• ∂L
∂x1
= 0, ..., ∂x
∂L
n
= 0 em (x∗ , λ∗ , µ∗ );
• λ∗1 ≥ 0, ..., λ∗m ≥ 0;
• λ∗1 (g1 (x∗ ) − b1 ) = 0, ..., λ∗m (gm (x∗ ) − bm ) = 0;
• h1 (x∗ ) = c1 , ..., hk (x∗ ) = ck .
(b) Intencionando simplificar a notação, suponha que g1 , ..., ge são restrições ativas
em x∗ e ge+1 , ..., gm inativas. Escreva (g1 , ..., ge ) como gE . Suponha que a
hessiana de L em relação a x em (x∗ , λ∗ , µ∗ ) é negativa no seguinte conjunto
restrição linear:{v : DgE (x∗ )v = 0 e Dh(x∗ )v = 0} , ou seja, temos: v 6= 0,
DgE (x∗ )v = 0, Dh(x∗ )v = 0 ⇒ v T (Dx2 L(x∗ , λ∗ , µ∗ ))v < 0.
(b) µ∗0 é 0 ou 1; e
• ∂L
∂x1
= µ0 ∂x
∂f
1
(x1 , x2 ) − µ1 ∂x
∂h
1
(x1 , x2 ) = 0
• ∂L
∂x2
= µ0 ∂x
∂f
2
(x1 , x2 ) − µ1 ∂x
∂h
2
(x1 , x2 ) = 0
• ∂L
∂µ1
= c − h(x1 , x2 )
94
Demonstração. Suponha que (x∗1 , x∗2 ) é uma solução do problema de maximização condi-
cionada. Se (x∗1 , x∗2 ) não é um ponto crítico de h, podemos tomar µ0 = 1 e usar o Teorema
18.1 para deduzir que x∗1 , x∗2 , µ∗1 satisfaz o sistema apresentado em (c). Por outro lado,
se (x∗1 , x∗2 ) é um ponto crítico de h e, portanto, ∂x ∂h
1
e ∂x
∂h
2
em (c) são nulos em (x∗1 , x∗2 ),
podemos tomar µ∗1 como sendo qualquer número não-nulo e tomar µ∗0 igual a zero. A
quádrupla x∗1 , x∗2 , µ∗0 , µ∗1 resultante será uma solução do sistema de (c).
Teorema 10. Seja y = f (x1 , ..., xn ) uma função C 1 num cone aberto de Rn . Se f é
homogênea de grau k, suas derivadas parciais de primeira ordem são homogêneas de grau
k-1.
Demonstração.
f (tx1 , ..., txn ) = tk f (x1 , ..., xn )
Teorema 11. Seja y = f (x1 , ..., xn ) uma função homogênea e C 1 no octante positivo de
Rn . Os planos tangentes aos conjuntos de nível de f têm inclinação constante ao longo de
raios a partir da origem.
tk−1 ux (x0 , y0 )
pelo Teorema1
tk−1 uy (x0 , y0 )
ux (x0 , y0 )
uy (x0 , y0 )
Teorema 12. (Teorema de Euler) Seja f (x1 , ..., xn ) uma função C 1 homogênea de grau
k em R+
n
. Então para qualquer x,
∂f ∂f
x1 + ... + xn = kf (x1 , ..., xn )
∂x1 ∂xn
d hk i
t f (tx) = ktk−1 f (tx)
dt
Pela definição de homogeneidade os dois lados esquerdos são iguais. Fazendo t=1 nos
dois lados direitos, obteremos o resultado desejado.
Definição 14. Seja I um intervalo da reta real. Dizemos que g : I → R é uma trans-
formação monótona de I se g é uma função estritamente crescente em I. Além disso, se g
é uma transformação monótona e u é uma função real de n variáveis então dizemos que
g ◦ u : x → g (u (x)) é uma transformação monótona de u.
∂u(tx) ∂u(x)
∂xi
∂u(tx)
= ∂xi
∂u(x)
∀t > 0
∂xj ∂xj
Demonstração. Suponha que u seja homotética, então teremos que u (x, y) = φ (h (x, y))
0
para alguma função homogênea h e também monótona φ com φ > 0.
∂φ(h(x,y)) ∂h(x,y)
∂h(x,y) ∂x
= ∂φ(h(x,y)) ∂h(x,y)
∂h(x,y) ∂y
∂h(x,y)
= ∂x
∂h(x,y)
∂y
Uma função real g definida num subconjunto convexo U de Rn é convexa, se para quais-
quer x e y em U e para todo t entre zero e um, temos:
f (tx + (1 − t) y) = g(t)
= g(t.1 + (1 − t) .0)
≥ tg(1) + (1 − t) g(0)
= tf (x) + (1 − t) f (y)
consequentemente, f é côncava.
Reciprocamente, suponha que f é côncava. Queremos mostrar que a função é côncava
a restrição g (t) = f (tx + (1 − t) y) de f ao segmento de reta contendo x e y. Para fazer
isso, fixamos s1 e s2 e tomamos um t entre zero e um. Então,
≥ tf (ts1 x + (1 − t) s1 y) + (1 − t) f (s2 x + (1 − t) s2 y)
= tg(s1 ) + (1 − t) g(s2 )
ou seja,
99
∂f (x) ∂f (x)
f (y) − f (x) ≤ (y1 − x1 ) + ... + (yn − xn )
∂x1 ∂xn
Analogamente, f é convexa em U se, e somente se, f (y) − f (x) ≥ Df (x) (y − x) para
quaisquer x e y em U.
i=1 ∂xi
e
n
0 ∂f
gx,y (0) = (x) (yi − xi ) = Df (x) (y − x)
X
i=1 ∂xi
Pelos teoremas 1 e 2, f é côncava se, e somente se, cada uma destas gx,y é côncava se,
e somente se, para quaisquer x e y em U :
0 0
gx,y (1) − gx,y (0) ≤ gx,y (0) (1 − 0) = gx,y (0)
Teorema 17. Seja f uma função C 2 num conjunto aberto U de Rn . Então, f é uma
função côncava em U se, e somente se, a matriz hessiana D2 f (x) é não positiva para x
em U. A função f é uma função convexa em U se, e somente se, D2 f (x) é não negativa
para cada x em U.
n
0 ∂f
gx,y (t) = (x + t (y − x)) (yi − xi )
X
i=1 ∂xi
n
∂ 2f
= (yi − xj ) (x + t (y − x)) (yi − xi )
X
= (y − x)T D2 f (x + t (y − x)) (y − x)
= t20 v T D2 f (z) v
3. Os conjuntos de nível de uma função côncava tem o formato ideal para a teoria do
consumo e da produção.
Teorema 18. Seja f uma função côncava (convexa) num subconjunto aberto e convexo U
de Rn . Se x0 é um ponto crítico de f, ou seja, se Df (x0 ) = 0, então x0 ∈ U é um máximo
(mínimo) global de f em U.
Ca+ = {x ∈ U : f (x) ≥ a}
Ca− = {x ∈ U : f (x) ≤ a}
é um conjunto convexo.
Teorema 20. Suponha que F é uma função C 1 num subconjunto aberto convexo U de
Rn . Então F é quasecôncava em U se, e somente se,
Exemplo 1. .
3 1
A=
1 3
102
2 0 2 0 0 0 2 0 3 0 −1 0
− = e − = − 2 e 3 são au-
0 3 0 2 0 1 0 3 0 3 0 0
tovalores de D.
Definição. Matriz Singular. Uma matriz A é singular se, e somente se, detA = 0.
Nesse caso r é um autovalor de A, ou seja, A − rI é uma matriz singular se, e somente
se,
det(A − rI) = 0
Seja A2×2 :
a11 − n a12
der(a − rI) = det = r2 − (a11 + a22 )r + (a11 a22 − a12 a21 )
a21 a22 − r
Av − rIV = 0
Av = rV
103
−1 3
A=
2 0
(−1 − r) 3
det(A − rI) =
det
2 (0 − r)
(A − rI)V = 0
(A − 2I)V = 0
−3 3 −2 0
+ V =0
2 −2 0 −2
−3 3 V1
=0
2 −1 V2
−3V1 + 3V2 = 0 → V1 = V2
(A − (−3)rI)V = 0
−1 3 3 0
+ V =0
2 0 0 3
2 3 V1
=0
2 −3 V2
−3
2V1 + 3V2 = 0 → V1 = V2
2
−6
V2 + 3V2 = 0
2
1 −3 −3
r = −3 ⇒ −2 , , 2
3
2 1
1
r = 2 ⇒
1
Exemplo.
1 0 2
B = 0 5 0
3 0 2
(1 − r) 0 2
det(B − rI) = det 0 (5 − r) 0 = (1 − r)(5 − r)(2 − r) − 6(5 − r)
3 0 (2 − r)
(5 − r) = 0
(r − 4) = 0
(r + 1) = 0
V
1
0
V2 = V2 1 → auto vetor para r = 5
V3 0
Para r = −1
2 0 2 V1
(B − (−1)I)V = 0 6 0
V2 = 0
3 0 3 V3
2V1 + 2V3 = 0
6V2 = 0
3V1 + 3V3 = 0
1 −2
Solução: V2 = 0 e V1 = −V3 0 , 0
−1 2
2
Para r = 4, 0
3
Triangular superior 2 × 2
a11 a12 (a11 − r) a12
A= -> det(A − rI) = = (a11 − r)(a22 − r) = 0
0 a22 0 (a22 − r)
Teorema. Seja A uma matriz invertível. Se (A − rI)V = 0 então (A−2 − 1r I)V = 0, isto
é, se A é invertível r é seu autovalor se, e somente se, 1r é um autovalor de A−1 .
Demonstração.
(A − rI)V = 0
V 1
= A−1 V =⇒ V (A−1 − ) = 0
r r
1
(A−1 − I)V = 0
r
a.
Yt+1 = KYt
Yt+2 = KYt+1
Yt+3 = KYt+2
b.
Yt+1 = (1 + r)Yt
Yt+2 = (1 + r)Yt+1
107
Yt+3 = (1 + r)Yt+2
X = 4X − 2Y
Y =X +Y
1 1
X
= 6 3
−1 2
Y 6 3
X
=
4 −2 X
Y 1 1 Y
As duas matrizes dos coeficientes são inversas uma da outra.
1 1 1 1 1
Xn+1 = Xn+1 + Yn+1 = (Xn + 4Yn ) + ( Xn )
6 3 6 3 2
−1 2 −1 2 1
Yn+1 = Xn+1 + Yn+1 = (Xn + 4Yn ) + ( Xn )
6 3 6 3 2
1 2 1 2
Xn+1 = Xn + Yn = (4Xn − 2Yn ) + (Xn + Yn ) = 2Xn
3 3 3 3
108
1 2 1 2
Yn+1 = Xn − Yn = (4Xn − 2Yn ) − (Xn + Yn ) = −Yn
6 3 6 3
Então:
Yn = Xn + Yn = 2n C1 + (−1)n C2
X
n =
4.2n C1 −2(−1)n C2 4 −1
= C1 2n + C2 (−1)n
Yn 2 C1
n
(−1) C2
n
1 2
X0 = 4C1 − 2C2
Y0 = C 1 + C 2
−1
C
1 =
4 −2 X
0
C2 1 1 Y0
Z = PZ
Z = P −1 Z
AP = P D
P = [V1 V2 ....Vk ]
r 0 ··· 0
1
0 r 2 · · · 0
P −1 AP =
.. .. . . ..
. . . .
0 0 · · · rn
Reciprocamente, se P −1 AP é uma matriz diagonal D, então as colunas de P são au-
tovetores de A e todas entradas da diagonal D são autovalores de A.
Teorema. Seja A uma matriz k×k com h autovalores distintos r1 , ..., rh . Sejam V1 , ...., Vh os
autovalores. Então V1 , ...., Vh são linearmente independentes, ou seja, nenhum desses ve-
tores pode ser escrito como uma combinação linear dos demais.
Teorema. Seja A uma matriz k × k com k autovalores reais e distintos r1 , ..., rk e auto-
vetores associados V1 , ...., Vk . Então a solução geral do sistema de equações a diferenças
zn+1 = Azn é
110
Teorema. Seja A uma matriz k × k. Suponha que exista uma matriz não singular P tal
que:
r 0 0
···
1
0 r2 ··· 0
P −1 AP =
.. .. .. ..
. . . .
0 0 ··· rk
P é a matriz dos autovetores. Uma matriz diagonal, então:
rn 0 0
···
1
0 r2 0
n
···
A =P
n
−1
.. .. ... ..
P
. . .
0 0 ··· rkn
A solução desse sistema de equações a diferenças zn+1 = Azn com vetor inicial z0 é
rn 0 0
···
1
0 r2 0
n
···
Z =P. .
n
−1
.. ..
P z0
.. ..
. .
0 0 ··· rkn
Definição. O traço de uma matriz quadrada é a soma das suas entradas diagonais
r1 + r2 + ... + rk = trA , e
r1 .r2 ...rk = detA
Demonstração. .
a b
A=
c d
(a − r) b
pA (r) = det = r2 − (a + d)r + (ad − bc)
c (d − r)
Coeficiente r2 : 1 = B
Portanto:
β = 1; trA = (a + d) = r2 + r1 e detA = ad − bc = r1 r2
112
Exemplo. Para matrizes markovianas a soma da coluna é sempre 1, logo ele é um auto-
valor.
0, 3 0, 6
A=
0, 7 0, 4
3 4 7 6 12 42
detA = . − . = − = −0, 3
10 10 10 10 10 10
r1 r2 = −0, 3 (19)
r1 + r2 = 0, 7 (20)
r12 + r1 r2 = 0, 7r1
r12 − 0, 3 = 0, 7r1
r12 − 0, 7r1 − 0, 3 = 0
q
+0, 7 ± (−0, 7)2 − 4.1 − 0, 3
r1 =
2.1
√
0, 7 ± 1, 69
r1 =
2
0, 7 ± 1, 3
r1 =
2
r1 = −0, 3
r1 = 1
Se r1 = 1
r2 = −0, 3
Se r1 = −0, 3
r2 = 1
113
Teorema. Seja A uma matriz 2×2 com dois autovalores iguais. Então, A é diagonalizável
se, e somente se, A já é diagonal.
P −1 AP = r∗ I
ou equivalentemente,
A = P (r∗ I)P −1 = r∗ P IP −1 = rI
Definição: Seja r∗ um autovalor da matriz A. Um vetor (não-nulo) v tal que (A−r∗ I)v 6=
0 mas (A − r∗ I)m v = 0 para algum inteiro m > 1 é denominado um autovetor
generalizado de A associado a r∗ .
Exemplo:
4 1
A= r=3e3
−1 2
1
v1 = o autovetor generalizado v2 é uma solução de (A − 3I)v2 = v1 ou
−1
1 1 v21 1
=
−1 −1 v22 −1
Tome, por exemplo, v21 = 1, v22 = 0 e forme
1 1
P = [v2 = v1 ] =
−1 0
checamos que:
0 −1 4 1 1 1 3 1
P −1 AP = =
1 1 −1 2 −1 0 0 3
114
Xn+1 = rXn + Yn
Yn+1 = rYn
Esse sistema está acoplado, porém minimamente. Podemos usar a segunda equação e
dizer que:
Y n = c1 r n
Agora temos uma equação a diferenças linear homogênea e escalar para resolver. Va-
mos iterar a equação (34) a partir de n = 0 para descobrirmos a solução geral:
X 0 = C0
X1 = rX0 + c1 n=0
X2 = rX1 + c1 r n=1
X2 = r(rX0 + c1 ) + c1 r
X2 = r2 c0 + rc1 + c1 r
115
X2 = r2 c0 + 2rc1
X3 = rX2 + c1 r2 n=2
X3 = r3 c0 + 3r2 c1
X4 = rX3 + c1 r3 n=3
X4 = r4 c0 + 4r3 c1
Em geral:
p(r) = r2 − 2r + 10
−3iw1 + w2 = 0
1 1 0
w= , que escrevemos como +i . Pelo teorema 23.13 um autovetor
3i 0 3
para o autovalor
1 − 3i é:
1 0 1
w̄ = − i =
0 3 −3i
Formamos uma matriz P de mudança de coordenadas cujas colunas são estes dois
autovetores:
1 1
P =
3i −3i
1 −1
2 6
i
P −1 = 1 1
2 6
i
α + 3i 0
P −1 AP =
0 α − 3i
Teorema. Seja A uma matriz 2 × 2 real com autovalores complexos α∗ ± iβ ∗ com autove-
tores complexos associados u∗ ± iv ∗ . Escreva os autovalores α∗ ± iβ ∗ em coordenadas
polares como r∗ (cosθ∗ + isenθ∗ ),onde
q
α∗ β∗
r =
∗
α∗2 + β ∗2 e (cosθ∗ , senθ∗ ) = r∗
, r∗
117
n
zn = r∗ [(c1 cosnθ∗ − c2 sennθ∗ )u∗ + (c2 cosnθ∗ + c1 sennθ∗ )v ∗ ]
1 1
No exemplo 23.17, calculamos que os autovalores de A = são 1 ± 3i com
−9 1
1 0
autovetores associados ± i
0 3
Em coordenadas polares,
√ √
√1 √3
1 + 3i = 10 10
+i 10
= 10(cosθ∗ + isenθ∗ )
√1
onde θ∗ = arcocos 10
≈ 71, 56° ou 1,25 radianos.
A solução geral de:
xn+1 = xn + yn
yn+1 = −9xn + yn
x √
n = ( 10)n [(c1 cosnθ ∗ − c2 senθ ∗ )
1 0
] − [(c2 cosnθ∗ + c1 senθ∗ ) ]
yn 0 3
√ c1 cosnθ∗ − c2 sennθ∗
= ( 10)n
−3c2 cosnθ∗ − 3c1 sennθ∗
(1) a probabilidade xi (n) de ocorrer o estado i no n-ésimo período de tempo ou, alter-
nativamente, a fração da população em questão que está no estado i no n-ésimo
período de tempo e,
118
são independentes de n. Para descrever essa hipótese dizemos que o processo é homogêneo
no tempo ou que as probabilidades de transição são estacionárias. A dinâmica de Markov
pode ser descrita do seguinte modo. Suponha que xj (n) denota a fração de membros de
uma população de tamanho N que está no estado j no período de tempo n. Então, o
número total de membros da população no estado j no período n é xj (n)N . Por exemplo,
mij xj (n)N desses estarão no estado i no período n + 1. O número total xi (n + 1)N de
membros da população no estado i n + 1 é a soma sobre j dos membros da população que
mudaram de j para i:
k
mi (n + 1)N = mij xj (n)N
X
j=1
↓
M
Sistema de Markov.
x1 (n + 1) 0, 9 0, 4 x1 (n)
=
x2 (n + 1) 0, 1 0, 6 x2 (n)
r = 1 →a soma das colunas.
O traço é 1,5 então o outro auto valor é 0,5.
(A − rI)v = 0
−0, 1 0, 4 α 0 α 4
= → =
0, 1 −0, 4 β 0 β 1
0, 4 0, 4 α 0 α 1
= → =
0, 1 0, 1 β 0 β −1
Pelo teorema 23.6 a solução geral desse sistema é:
1
x (n) 4 1 n
2
= c1 .1 + c2 0.5
x (n) 1 −1
como 1n = 1 e lim 0, 5n = 0 então a solução de longo prazo da equação acima tende
n→∞
a:
4
w1 = c1
1
como o vetor de componentes deve somar 1, tome c1 como arecíproca da soma dos
0, 8
componentes de w1 , isto é, 51 . Podemos concluir que w1 tende a quando n → ∞
0, 2
e nossas pressuposições levam a um nível de desemprego de 20% nessa comunidade.
Seja M uma matriz de Markov, isto é, uma matriz não negativa cuja soma das suas
entradas é igual a 1. Então M é chamada de matriz regular de Markov se M r possui
somente entradas positivas para algum inteiro r. Se r=1, isto é, se cada entrada de M é
positiva, M é chamada de matriz positiva.
r1 0 . . . 0
.
T 0 r2 . . . ..
=y .. .. . . . (55)
. . . ..
0 0 · · · rk
= r1 y12 + · · · + rk yk2
onde pelo menos um dos yi2 é positivo. Se todos os r´is são positivos, então xT Ax > 0
e A é positiva definida.
Se todos os r1 ´is são (> 0) então xT Ax > 0 e A é positiva semidefinida.
Se r1 > 0 e r2 < 0, por exemplo, seja e1 = (1, · · · , 0)T e e2 = (0, 1, 0, · · · , 0)T . Seja
x1 = P e1 e x2 = P e2 . Então,
Teorema. Seja A uma matriz simétrica. Então as seguintes condições são equivalentes:
(a) A é positiva definida;
(b) Existe uma matriz não singular B tal que A = B T B
(c) Existe uma matriz não singular Q tal que QT AQ = I
√
r1 0 ... 0
√ ..
0 .
r2 . . .
B= .. .. ..
...
. . .
√
0 0 ··· rk
Então teremos que:
√ T √
r1 0 ... 0 r1 0 ... 0
√ .. √ ..
0 . 0 .
r2 . . . r2 . . .
BT B = =A
T
.. .. .. .. .. .. P
..
..
. . . .
. . . .
√ √
0 0 ··· rk 0 0 ··· rk
Parab ⇒ a
Por outro lado, se A = B T B para uma matriz não singular B, então para qualquer x
não nulo de Rx ,
xT Ax = xT B T B = kBx k2 > 0
√1
r1
0 ... 0
.. ..
1 1 0 . ... .
Q = ( √ v1 , · · · , √ vk ) = P .. .. . . ..
r1 rk
. . . .
√1
0 0 ··· rk
Então, QT AQ = I.
Para c ⇒ a
Note que se a condição vale, seja x um vetor arbitrário não nulo e então y = P −1 x:
= y T Iy = y T y = kyk2 > 0
y(t + 1) − y(t)
= r ou y(t + 1) = (1 + r)y(t) (21)
y(t)
Imagine que essa taxa de juros é paga a cada variação no tempo 4t, então teríamos:
1 1
ÿ = ÿ
ẏ y
ÿ ẏ
=
ẏ y
gÿ = gẏ
Definição. Equação diferencial ordinária. Uma equação diferencial ordinária é uma ope-
ração que descreve um relacionamento entre uma função de uma varável e sua derivada.
dy
= 2y
dt
dy
= 2dt
y
ˆ ˆ
dy
= 2 dt
y
ln(y) = 2t + c
124
eln(y) = e2t
y = e2t
Definição. De modo mais geral y(t) = ke2t para qualquer constante K. Essa constante
é determinada pelo valor inicial y, isto é, y(t0 ).
Exemplo:
ẏ = y 2
dy
= y2
dt
ˆ ˆ
dyy −2
= dt
1
− =t+c
y
1
− =y
t
Definição. Uma equação diferencial ordinária é uma equação ẏ = F (y, t) entre a derivada
de uma função desconhecida y(t) e uma expressão F (y, t) envolvendo y e t, isto é, se
a equação pode ser escrita como ẏ = F (y), nós a chamamos de autônomo ou tempo
independente.
Retomando a equação ẏ = ry, ela também poderia ser usada para descrever o tamanho
de uma população a uma taxa de crescimento constante r. Esse pressuposto de crescimento
constante é às vezes chamado de lu de Malthus. A solução geral para esta equação é y(t) =
kert . No entanto, podemos especificar um valor inicial para o tamanho populacional. Com
uma constante k pré determinada. Ao fazermos y(0) = y0 ,(um valor constante) o problema
de encontrarmos uma função y(t) que satisfaça a essas condições é chamado de problemas
de valor inicial.
ẏ = y(100 − 2y)
125
A função constante y = 50 ∀t é a solução que faz ambos os lados da equação serem zero.
Essa solução constante, muitas vezes é chamada de solução estacionária ou de estado
estacionário. Outro ponto importante é definirmos que uma solução parametrizada y(t, k)
de uma equação diferencial ẏ = F (y, t) échamda de solução geral.
dy
= kaeat
dt
ẏ = keat a
ẏ = ay + b
−b
y= + keat −→ ay = (−b + keat )
a
Para verificar isso insira a solução candidata dentro da equação:
ẏ(t) = akeat
" ˆ t ´s
#
´t
y(t) = k + b(s)e− a(u)du
ds e a(s)ds
(10)
126
Para encontrar (10) como solução, escreva a equação diferencial como ẏ − a(t)y = b(t)
´
t
e multplique cada termo por exp − a(s)ds
´t ´t ´t
ẏ(t)e− a(s)ds
− a(t)y(t)e− a(s)ds
= b(t)e− a(s)ds
(11)
´t
Como o lado esquerdo de (11) é precisamente a derivada da expressão y(t)exp − a(s)ds então
(11) pode ser escrita como:
d ´t ´t
y(t)e− a(s)ds = b(t)e− a(s)d(s) (12)
dt
´t
Integrando ambos os lados de (12) e multiplicando por e a
para obtermos (10). Cha-
´t
mamos a expressão e− a(s)ds de fator integrante.
Definição. Uma equação diferencial ẏ = F (y, t) é chamada separável se F (y, t) puder ser
escrita como o produto: F (y, t) = g(y)h(t).
Exemplos:
ẏ = y 2 + t2 ; ẏ = a(t) + b(t) e ẏ = ty + t2 y 2
ẏ = g(y)h(t)
dy
= g(y)h(t)
dt
d(y)
= h(t)dt
g(y)
ˆ ˆ
dy
= h(t)dt
g(y)
Outro:
ẏ = t2 y
dy
= yt2
dt
ˆ ˆ
dy
= t2 dt
y
t3
ln(y) = +c
3
t3
y = e 3 +c
127
Se a = 0 → y = ert
Para encontrearmos soluções, plugue y = ert , ẏ = rert e ÿ = r2 ert e teremos:
ert (ar2 + br + c) = 0
Como ert é não nulo, então y = ert é uma solução de (23) se, e somente se, r satisfaz
a equação:
ar2 + br + c = 0
√
−b ± b2 − 4ac
r=
2a
(1) 4 > 0 → 2 raízes reais
(2) 4 < 0 → 2 raízes complexas
(3) 4 = 0 → 1 raíz
Raízes reais distintas da equação característica
Portanto (26) é uma solução de (23). Finalmente, mostraremos que (26) é a solução
geral, ou seja:
y(t0 ) = y0
ẏ(to ) = z0 (27)
Dado qualquer problema de valor inicial existe uma única escolha de constantes de
integração k1∗ e k2∗ tais que y(t) = k1∗ er1 t + k2∗ er2 t é uma solução de (27). Para provar,
considere t0 = 0 e substitua o valor inicial (27) na solução (26)
ÿ − y = 0 y(0) = ẏ(0) = 1
aÿ − cy = 0
r2 − 1 = 0
r = ±1
y(t) = k1 et + k2 e−t
129
2 = 2k1
1 = k1 (3)
1 = 1 − k2
k2 = 0 (4)
A solução geral é:
b)
ÿ − 5ẏ + 6y = 0
y(0) = 3 → 3 = k1 + k2 (1)
a=1
b = −5
1 = k1 (3)
c=6
130
Inserindo k1 em (3)
r2 − 5r + 6 = 0
√
5± 25 − 24
r=
2
k2 = 2
r1 → 3
r2 −→ 2
y(0) = 3
ẏ(0) = 7
a = 1; b = −4; c = 4.
y = k1 er1 t + k2 ter1 t
y = k1 e2t + k2 te2t
131
q
4± (−4)2 − 4.1.4
r=
2
r=2
y(0) = 2 −→ 2 = k1
ẏ(0) = 5 −→ 5 = 2k1 + k2 −→ k2 = 1
y = e2t (2 + t) −→ Solução
Teorema. Se o polinômio característico da equação diferencial linear de segunda ordem
tem raízes complexas α ± iβ, ou seja, se b2 − 4ac < 0 então a solução geral é y(t) =
eat (c1 cosβt ± c2 senβt).
A função g(t) representa, especialmente em problemas mecânicos uma força externa, sem
a qual a equação é autônoma. Para encontrarmos a solução geral de uma equação não
autônoma, basta acharmos a solução geral da equação homogênea e uma solução particular
da equação não homogênea.
Teorema. Seja yp (t) uma solução particular qualquer da equação diferencial não home-
gênea aÿ + bẏ + cy = g(t). Seja k1 y1 (t) + k2 y2 (t) uma solução geral da equação homo-
gênea aÿ + bẏ + cy = 0 correspondente. Então, uma solução geral de (38) é y(t) =
k1 y1 (t) + k2 y2 (t) + yp (t).
Nesse método procuramos uma solução particular de aÿ + bẏ + cy = g(t) que possua o
mesmo formato de g(t). Se g(t) é uma função constante g(t) = g(0) então uma solução
132
A solução geral é
q
2± (−2)2 − 4.1. − 3
r=
2.1
√
2± 16
r=
2
r1 = 3
r2 = −1
yp (t) = At2 + Bt + c
ẏp = 2At + B
ÿp = 2A
Suponha que:
Como os lados esquerdo e direito dessa equação são iguais para qualquer t, os coefici-
entes de cada potência t devem ser iguais:
9 = 3A (1)
0 = −4A − 3B (2)
0 = 2A − 2B − 3C (3)
Por (1) A = −3; Inserindo (1) em (2) B = 4. Usando essas duas informações em (3)
14
0 = −6 − 8 − 3c −→ c = −
3
Portanto, uma solução particular é:
14
yp (t) = −3t2 + 4t −
3
A solução geral:
14
y(t) = k1 e3t + k2 e−t − 3t2 + 4t −
3
Se um termo candidato da equação não homogênea for igual a um termo da solução
geral da equação homogênea dizemos que o sistema está em ressonância. Em geral,
multiplicamos o candidato natural yp (t) por t ou às vezes até por t2 , para encontrar um
candidato com chances de ser uma solução particular da equação não homogênea.
Teorema. Considere o problema de valor inicial ẏ = f (t, y), y(to ) = yo (42). Suponha
que f é contínua no ponto (to , yo ). Então, existe uma função I → R que é C 1 num
intervalo aberto I = (to − a, to + a) em torno de to e é tal que y(to ) = yo e ẏ(t) = f (t, y(t))
para cada t ∈ I , ou seja, y(t) é uma solução do problema de valor incial (42). Além
disso, se f é C 1 em (to , yo ) então a solução y(t) é única. Quaisquer duas soluções de (42)
devem ser iguais entre si na intersecção de seus domínios.
134
O retrato de fase nos mostra como as soluções da equação diferencial evoluem ao longo
do tempo. Vejamos o seguinte exemplo:
ẏ = y − y 3
0 = y − y3
0 = y − y3
y=0
y = ±1
f 00 (y) = 1 − 3y 2
1 1
f 0 (y) = 0 → 1 − 3y 2 = 0 → = y 2 → y = ± √ → ±0, 58 = y
3 3
Gráfico 1
Vejamos f 0 ”(y):
f 0 ”(y) = 0 → −6y = 0 → y = 0
Temos que zero é um ponto de inflexão. O próximo passo é fazermos o gráfico desta
função:
Gráfico 2
Note que se −1 < y < 0 então f (y) é negativa. Isso também ocorre no intervalo
(1,∞). Nos intervalos (−∞, −1) e (0,1) f (y) é positiva. Para finalizarmos o gráfico
devemos inserir as setas que dão a ideia de movimento ou convergência. Faremos isso
passo a passo:
1. Se y ∈] − ∞,1] então f (y) > 0 desse modo, colocamos uma seta para a direita.
3. Se y ∈]0,1[, f (y) > 0,ẏ > 0, então colocamos uma reta para a direita.
4. Se y ∈]1,+∞] então f (y) < 0,ẏ < 0 e adicionamos uma seta para a esquerda.
Agora podemos olhar para o nosso gráfico e verificarmos que −1 e +1 são dois equilíbrios
estáveis no estado estacionário. O teorema abaixo resume e explica esse resultado:
k̇ = 0
Note que:
0 = sk α − (n + g + d).k
(n + g + d).k = s.k α
s
k=( ).k α
n+g+d
se k = 0 → 0 = 0
1 s 1
kα = ( )α k
n+g+d
Chamaremos F (k) = sk α − (n + d + g)k
1−α s 1 α
.
k α =( ) α 1−α
n+g+d
seja 0 < α < 1 então se αsk α−1 > (n + g + d)
s 1
k∗ = ( ) 1−α
n+g+d
136
ẋ = F (x, y, t) (23)
ẏ = G(x, y, t)
Uma Solução de (1) é um par x ∗ (t) e y ∗ (t) de funções de t tais que, para cada t,
valem:
Fato. Todo o sistema de segunda ordem a uma variável pode ser escrito naturalmente
como um sistema de primeira ordem a duas variáveis.
Fato. Toda equação diferencial não-autônoma ẏ = f (y, ) em y pode ser escrita como um
sistema autônomo de duas equações diferenciais em (y, r):
ẏ = f (y, r)
ṙ = 1
´ ´
Note que: dr
dt
= 1 → dr = dt →r(t) = t + c
ẋ = a11 x1 + . . . + a1n xn
..
. (25)
ẋn = an1 x1 + . . . + ann xn
Se algum dos aij fora da diagonal não é nulo, de modo que as equações são relaciona-
das entre si, podemos usar autovalores de A para transformar o sistema (3) de n equações
mais ou menos independentes, exatamente como procedemos com sistemas de equações a
diferenças lineares.
Suponha que A possui n autovalores reais distintos r1 , ..., rn com autovetores associados
v1 , ..., vn :
138
Avi = ri vi (26)
r1 0 · · · 0
0 r2 · · · 0
(28)
D≡ .. .. . . .
. ..
. .
0 0 · · · rn
P −1 AP = D (29)
ẏ = P −1 ẋ
ẏ = P −1 Ax (pois ẋ = Ax)
ẏ = P −1 Ay (pois x = P y)
ẏ = Dy
Sua solução:
139
y (t)
c er1 t
1 1
.. ..
. = .
yn (t) cn ern t
Y = β0 + β1 X + u
x(t) = P (y(t))
c er1 t
1
..
x(t) = [v1 , ..., vn ]
.
cn ern t
x(t) = c1 er1 t + . . . + cn ern t
Teorema. Seja A uma matriz de tamanho n×n com n autovalores reais distintos r1 , ..., rn
e autovetores associados v1 , ..., vn . Então, a solução geral do sistema linear ẋ = Ax de
equações diferenciais é dada por:
Veja que os parâmetros do sistema são arbitrários, entao faremos uma escolha apenas
para fins ilustrativos.
1
y2 = (ẏ1 − y1 ) → equação (8)
4
1
ẏ2 = (ÿ1 − ẏ1 )
4
1
(ÿ1 − ẏ1 ) = y1 + y2
4
141
1 1
(ÿ1 − ẏ1 ) = y1 + (ẏ1 − y1 )
4 4
1 1
(ÿ1 − ẏ1 ) − (ẏ1 − y1 ) − y1 = 0
4 4
r2 − 2r − 3 = 0
q
2± (−2)2 − 4.1.(−3)
r=
2.1
√
2± 16
r=
2
r1 = 3 ; r2 = −1
1
y2 = (ẏ1 − y1 )
4
1
y2 = (3c1 e3t − c2 e−t − c1 e3t − c2 e−t
4
1
y2 = (2c1 e3t − 2c2 e−t )
4
142
1
y2 = (c1 e3t − c2 e−t )
2
Em notação matricial:
y (t)
1
1 1
= c1 e3t + c2 e−t
y2 (t) 1/2 −1/2
Definição. Uma solução estacionária y∗do sistema ẏ = F (y) é dita neutramente estável
se não é localmente assintóticamente estável e se todas as soluções que começam perto y∗
permanecem perto de y∗quando t → ∞.
b) Se A tem um autovalor real positivo ou um autovalor complexo com parte real po-
sitiva, então x = 0 é um estado estacionário instável: praticamente qualquer solução
afasta-se da origem quando t → ∞.
instável.
ẋ a11 . . . a1n x1
1
.. .. . . .. ..
. = .
. . .
ẋn an1 . . . ann xn
ẋ = Ax em R2
Vamos mostrar que (0, 0) é um estado estacionário assintoticamente estável se, e so-
mente se, o traço de A é negativo e o determinante de A é positivo.
a11 a12
A=
a21 a22
a11 − r a12
A=
a21 a22 − r
A soma dos autovalores (a11 + a22 ) é igual ao traço de A. O produto dos autovalores
é igual ao determinante de A. Note que se os autovalores de A são ambos negativos sua
soma resulta em um número < 0 e seu produto é > 0. Se os autovalores são complexos
a ± ib com a < 0, então sua soma 2a é negativa e seu produto a2 + b2 é positivo. Por
outro lado, se seu produto é positivo e sua soma é negativa os autovalores são números
complexos com uma parte real negativa ou eles são números reais negativos.
Exemplo. .
ẋ = 2xy − 2y 2
ẏ = x + y 2 − 2
ẋ = 0
0 = 2y(x − y)
Então, y = 0 ou x = y
ẏ = 0
x = −y 2 + 2
Se y = 0 então x = 2
Se y = x então
y = −y 2 + 2
0 = −y 2 − y + 2
q
1± (−1)2 − 4.(−1)2
y=
2(−1)
146
y = 1 ou y = −2
2y 2x − 4y
D(f, g)(x, y) =
1 −4y
Em (2, 0) :
0 4
D(f, g)(2, 0) =
1 0
Em (1, 2):
2 −2
D(f, g)(1, 2) = As raízes são −1, 65 e 3, 65. Então (1, 2) é um equilíbrio
1 −4
instável.
Em (−2, −2):
−4 4
D(f, g)(−2, −2) =
1 8
ẋ = f (x, y)
147
ẏ = g(x, y)
Em cada ponto (x, y) a vizualização geométrica correspondente de uma solução (x∗ (t), y ∗ (t))
é uma curva no plano tangente em cada ponto ao campo de vetores.
Definição. Diagrama de fase. Quando a curva (x∗ (t), y ∗ (t)) passa pelo ponto (x, y),
seu vetor tangente (ẋ∗ (t), ẏ ∗ (t)) deveria apontar na direção e sentido de (f (x, y), g(x, y)).
O conjunto de todas essas curvas é denominado retrato de fase ou diagrama de fase.
ẋ = 2x
ẏ = −2y
dx
dt
= 2x ẏ = −2y
´
dx
x
= 2dt
´ ´
dy
dt
= −2y´
dx
x
= 2 dt dy
y
= −2 dt
lnx = 2t + c lny = −2t + c
x = c1 e2t y = c2 e−2t
Para encontrarmos as soluções não parametrizadas resolvemos cada equação por e2t e
então eliminamos t igualando as expressões:
x c2
= e2t e e2t =
c1 y
x c2
=
c1 y
y = c1 c2 x−1
ẋ = x(4 − x − y)
ẏ = y(6 − y − 3x)
Passo 2. Use o teorema 25.5 para determinar a estabilidade local de cada um desses
equilíbrios. Note que
(0, 0) e (1, 3) são instáveis;
e (0, 6) e (4, 0) são estáveis.
Um vetor (ẋ, ẏ)é vertical se ẋ = 0 e ẏ 6= 0.Se ẏ > 0 o vetor aponta para cima se ẏ < 0
aponta para baixo. Como ẋ = f (x, y), o conjunto dos pontos (x, y) nas quais ẋ = 0 é
dado pela curva f (x, y) = 0.Uma tal curva ao longo da qual o campo de vetores sempre
aponta na mesma direção e sentido, é denominada isóclina do sistema.
ẋ = 0 → x = 0 e 4 − x − y = 0
[Gráfico]
Vejamos para ẏ = 0 → y = 0 e 6 − y − 3x = 0
[Gráfico]
Passo 4. Complete as setas nas isóclinas e nos setores entre as isóclinas. As isóclinas
dividem o plano em regiões denominadas setores, e constituem as fronteiras desses
setores.
[Gráfico]
(x∗ , y ∗ ) = (4, 3)
149
[Gráfico ao lado]
C = cY (33)
C +I =Y (34)
Y ≤ Y = f (s) (35)
ṡ = I (36)
I = (1 − c)Y
Y = f (s)
Essa equação diferencial pode ser solucionada para uma forma específica de f (s) e
uma dada condição inicial s(0) = s0 .
150
sα
ṡ = (1 − c) (38)
(1 − α)
ˆ ˆ
∂s (1 − c) α
dt = s dt
∂t (1 − α)
ˆ ˆ
∂s
= (1 − c)dt
s (1 − α)−1
α
ˆ ˆ
ds s −α
(1 − α) = (1 − c)dt
s−α+1
(1 − α) = (1 − c)t + A
1−α
Lembre que (1 − c) ∈ (0, 1)
1
−1 1
(1 − c)T + (s0 + L)1−α · (s0 + L)1−α−1 − erT = 0
h i
1−α
· (
1−
α) ·
(
1−
α)
(1−α)
(1 − c)T (s0 + L)α−1 + 1 = erT α
(1−α)
(1 − c)T (s0 + L)α−1 = erT α −1
1 −rT
(s0 + L) = [(1 − c)T ] 1−α (e α − 1)
1 1
obs.: 1 1−α ou 1 α−1 se α ∈ (0, 1) α − 1 ≺ 0
1
[(1 − c)T ] 1−α
L∗ = rT − s0 (43)
eα −1
Substituindo (11) em (10)
(1−α) −α
1−α
s (T ) = e
∗ rT
s0 + [(1 − c)T ] [e rT α − 1] (1−α
G = θY (45)
Y = sα q/(1 − α) (46)
C +I +G=Y (47)
ṡ = I + G (48)
α = 0, 5.
I =Y −G−C
I +G=Y −C
I + G = [1 − c(1 − θ)] Y
s̊ = I + G
s0,5
s̊ = [1 − c(1 − θ)]
0, 5
1
s̊ = 2s 2 [1 − c(1 − θ)]
∂s 1
= 2s 2 = 2 [1 − c(1 − θ)]
∂t
∂s −1
s 2 = 2 [1 − c(1 − θ)]
dt
ˆ ˆ
∂s −1
s 2 dt = 2 [1 − c(1 − θ)] dt
∂t
1
s2
1 = 2 [1 − c(1 − θ)] t + c
2
para s(0) = 0
2
c
so =
2
1 c
s02 =
2
1
2
s(t) = (1 − c + cθ)t + s0 2
1
Note que ∂θ
∂s
= 2 ((1 − c) + cθ) t + s02 .ct
C = c(1 − θ)2s0,5
1
C = c(1 − θ)2 · 1 + c (θ − 1) t + s02 →esse é o termo dentro da integral
T2
" #
1
W = 2c(1 − θ) 1 − c(1 − θ) + s02 T
2
1
W = c(1 − θ) 1 − c(1 − θ)T 2 + 2s02 T
1
2
= −θ 1 − c(1 − θ)T + 2s0 T + c [...] 2
1
2 2 2
= c −θT + (θc − cθ )T − θ2s0 T + c [...] 2
∂W
1
= c −1T 2 + cT 2 − 2cθT 2 − 2s02 T = 0
∂θ
1
−1T 2 + cT 2 − 2s02 T 2 = 2cθT 2
1
−1T 2 + cT 2 − 2s02 T 2
=θ
2cT 2
1
2s 2 T −1 + 1
θ =1− 0
2c
1
2s02 T −1 + 1
θ =1−
2c
Qual a influência da duração do mandato do governo no parâmetro de política fiscal?
Note que θaumenta quando T cresce. Atribuímos s0 = 1 e c = 0, 75 e deixamos T assumir
uma gaama de valores.
Temos que:
2+T
θ =1−
2 · 0, 75T
2+T
θ =1−
1, 5T
4 + 2T
θ =1−
3T
154
3T − 4 − 2T
θ=
3T
T −4
θ=
3T
1
Y (t) = 2 (1 − c + cθ)t + s02 = t(T − 2)/T + 2
s̊
= 4(1 − c)
s
ˆ ˆ
∂s 1
· · dt = 4(1 − c) dt
∂t s
s = e4(1−c)t + constante
155
C(t) = 4s · c
C(t) = 4c · e4(1−c)t
ˆ 1
V = [ln 4c + 4(1 − c)t] dt
0
i1
V = ln4ct + 2(1 − c)t2
h
= ln4c + 2(1 − c)
0
∂V 1 1
= · 4 − 2 = 0 → c∗ =
∂c 4 c 2
Então teremos que s∗ = e4(1− 2 )t = e2t e C ∗ (t) = 2e2t
1
1 1 ∼
V = ln 4 · + 2 1 −
∗
= 1, 7
2 2
25 Princípio do Máximo
s.a
Normalmente a variável que está na restrição exposta por uma equação diferencial é
denominada a variável de estado. Em outras palavras, representa o quanto essa variável em
particular oscila de acordo com uma variação no tempo. Para o nosso exemplo a variável de
controle (ou escolha) é c(t). Temos também quet denota o horizonte temporal. Como nos
problemas de otimização estática, usaremos uma variável denominada de coestado π (t)que
156
H(s (t) , c(t), π (t) , t) = V (s (t) , c (t) , t) + π (t) f (s (t) , c (t) , t) (52)
∂H
= 0; (53)
∂c (t)
(ii) As variáveis de estado e coestado satisfazem o par de equações diferenciais:
∂H
ṡ = (54)
∂π (t)
∂H
π̇ = − (55)
∂s (t)
Com as condições “terminais” expressas em (3) usando a definições de Hamiltoniano
(4) e as equações (5)-(7) teremos:
∂V ∂f
+ π (t) =0 (56)
∂c (t) ∂c (t)
∂V ∂f
π̇ (t) = − − π (t) (58)
∂s (t) ∂s (t)
s.a.
(c) kT e−r̄T T ≥ 0
ct → variável de controle
∂kv
= k̇v + v̇k
∂t
Se integrarmos ambos os lados dessa expressão encontramos
ˆ T ˆ T ˆ T
∂kv
= k̇vdt + v̇kdt
0 ∂t 0 0
ˆ T
∂kv
= kT vT − k0 v0
0 ∂t
ˆ T ˆ T
L= (u(ct , kt , t) + λt g[kt , ct , t])dt − kT λT + k0 λ0 + λ˙t k t dt + ψkT e−rT T
0 0
158
As CPOs:
∂H ∂u ∂g
= +λ =0
∂c ∂c ∂c
∂H ∂u ∂g
= +λ + λ̇ = 0
∂k ∂k ∂k
∂H ˙∂u ∂g
= −λ = +λ
∂k ∂k ∂k
∂L
= −λT + ψe−rT T = 0
∂kT
λT = ψe−rT T
kT λT = 0
kT ψe−rT T = 0
λT kT = 0
No instante T o valor do capital é igual a zero, porque seu preço sombra vale zero λT.
Para o horizonte infinito a derivação é análoga trocando T por ∞. No entanto a condição
de folga de Kuhn-Tucker deve ser substituída por
lim λt kt = 0
t→∞
∂H 1
= 4s − 4sπ = 0 (59)
∂c 4cs
∂H 1
= −π̇ = 4c + π4 (1 − c) (60)
∂s 4cs
∂H
= ṡ = 4s (1 − c) (61)
∂π
1
Por (11) teremos que c = 4πs
substituindo esse resultado nas outras equações obtere-
mos:
1 1
π̇ = − − 4π 1 − (62)
s 4πs
1
ṡ = 4s 1 − (63)
4πs
simplificando a equação (14) teremos:
1 4πs − 1
π̇ = − − 4π
s 4πs
1 4πs 1
π̇ = − − +
s s s
π̇ = −4π (140 )
lnπ = −4t
π = ce−4t (15)
Então teremos
1
ṡ = 4s −
π
160
e4t
ṡ = 4s −
π (0)
e4t
ṡ = 4s = −
π (0)
a (t) = −4
e4t
b (t) = −
π (0)
Passe todos os termos de s para o lado esquerdo e multiplique pelo fator integrante
e−4t :
1
ṡe−4t − 4se−4t =
π (0)
Note que a derivada de se−4t é:
ṡe−4t − 4se−4t
se−4t
−t
se−4t = +c
π (0)
ˆ
−t 1
+c= dt
π (0) π (0)
sabemos que s (0) = 1
0
se−4(0) = − +c=1
π (0)
1=c
s (1) = e2
1
!
4
s (1) = 2 − +1
π (0)
161
1
e−2 = 1 +
π (0)
Temos que :
1 1
−1=
e 2 π (0)
1
π (0) = ≈ 1.156
e−2 −1
s = e4t − 0, 865te4t
Sabemos que
1 1
c(t) = =
4πs 4.62 − 4t
ˆ 1
V = ln (4cs) dt
0
ˆ 1
4
= ln s dt
0 4πs
ˆ 1
1
!
= ln dt
0 π (0) e−4t
ˆ 1 i1
[ln (0.865) + 4t] dt = tln (0, 865) + 2t2
h
V = ≈ 1.855
0
0
Desejamos maximizar
ˆ T
V = e−δt lnc (t) dt s.a ṡ (t) = rs − c (t)
0
s (0) = s0 e s (T ) = sT
Teremos que:
∂H 1
= e−δt − π = 0 (64)
∂c c
162
∂H
= −rπ = π̇ (65)
∂s
∂H
= rs (t) − c (t) = ṡ (66)
∂π
Usaremos a equação (17) para encontrarmos uma solução geral para π:
ˆ ˆ
∂π 1
= −rdt
∂t π
lnπ = −rt + c1
π = c1 e−rt (67)
c1 = π (0)
e−δt
= π (0) e−rt
c
Em (18)
ṡ = rs − et(r−δ) (π (0))−1
ṡ − rs = −et(r−δ) (π (0))−1
e−δt
se−st = +A
δπ (0)
Usando as condições iniciais teremos:
s (0) = s0 s0 = A + (π (0))−1
e(r−δ)T
s (T ) = sT sT = AerT +
Sπ (0)
163
sT e−rT − s0e−δT
A=
1 − eδT
Para não termos valores negativos para o consumo, é necessário que
s0erT > sT
1
u(ct ) = −( )e−αct
α
ˆ ∞
max u0 = u(ct )e−θt dt
0
s.a.
k̇ = f (kt ) − ct − nkt
Fazendo λt = µt eθt
1
Hc = (− )e−αc (−α)e−θt (−λt )e−θt = 0
α
e−αc = λt (1)
λt = µt eθt
λ̇ = µ̇eθt + µθeθt
164
µ̇ = −Hk
µ̇ = e−θt λt [f 0 (kt ) − n]
→ Substituindo na equação de λ̇
λt
λ̇ = e−θt λt [−f 0 (kt ) + n]eθt + ( )θeθt
eθt
λ̇ = λt [−f 0 (kt ) + n] + λt θ
λ̇ = λt [θ + n − f 0 (kt )] (2)
→ Condição de transversalidade
e−αc = λt (1)
u0 (ct )
σ(ct ) = − ct
u00 (ct )
ċ e−αc
= (−[f 0 (kt ) − θ − n]) (200 )
ct −αe−αc ct
ċ
= σ(ct )[f 0 (kt ) − θ − n]
ct
ct e−αc
ċ = −αc (−[f 0 (kt ) − θ − n])
e (−α)
ct
ċ = α−1 [f 0 (kt ) − θ − n]
s.a
ṡ = 2s0,5 − c
s (0) = s0, s (T ) = sT
Teremos que:
∂H
= e−0,05t c−1 − π = 0 (68)
∂c
∂H
= −π̇ = s−0,5 π (69)
∂s
∂H
= 2s0,5 − c = ṡ (70)
∂π
Nesse caso não conseguiremos solucionar πpor (21). Devemos diferenciar a equação
(20) em relação ao tempo.
ċ 0, 05
−e −0,05t
2
+ = π̇
c c
ċ 0, 05
−e−0,05t
2
+ = −πs−0,5 (usando (21))
c c
e−0,05t
P or (20) π=
c
ċ 0, 05 −e−0,05t −0,5
−e−0,05 + = s
c2 c c
ċ
− + q 0,5 = −s−0,5
c2
+ ˙ + 0, 05c ˙= +cs−0,5c
1
+ ċ = c s− 2 − 0, 05 (71)
ṡ = 0 → c = 2s0,5
Note que c = 2s0,5 é uma função côncava e crescente em s. Essa curva sai da origem, e
possui uma inclinação infinitamente grande. (se s = 0 então c = 0).
167
Referências
LEONARD, D.; VAN LONG, N. Optimal Control Theory and Static Optimization in
Economics. Cambridge University Press, 1992.