Academia.eduAcademia.edu

UM CURSO DE GEOMETRIA ANAL ITICA É ALGEBRA LINEAR

UM CURSO DE GEOMETRIA ANALÍTICA E ÁLGEBRA LINEAR Reginaldo J. Santos Departamento de Matemática-ICEx Universidade Federal de Minas Gerais http://www.mat.ufmg.br/~regi Julho 2010 Um Curso de Geometria Analı́tica e Álgebra Linear Copyright c 2012 by Reginaldo de Jesus Santos (130414) É proibida a reprodução desta publicação, ou parte dela, por qualquer meio, sem a prévia autorização, por escrito, do autor. Editor, Coordenador de Revisão, Supervisor de Produção, Capa e Ilustrações: Reginaldo J. Santos Impressão: Imprensa Universitária da UFMG ISBN 85-7470-006-1 Ficha Catalográfica S237u Santos, Reginaldo J. Um Curso de Geometria Analı́tica e Álgebra Linear / Reginaldo J. Santos - Belo Horizonte: Imprensa Universitária da UFMG, 2012. 1. Álgebra Linear 2. Geometria Analı́tica CDD: I. Tı́tulo 512.5 516.3 Sumário Apresentação 1 2 Matrizes e Sistemas Lineares 1.1 Matrizes . . . . . . . . . . . . . . . . . . . 1.1.1 Operações com Matrizes . . . . . . 1.1.2 Propriedades da Álgebra Matricial 1.1.3 Aplicação: Cadeias de Markov . . Apêndice I: Notação de Somatório . . . . 1.2 Sistemas de Equações Lineares . . . . . . 1.2.1 Método de Gauss-Jordan . . . . . 1.2.2 Matrizes Equivalentes por Linhas 1.2.3 Sistemas Lineares Homogêneos . . 1.2.4 Matrizes Elementares (opcional) . vi . . . . . . . . . . 1 1 3 9 15 28 30 34 45 47 52 Inversão de Matrizes e Determinantes 2.1 Matriz Inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 70 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iii . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iv Sumário 2.2 3 4 5 2.1.1 Propriedades da Inversa . . . . . . . . . . . . . . . 2.1.2 Matrizes Elementares e Inversão (opcional) . . . . 2.1.3 Método para Inversão de Matrizes . . . . . . . . . 2.1.4 Aplicação: Interpolação Polinomial . . . . . . . . 2.1.5 Aplicação: Criptografia . . . . . . . . . . . . . . . Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.1 Propriedades do Determinante . . . . . . . . . . . 2.2.2 Matrizes Elementares e o Determinante (opcional) Apêndice II: Demonstração do Teorema 2.11 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 . 75 . 78 . 89 . 92 . 99 . 104 . 119 . 126 Vetores no Plano e no Espaço 3.1 Soma de Vetores e Multiplicação por Escalar . . . . . . 3.2 Produtos de Vetores . . . . . . . . . . . . . . . . . . . . . 3.2.1 Norma e Produto Escalar . . . . . . . . . . . . . 3.2.2 Projeção Ortogonal . . . . . . . . . . . . . . . . . 3.2.3 Produto Vetorial . . . . . . . . . . . . . . . . . . 3.2.4 Produto Misto . . . . . . . . . . . . . . . . . . . . Apêndice III: Demonstração do item (e) do Teorema 3.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 134 166 166 175 179 190 205 Retas e Planos 4.1 Equações de Retas e Planos 4.1.1 Equações do Plano . 4.1.2 Equações da Reta . . 4.2 Ângulos e Distâncias . . . . 4.2.1 Ângulos . . . . . . . 4.2.2 Distâncias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209 209 209 228 250 250 256 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Espaços Rn 280 5.1 Independência Linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280 5.1.1 Os Espaços Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280 5.1.2 Combinação Linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284 Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Sumário 5.2 5.3 5.4 6 v 5.1.3 Independência Linear . . . . . . . . . . . . . . . . . . . 5.1.4 Posições Relativas de Retas e Planos . . . . . . . . . . . Subespaços, Base e Dimensão . . . . . . . . . . . . . . . . . . . Apêndice IV: Outros Resultados . . . . . . . . . . . . . . . . . Produto Escalar em Rn . . . . . . . . . . . . . . . . . . . . . . . 5.3.1 Produto Interno . . . . . . . . . . . . . . . . . . . . . . . 5.3.2 Bases Ortogonais e Ortonormais . . . . . . . . . . . . . Mudança de Coordenadas . . . . . . . . . . . . . . . . . . . . . 5.4.1 Rotação . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.4.2 Translação . . . . . . . . . . . . . . . . . . . . . . . . . . 5.4.3 Aplicação: Computação Gráfica - Projeção Ortográfica Diagonalização 6.1 Diagonalização de Matrizes . . . . . . 6.1.1 Motivação . . . . . . . . . . . . 6.1.2 Autovalores e Autovetores . . 6.1.3 Diagonalização . . . . . . . . . 6.2 Diagonalização de Matrizes Simétricas 6.2.1 Motivação . . . . . . . . . . . . 6.2.2 Matrizes Ortogonais . . . . . . Apêndice V: Autovalores Complexos . 6.3 Aplicação: Identificação de Cônicas . 6.3.1 Elipse . . . . . . . . . . . . . . . 6.3.2 Hipérbole . . . . . . . . . . . . 6.3.3 Parábola . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 290 299 307 326 338 338 348 356 365 365 368 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 380 380 380 382 391 410 410 413 424 428 428 436 444 Respostas dos Exercı́cios 482 Bibliografia 594 Índice Alfabético 598 Julho 2010 Reginaldo J. Santos Apresentação Este texto cobre o material para um curso de um semestre de Geometria Analı́tica e Álgebra Linear ministrado nos primeiros semestres para estudantes da área de Ciências Exatas. O texto pode, mas não é necessário, ser acompanhado de um programa como o M ATLABr ∗ ou o Maxima. O conteúdo é dividido em seis capı́tulos. O Capı́tulo 1 trata das matrizes e sistemas lineares. Aqui todas as propriedades da álgebra matricial são demonstradas. A resolução de sistemas lineares é feita usando somente o método de Gauss-Jordan (transformando a matriz até que ela esteja na forma escalonada reduzida). Este método requer mais trabalho do que o método de Gauss (transformando a matriz, apenas, até que ela esteja na forma escalonada). Ele foi o escolhido, por que também é usado no estudo da inversão de matrizes no Capı́tulo 2. Neste Capı́tulo é também estudado o determinante, que é definido usando cofatores. As demonstrações dos resultados deste capı́tulo podem ser, a critério do leitor, feitas somente para matrizes 3 × 3. O Capı́tulo 3 trata de vetores no plano e no espaço. Os vetores são definidos de forma geométrica, assim como a soma e a multiplicação por escalar. São provadas algumas propriedades geometricamente. Depois são introduzidos sistemas de coordenadas de forma natural sem a necessidade da definição de base. Os produtos ∗ M ATLAB r é marca registrada de The Mathworks, Inc. vi Sumário vii escalar e vetorial são definidos também geometricamente. O Capı́tulo 4 trata de retas e planos no espaço. São estudados ângulos e distâncias entre retas e planos. O Capı́tulo 5 cobre a teoria dos espaços Rn . O conceito de dependência e independência linear é introduzido de forma algébrica, acompanhado da interpretação geométrica para os casos de R2 e R3 . Aqui são estudadas as posições relativas de retas e planos como uma aplicação do conceito de dependência linear. São também tratados os conceitos de geradores e de base de subespaços. São abordados também o produto escalar e bases ortonormais. O Capı́tulo é terminado com mudança de coordenadas, preparando para o Capı́tulo de diagonalização. O Capı́tulo 6 traz um estudo da diagonalização de matrizes em geral e diagonalização de matrizes simétricas através de um matriz ortogonal. É feita uma aplicação ao estudo das seções cônicas. Os exercı́cios estão agrupados em três classes. Os “Exercı́cios Numéricos”, que contém exercı́cios que são resolvidos fazendo cálculos, que podem ser realizados sem a ajuda de um computador ou de uma máquina de calcular. Os “Exercı́cios Teóricos”, que contém exercı́cios que requerem demonstrações. Alguns são simples, outros são mais complexos. Os mais difı́ceis complementam a teoria e geralmente são acompanhados de sugestões. Os “Exercı́cios usando o M ATLABr ”, que contém exercı́cios para serem resolvidos usando o M ATLABr ou outro software. Os comandos necessários a resolução destes exercı́cios são também fornecidos juntamente com uma explicação rápida do uso. Os exercı́cios numéricos são imprescindı́veis, enquanto a resolução dos outros, depende do nı́vel e dos objetivos pretendidos para o curso. O M ATLABr é um software destinado a fazer cálculos com matrizes (M ATLABr = MATrix LABoratory). Os comandos do M ATLABr são muito próximos da forma como escrevemos expressões algébricas, tornando mais simples o seu uso. Podem ser incorporados às funções pré-definidas, pacotes de funções para tarefas especı́ficas. Um pacote chamado gaal com funções que são direcionadas para o estudo de Geometria Analı́tica e Álgebra Linear pode ser obtido na web na página do autor, assim como um texto com uma introdução ao M ATLABr e instruções de como instalar o pacote gaal. O M ATLABr não é um software gratuito, embora antes a versão estudante vinha grátis ao se comprar o guia do usuário. O Maxima é um programa de computação algébrica gratuito. Ambos podem ser usados como ferramenta auxiliar na aprendizagem de Geometria Analı́tica e Álgebra Linear. Na página do autor na web podem ser encontrados pacotes de funções para estes programas além de links para as páginas do Maxima e várias páginas interativas que podem auxiliar na Julho 2010 Reginaldo J. Santos viii Prefácio aprendizagem. No fim de cada capı́tulo temos um “Teste do Capı́tulo” para que o aluno possa avaliar os seus conhecimentos. Os Exercı́cios Numéricos e os Exercı́cios usando o M ATLABr estão resolvidos após o último capı́tulo utilizando o M ATLABr . Desta forma o leitor que não estiver interessado em usar o software pode obter apenas as respostas dos exercı́cios, enquanto aquele que tiver algum interesse, pode ficar sabendo como os exercı́cios poderiam ser resolvidos fazendo uso do M ATLABr e do pacote gaal. Gostaria de agradecer aos professores que colaboraram apresentando correções, crı́ticas e sugestões, entre eles Joana Darc A. S. da Cruz, Francisco Dutenhefner, Jorge Sabatucci, Seme Gebara, Alexandre Washington, Vivaldo R. Filho, Hamilton P. Bueno, Paulo A. F. Machado, Helder C. Rodrigues, Nikolai A. Goussevskii, Israel Vainsencher, Leopoldo G. Fernandes, Rodney J. Biezuner, Wilson D. Barbosa, Flaviana A. Ribeiro, Cristina Marques, Rogério S. Mol, Denise Burgarelli, Paulo C. de Lima, José Barbosa Gomes, Francisco Satuf, Viktor Beckkert, Moacir G. dos Anjos, Daniel C. de Morais Filho, Michel Spira, Dan Avritzer, Maria Laura M. Gomes, Armando Neves, Maria Cristina C. Ferreira, Kennedy Pedroso, Marcelo de O. Terra Cunha e Marcelo D. Marchesin. Histórico Julho 2010 Algumas correções. Mudança na formatação do texto. Julho 2009 Algumas correções. Várias figuras foram refeitas. Julho 2007 Algumas correções. As respostas de alguns exercı́cios foram reescritas. Março 2007 Várias figuras foram refeitas e outras acrescentadas. Foram reescritos o Exemplo 3.12 e o Corolário 3.10. Na seção 5.2 um exemplo foi reescrito e acrescentado mais um. Os Exemplos 5.25 e 5.26 foram reescritos, saı́ram do apêndice e voltaram ao texto normal. A seção 5.4 de Mudança de Coordenadas foi reescrita e acrescentada uma aplicação à computação gráfica. Foram acrescentados dois exercı́cios na seção de Matrizes, um na de Inversão de Matrizes, um na seção de Determinantes, dois na de Produto de Vetores, um na de Subespaços, um na de Produto Escalar em Rn , três na de Mudança de Coordenadas, Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Prefácio ix quatro na de Diagonalização e um na de Diagonalização de Matrizes Simétricas. Foram corrigidos alguns erros. Julho 2006 Foi acrescentado o Exemplo 2.16 na página 116. A seção 3.2 ’Produtos de Vetores’ foi reescrita. Foi acrescentado um exercı́cio na seção 4.2. O Capı́tulo 5 foi reescrito. Foram corrigidos alguns erros. Março 2006 A Seção 1.1 de Matrizes e a Seção 2.2 de Determinantes foram reescritas. Na seção 1.2 o Teorema 1.4 voltou a ser que toda matriz é equivalente por linhas a uma única matriz na forma escalonada reduzida. Foram acrescentados vários exercı́cios aos Capı́tulos 3 e 4. O Capı́tulo 5 foi reescrito. Foram acrescentados exercı́cios teóricos à seção ’Aplicação à Cônicas’. Julho 2004 Foram acrescentadas aplicações à criptografia (Exemplo na página 92) e a cadeias de Markov (Exemplos 1.9 na página 16, 1.16 na página 49 e 6.8 na página 399). Foi acrescentado um exercı́cio na seção 1.1. O Teorema 1.4 agora contém as propriedades da relação “ser equivalente por linhas” com a demonstração. O que antes era Exemplo 1.14 passou para o lugar do Exemplo 1.10. O Exemplo 2.5 foi modificado. No Capı́tulo 3 foram acrescentados 2 exercı́cios na seção 3.1, 1 exercı́cio na seção 3.2. No Capı́tulo 4 a seção 4.1 foi reescrita e foram acrescentados 2 exercı́cios. O Capı́tulo 5 foi reescrito. Foi incluı́da no Apêndice III da seção 5.2. a demonstração de que a forma escalonada reduzida de uma matriz é única. A seção ’Diagonalização de Matrizes’ ganhou mais um exercı́cio teórico. Setembro 2003 Foi acrescentada a regra de Cramer na seção ’Determinantes’ (Exemplo 2.20). A seção ’Subespaços, Base e Dimensão’ foi reescrita. Foi acrescentado um apêndice a esta seção com ’Outros resultados’. A Proposição 5.15 da seção ’Produto Escalar em Rn foi reescrita. A seção ’Diagonalização de Matrizes’ ganhou mais dois exercı́cios teóricos. A seção ’Diagonalização de Matrizes Simétricas’ ganhou um apêndice sobre ’Autovalores Complexos’. Novembro 2002 Várias correções incluindo respostas de exercı́cios. A seção ’Subespaços, Base e Dimensão’ ganhou mais um exemplo e um exercı́cio. A seção ’Diagonalização de Matrizes Simétricas’ ganhou mais um exemplo. Julho 2001 Revisão completa no texto. Novos exercı́cios nas seções ’Matrizes’ e ’Sistemas Lineares’. As seções ’Subespaços’ e ’Base e Dimensão’ tornaram-se uma só. A seção ’Mudança de Coordenadas’ passou do Capı́tulo 6 para o Capı́tulo 5. Julho 2010 Reginaldo J. Santos x Prefácio Julho 2000 Criado a partir do texto ’Geometria Analı́tica e Álgebra Linear’ para ser usado numa disciplina de Geometria Analı́tica e Álgebra Linear. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Prefácio xi Sugestão de Cronograma Capı́tulo 1 8 aulas Capı́tulo 2 8 aulas Capı́tulo 3 8 aulas Capı́tulo 4 8 aulas Capı́tulo 5 12 (16) aulas Capı́tulo 6 12 aulas Total Julho 2010 56 (60) aulas Reginaldo J. Santos xii Um Curso de Geometria Analı́tica e Álgebra Linear Prefácio Julho 2010 1 Matrizes e Sistemas Lineares 1.1 Matrizes Uma matriz A, m × n (m por n), é uma tabela de mn números dispostos em m linhas e n colunas   a11 a12 . . . a1n  a21 a22 . . . a2n    A= . ..  .  .. ... .  am1 1 am2 ... amn 2 Matrizes e Sistemas Lineares A i-ésima linha de A é  ai1 ai2 ain ...  , para i = 1, . . . , m e a j-ésima coluna de A é       a1j a2j .. . amj   ,  para j = 1, . . . , n. Usamos também a notação A = ( aij )m×n . Dizemos que aij ou [ A]ij é o elemento ou a entrada de posição i, j da matriz A. Se m = n, dizemos que A é uma matriz quadrada de ordem n e os elementos a11 , a22 , . . . , ann formam a diagonal (principal) de A. Exemplo 1.1. Considere as seguintes matrizes:  A= 1 3 2 4   , −2 1 0 3 B=   , C= 1 2 3 4 0 −2  ,  D=  1 3 −2  ,  1   E= 4  eF= 3 . −3 As matrizes A e B são 2 × 2. A matriz C é 2 × 3, D é 1 × 3, E é 3 × 1 e F é 1 × 1. De acordo com a notação que introduzimos, exemplos de elementos de algumas das matrizes dadas acima são a12 = 2, c23 = −2, e21 = 4, [ A]22 = 4, [ D ]12 = 3. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 1.1 Matrizes 3 Uma matriz que só possui uma linha é chamada matriz linha, e uma matriz que só possui uma coluna é chamada matriz coluna, No Exemplo 1.1 a matriz D é uma matriz linha e a matriz E é uma matriz coluna. Matrizes linha e matrizes coluna são chamadas de vetores. O motivo ficará claro na Seção 5.1 na página 280. Dizemos que duas matrizes são iguais se elas têm o mesmo tamanho e os elementos correspondentes são iguais, ou seja, A = ( aij )m×n e B = (bij ) p×q são iguais se m = p, n = q e aij = bij para i = 1, . . . , m e j = 1, . . . , n. Vamos definir operações matriciais análogas às operações com números e provar propriedades que são válidas para essas operações. Veremos, mais tarde, que um sistema de equações lineares pode ser escrito em termos de uma única equação matricial. Vamos, agora, introduzir as operações matriciais. 1.1.1 Operações com Matrizes Definição 1.1. A soma de duas matrizes de mesmo tamanho A = ( aij )m×n e B = (bij )m×n é definida como sendo a matriz m × n C = A+B Julho 2010 Reginaldo J. Santos 4 Matrizes e Sistemas Lineares obtida somando-se os elementos correspondentes de A e B, ou seja, cij = aij + bij , para i = 1, . . . , m e j = 1, . . . , n. Escrevemos também [ A + B]ij = aij + bij . Exemplo 1.2. Considere as matrizes:  A= 1 3 2 4 −3 0   , B= −2 0 1 3 5 −4 Se chamamos de C a soma das duas matrizes A e B, então    1 + (−2) 2 + 1 −3 + 5 −1 C = A+B = = 3+0 4 + 3 0 + (−4) 3  3 7 2 −4  Definição 1.2. A multiplicação de uma matriz A = ( aij )m×n por um escalar (número) α é definida pela matriz m×n B = αA obtida multiplicando-se cada elemento da matriz A pelo escalar α, ou seja, bij = α aij , para i = 1, . . . , m e j = 1, . . . , n. Escrevemos também [αA]ij = α aij . Dizemos que a matriz B é um múltiplo escalar da matriz A. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 1.1 Matrizes 5   −2 1 3  pelo escalar −3 é dado por Exemplo 1.3. O produto da matriz A =  0 5 −4     (−3)(−2) (−3) 1 6 −3 (−3) 3  =  0 −9  . −3 A =  (−3) 0 (−3) 5 (−3)(−4) −15 12 Definição 1.3. O produto de duas matrizes, tais que o número de colunas da primeira matriz é igual ao número de linhas da segunda, A = ( aij )m× p e B = (bij ) p×n é definido pela matriz m × n C = AB obtida da seguinte forma: cij = ai1 b1j + ai2 b2j + . . . + aip b pj , (1.1) para i = 1, . . . , m e j = 1, . . . , n. Escrevemos também [ AB]ij = ai1 b1j + ai2 b2j + . . . + aip b pj . Julho 2010 Reginaldo J. Santos 6 Matrizes e Sistemas Lineares     c11 .. . ... cij c1n .. . cm1 ... cmn A equação (1.1) está dizendo que o elemento i, j do produto é igual à soma dos produtos dos elementos da i-ésima linha de A pelos elementos correspondentes da jésima coluna de B.   a11 a12 . . . a1p     .. ..  b1j b11 b1n . . . . . .   . ... .   b2j b21 b2n    ... ...   =  ai1 ai2 . . . aip  .. .. ..    ... ...   . . .    .. .. . . . . . .   b b pn b . ... . p1 am1 am2 ... pj amp A equação (1.1) pode ser escrita de forma compacta usando a notação de somatório. p [ AB]ij = ai1 b1j + ai2 b2j + . . . + aip b pj = ∑ aik bkj k =1 p e dizemos “somatório de k variando de 1 a p de aik bkj ”. O sı́mbolo ∑ significa que k =1 estamos fazendo uma soma em que o ı́ndice k está variando de k = 1 até k = p. Algumas propriedades da notação de somatório estão explicadas no Apêndice I na página 28. Exemplo 1.4. Considere as matrizes:  A= 1 3 2 4 −3 0   , Um Curso de Geometria Analı́tica e Álgebra Linear −2 1 3 B= 0 5 −4  0 0 . 0 Julho 2010 1.1 Matrizes 7 Se chamamos de C o produto das duas matrizes A e B, então  C = AB = 1 (−2) + 2 · 0 + (−3) 5 3 (−2) + 4 · 0 + 0 · 5 1 · 1 + 2 · 3 + (−3) (−4) 3 · 1 + 4 · 3 + 0 (−4) 0 0   = −17 −6 19 15 0 0  . Observação. No exemplo anterior o produto BA não está definido (por quê?). Entretanto, mesmo quando ele está definido, BA pode não ser igual à AB, ou seja, o produto de matrizes não é comutativo, como mostra o exemplo seguinte. Exemplo 1.5. Sejam A =  1 3  AB = 2 4   eB= −2 7 −6 15 −2 1 0 3   . Então,  e BA = 1 9 0 12  . Vamos ver no próximo exemplo como as matrizes podem ser usadas para descrever quantitativamente um processo de produção. Julho 2010 Reginaldo J. Santos 8 Matrizes e Sistemas Lineares Exemplo 1.6. Uma indústria produz três produtos, X, Y e Z, utilizando dois tipos de insumo, A e B. Para a manufatura de cada kg de X são utilizados 1 grama do insumo A e 2 gramas do insumo B; para cada kg de Y, 1 grama de insumo A e 1 grama de insumo B e, para cada kg de Z, 1 grama de A e 4 gramas de B. Usando matrizes podemos determinar quantos gramas dos insumos A e B são necessários na produção de x kg do produto X, y kg do produto Y e z kg do produto Z. gramas de A/kg gramas de B/kg X Y Z 1 1 1 2 1 4  AX =  = x+y+z 2x + y + 4z A   x X=  y  z kg de X produzidos kg de Y produzidos kg de Z produzidos gramas de A usados gramas de B usados Definição 1.4. A transposta de uma matriz A = ( aij )m×n é definida pela matriz n × m B = At obtida trocando-se as linhas com as colunas, ou seja, bij = a ji , para i = 1, . . . , n e j = 1, . . . , m. Escrevemos também [ At ]ij = a ji . Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 1.1 Matrizes 9 Exemplo 1.7. As transpostas das matrizes  A= 1 3 At =  2 4 1 2   B= , 3 4  , −2 1 0 3 Bt =   −2 0 1 3  e C=  e 1 2 3 4  1 Ct =  3 0 0 −2  são  2 4 . −2 A seguir, mostraremos as propriedades que são válidas para a álgebra matricial. Várias propriedades são semelhantes àquelas que são válidas para os números reais, mas deve-se tomar cuidado com as diferenças. Uma propriedade importante que é válida para os números reais, mas não é válida para as matrizes é a comutatividade do produto, como foi mostrado no Exemplo 1.5. Por ser compacta, usaremos a notação de somatório na demonstração de várias propriedades. Algumas propriedades desta notação estão explicadas no Apêndice I na página 28. 1.1.2 Propriedades da Álgebra Matricial Teorema 1.1. Sejam A, B e C matrizes com tamanhos apropriados, α e β escalares. São válidas as seguintes propriedades para as operações matriciais: (a) (comutatividade) A + B = B + A; Julho 2010 Reginaldo J. Santos 10 Matrizes e Sistemas Lineares (b) (associatividade) A + ( B + C ) = ( A + B) + C; (c) (elemento neutro) A matriz 0̄, m × n, definida por [0̄]ij = 0, para i = 1, . . . , m, j = 1, . . . , n é tal que A + 0̄ = A, para toda matriz A, m × n. A matriz 0̄ é chamada matriz nula m × n. (d) (elemento simétrico) Para cada matriz A, existe uma única matriz − A, definida por [− A]ij = − aij tal que A + (− A) = 0̄. (e) (associatividade) α( βA) = (αβ) A; (f) (distributividade) (α + β) A = αA + βA; (g) (distributividade) α( A + B) = αA + αB; (h) (associatividade) A( BC ) = ( AB)C; (i) (elemento neutro) Para cada inteiro positivo p a matriz, p × p,  1 0 ...  0 1 ...  Ip =  . ..  .. . 0 0 ... 0 0 .. .    ,  1 chamada matriz identidade é tal que A In = Im A = A, para toda matriz A = ( aij )m×n . (j) (distributividade) A( B + C ) = AB + AC e ( B + C ) A = BA + CA; (k) α( AB) = (αA) B = A(αB); Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 1.1 Matrizes 11 (l) ( At )t = A; (m) ( A + B)t = At + Bt ; (n) (αA)t = α At ; (o) ( AB)t = Bt At ; Demonstração. Para provar as igualdades acima, devemos mostrar que os elementos da matriz do lado esquerdo são iguais aos elementos correspondentes da matriz do lado direito. Serão usadas várias propriedades dos números sem citá-las explicitamente. (a) [ A + B]ij = aij + bij = bij + aij = [ B + A]ij ; (b) [ A + ( B + C )]ij = aij + [ B + C ]ij = aij + (bij + cij ) = ( aij + bij ) + cij = = [ A + B]ij + cij = [( A + B) + C ]ij ; (c) Seja X uma matriz m × n tal que A+X = A (1.2) para qualquer matriz A, m × n. Comparando os elementos correspondentes, temos que aij + xij = aij , ou seja, xij = 0, para i = 1 . . . , m e j = 1 . . . , n. Portanto, a única matriz que satisfaz (1.2) é a matriz em que todos os seus elementos são iguais a zero. Denotamos a matriz X por 0̄. (d) Dada uma matriz A, m × n, seja X uma matriz m × n, tal que A + X = 0̄ . Julho 2010 (1.3) Reginaldo J. Santos 12 Matrizes e Sistemas Lineares Comparando os elementos correspondentes, temos que aij + xij = 0 , ou seja, xij = − aij , para i = 1 . . . , m e j = 1 . . . , n. Portanto, a única matriz que satisfaz (1.3) é a matriz em que todos os seus elementos são iguais aos simétricos dos elementos de A. Denotamos a matriz X por − A. (e) [α( βA)]ij = α[ βA]ij = α( βaij ) = (αβ) aij = [(αβ) A]ij . (f) [(α + β) A]ij = (α + β) aij = (αaij ) + ( βaij ) = [αA]ij + [ βA]ij = [αA + βA]ij . (g) [α( A + B)]ij = α[ A + B]ij = α( aij + bij ) = αaij + αbij = [αA]ij + [αB]ij = [αA + αB]ij . (h) A demonstração deste item é a mais trabalhosa. Sejam A, B e C matrizes m × p, p × q e q × n respectivamente. A notação de somatório aqui pode ser muito útil, pelo fato de ser compacta. p [ A( BC )]ij = p ∑ aik [ BC ]kj = ∑ ∑ (aik bkl )clj = k =1 p q = ∑ k =1 k =1 l =1 q = q aik ( ∑ bkl clj ) = l =1 q p ∑ p ∑ ∑ aik (bkl clj ) = k =1 l =1 q ∑ (aik bkl )clj = l =1 k =1 q p ∑ ( ∑ aik bkl )clj = l =1 k =1 ∑ [ AB]il clj = [( AB)C]ij . l =1 (i) Podemos escrever a matriz identidade em termos do delta de Kronecker que é definido por  1, se i = j δij = 0, se i 6= j Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 1.1 Matrizes 13 como [ In ]ij = δij . Assim, [ AIn ]ij = n n k =1 k =1 ∑ aik [ In ]kj = ∑ aik δkj = aij . A outra igualdade é análoga. p [ A ( B + C )] = ij ∑ aik [ B + C]kj = (j) = k =1 p p k =1 k =1 p ∑ p aik (bkj + ckj ) = k =1 ∑ (aik bkj + aik ckj ) = k =1 ∑ aik bkj + ∑ aik ckj = [ AB]ij + [ AC]ij = [ AB + AC]ij . A outra igualdade é inteiramente análoga a anterior e deixamos como exercı́cio. p (k) [α( AB)]ij = α [α( AB)]ij = α ∑ p aik bkj = ∑ (αaik )bkj = [(αA) B]ij k =1 p k =1 p k =1 k =1 e ∑ aik bkj = ∑ aik (αbkj ) = [ A(αB)]ij . (l) [( At )t ]ij = [ At ] ji = aij . (m) [( A + B)t ]ij = [ A + B] ji = a ji + b ji = [ At ]ij + [ Bt ]ij . (n) [(αA)t ]ij = [αA] ji = αa ji = α[ At ]ij = [αAt ]ij . p (o) [( AB)t ]ij = [ AB] ji = ∑ k =1 p a jk bki = ∑ [ At ]kj [ Bt ]ik = k =1 p ∑ [ Bt ]ik [ At ]kj = [ Bt At ]ij . k =1  A diferença entre duas matrizes de mesmo tamanho A e B é definida por A − B = A + (− B), Julho 2010 Reginaldo J. Santos 14 Matrizes e Sistemas Lineares ou seja, é a soma da matriz A com a simétrica da matriz B. Sejam A uma matriz n × n e p um inteiro positivo. Definimos a potência p de A, por A p = |A .{z . . A}. E para p = 0, definimos A0 = In . p vezes Exemplo 1.8. Vamos verificar se para matrizes A e B, quadradas, vale a igualdade ( A + B)( A − B) = A2 − B2 . (1.4) Usando a propriedade (i) do teorema anterior obtemos ( A + B)( A − B) = ( A + B) A + ( A + B)(− B) = AA + BA − AB − BB = A2 + BA − AB − B2 Assim, ( A + B)( A − B) = A2 − B2 se, e somente se, BA − AB = 0, ou seja, se, e somente se, AB = BA. Como o produto de matrizes não é comutativo, a conclusão é que a igualdade (1.4), não vale para matrizes em geral. Como contra-exemplo basta tomarmos duas matrizes que não comutem entre si. Sejam     0 0 1 0 A= e B= . 1 1 1 0 Para estas matrizes   1 0 A+B = , 2 1  A−B = Assim, −1 0 0 1  ( A + B)( A − B) =  −1 0 −2 1 Um Curso de Geometria Analı́tica e Álgebra Linear , A2 = A =   6= −1 0 0 1   0 1 0 1  , B2 = B =  1 1 0 0  . = A2 − B2 . Julho 2010 1.1 Matrizes 15 1.1.3 Aplicação: Cadeias de Markov Vamos supor que uma população é dividida em três estados (por exemplo: ricos, classe média e pobres) e que em cada unidade de tempo a probabilidade de mudança de um estado para outro seja constante no tempo, só dependa dos estados. Este processo é chamado cadeia de Markov. Seja tij a probabilidade de mudança do estado j para o estado i em uma unidade de tempo (geração). Tome cuidado com a ordem dos ı́ndices. A matriz T =  1 t11  t21 t31 2 t12 t22 t32 3  1 t13 t23  2 3 t33 é chamada matriz de transição. A distribuição da população inicial entre os três estados pode ser descrita pela seguinte matriz:   p1 está no estado 1 está no estado 2 P0 =  p2  p3 está no estado 3 A matriz P0 caracteriza a distribuição inicial da população entre os três estados e é chamada vetor de estado. Após uma unidade de tempo a população estará dividida entre os três estados da seguinte forma   t11 p1 + t12 p2 + t13 p3 estará no estado 1 estará no estado 2 P1 =  t21 p1 + t22 p2 + t23 p3  t31 p1 + t32 p2 + t33 p3 estará no estado 3 Lembre-se que tij é a probabilidade de mudança do estado j para o estado i. Assim, o vetor de estado após uma unidade de tempo é dada pelo produto de matrizes: P1 = TP0 . Julho 2010 Reginaldo J. Santos 16 Matrizes e Sistemas Lineares Exemplo 1.9. Vamos considerar a matriz de transição  T  =  1 2 1 2 1 2 1 4 1 2 1 4 0 3  0 1 1  2  2 3 1 (1.5) 2 e o vetor de estados inicial  P0 =  1 3 1 3 1 3  está no estado 1 está no estado 2 está no estado 3  (1.6) que representa uma população dividida de forma que 1/3 da população está em cada estado. Após uma unidade de tempo a matriz de estado será dada por  1   1   1 1 0 2 4 3 4  1 1  1  =  1  P1 = TP0 =  12     2 2 3 2  0 1 4 1 2 1 3 1 4 Como estamos assumindo que em cada unidade de tempo a matriz de transição é a mesma, então após k unidades de tempo a população estará dividida entre os três estados segundo a matriz de estado Pk = TPk−1 = T 2 Pk−2 = · · · = T k P0 Assim, a matriz T k dá a transição entre k unidades de tempo. Veremos na Seção 6.1 na página 380 como calcular rapidamente potências k de matrizes e assim como determinar a distribuição da população após k unidades de tempo para k um inteiro positivo qualquer. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 1.1 Matrizes 17 Exercı́cios Numéricos (respostas na página 482) 1.1.1. Considere as seguintes matrizes   2 0 , B A= 6 7  −6 D= 1 −6  = 4 1 0 0 2 4 −8  0 4 , 6   −6 9 −7 7 −3 −2   6 9 −9 E =  −1 0 −4  −6 0 −1 ,  C= Se for possı́vel calcule: (a) AB − BA, (b) 2C − D, (c) (2D t − 3Et )t , (d) D2 − DE. 1.1.2. Conhecendo-se somente os produtos AB e AC, como podemos calcular A( B + C ), Bt At , C t At e ( ABA)C? 1.1.3. Considere as seguintes matrizes  A=  −2 0 −1  1 E1 =  0 0 C=  2 −1 0  , B= 2 0 3    1 −1 d1 0 0 1 1  , D =  0 d2 0  0 1 0 0 d3      0 0  , E2 =  1  , E3 =  0  0 1 −3 2 1 1 2 −1   Verifique que: Julho 2010 Reginaldo J. Santos 18 Matrizes e Sistemas Lineares (a) AB é diferente de BA. (b) AEj é a j-ésima coluna de A, para j = 1, 2, 3 e Eit B é a i-ésima linha de B, para i = 1, 2, 3 (o caso geral está no Exercı́cio 1.1.16 na página 23).       −2 1 −1 (c) CD = [ d1 C1 d2 C2 d3 C3 ], em que C1 =  0 , C2 =  1  e C3 =  1 , são as colunas de C −1 0 1 (o caso geral está no Exercı́cio 1.1.17 (a) na página 24).   d1 C1       −1 0 1 são as (d) DC =  d2 C2 , em que C1 = −2 1 −1 , C2 = 0 1 1 e C3 = d3 C3 linhas de C (o caso geral está no Exercı́cio 1.1.17 (b) na página 24).     2 −1 (e) Escrevendo B em termos das suas colunas, B = [ B1 B2 ], em que B1 =  2  e B2 =  0 , o 0 3 produto AB pode ser escrito como AB = A [ B1 B2 ] = [ AB1 AB2 ] (o caso geral está no Exercı́cio 1.1.18 (a) na página 25).     (f) escrevendo A em termos das suas  linhas,  A1 = −3 2 1 e A2 = 1 2 −1 , o produto A1 A1 B AB pode ser escrito como AB = B= (o caso geral está no Exercı́cio 1.1.18 (b) na A2 A2 B página 25). 1.1.4. Sejam  A= 1 0 −3 0 4 −2   e  x X =  y . z Verifique que xA1 + yA2 + zA3 = AX, em que A j é a j-ésima coluna de A, para j = 1, 2, 3 (o caso geral está no Exercı́cio 1.1.19 na página 25). Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 1.1 Matrizes 19 1.1.5. Encontre um valor de x tal que ABt = 0, em que   A = x 4 −2 " 1.1.6. Mostre que as matrizes A = 1 y 1 y 1 B= e  2 −3 5  . # , em que y é uma número real não nulo, verificam a equação X 2 = 2X.  1.1.7. Mostre que se A e B são matrizes que comutam com a matriz M = 1.1.8. 0 −1 1 0  , então AB = BA. (a) Determine todas as matrizes A, 2 × 2, diagonais (os elementos que estão fora da diagonal são iguais a zero) que comutam com toda matriz B, 2 × 2, ou seja, tais que AB = BA, para toda matriz B, 2 × 2. (b) Determine todas as matrizes A, 2 × 2, que comutam com toda matriz B, 2 × 2, ou seja, tais que AB = BA, para toda matriz B, 2 × 2. 1.1.9. Verifique que A3 = 0̄, para  0 A= 0 0 1 0 0  0 1 . 0 O caso geral está no Exercı́cio 1.1.29 na página 27. Exercı́cios usando o M ATLABr Uma vez inicializado o M ATLABr , aparecerá na janela de comandos um prompt >> ou EDU>>. O prompt significa que o M ATLABr está esperando um comando. Todo comando deve ser finalizado teclando-se Enter. Comandos que foram dados anteriormente podem ser obtidos novamente usando as teclas ↑ e ↓. Enquanto se estiver escrevendo um comando, este pode ser corrigido usando as teclas ←, →, Delete e Backspace. O M ATLABr faz diferença entre letras maiúsculas e minúsculas. Julho 2010 Reginaldo J. Santos 20 Matrizes e Sistemas Lineares No M ATLABr , pode-se obter ajuda sobre qualquer comando ou função. O comando >> help (sem o prompt >>) mostra uma listagem de todos os pacotes disponı́veis. Ajuda sobre um pacote especı́fico ou sobre um comando ou função especı́fica pode ser obtida com o comando >> help nome, (sem a vı́rgula e sem o prompt >>) em que nome pode ser o nome de um pacote ou o nome de um comando ou função. Além dos comandos e funções pré-definidas, escrevemos um pacote chamado gaal com funções especı́ficas para a aprendizagem de Geometria Analı́tica e Álgebra Linear. Este pacote pode ser obtido gratuitamente através da internet no endereço http://www.mat.ufmg.br/~regi, assim como um texto com uma introdução ao M ATLABr e instruções de como instalar o pacote gaal. Depois deste pacote ser devidamente instalado, o comando help gaal no prompt do M ATLABr dá informações sobre este pacote. Mais informações sobre as capacidades do M ATLABr podem ser obtidas em [4, 27]. Vamos descrever aqui alguns comandos que podem ser usados para a manipulação de matrizes. Outros comandos serão introduzidos a medida que forem necessários. >> syms x y z diz ao M ATLABr que as variáveis x y e z são simbólicas. >> A=[a11,a12,...,a1n;a21,a22,...; ...,amn] cria uma matriz, m por n, usando os elementos a11, a12, ..., amn ea armazena numa variável de nome A. Por exemplo, >> A=[1,2,3;4,5,6] cria a matriz 1 2 3 A= ; 4 5 6 >> I=eye(n) cria a matriz identidade n por n e a armazena numa variável I; >> O=zeros(n) ou >> O=zeros(m,n) cria a matriz nula n por n ou m por n, respectivamente, e a armazena numa variável O; >> A+B é a soma de A e B, >> A*B é o produto de A por B, >> A.’ é a transposta de A, Um Curso de Geometria Analı́tica e Álgebra Linear >> A-B é a diferença A menos B, >> num*A é o produto do escalar num por A, >> A^k é a potência A elevado a k. Julho 2010 1.1 Matrizes 21 >> A(:,j) é a coluna j da matriz A, >> A(i,:) é a linha i da matriz A. >> diag([d1,...,dn]) cria uma matriz diagonal, cujos elementos da diagonal são iguais aos elementos da matriz [d1,...,dn], ou seja, são d1,...,dn. >> A=sym(A) converte a matriz A numa matriz em que os elementos são armazenados no formato simbólico. A função numeric faz o processo inverso. >> solve(expr) determina a solução da equação >> solve(x^2-4) determina as soluções da equação x2 − 4 = 0; expr=0. Por exemplo, Comando do pacote GAAL: >> A=randi(n) ou >> A=randi(m,n) cria uma matriz n por n ou m por n, respectivamente, com elementos inteiros aleatórios entre −5 e 5. 1.1.10. Use o M ATLABr para calcular alguns membros da sequência A, A2 , . . . , Ak , . . ., para   1   1 1 21 2 3 ; (b) A = . (a) A = 0 13 0 − 15 A sequência parece estar convergindo para alguma matriz? Se estiver, para qual? 1.1.11. Calcule as potências das matrizes dadas a seguir e encontre experimentalmente (por tentativa!) o menor inteiro k > 1 tal que (use o comando >> A=sym(A) depois de armazenar a matriz na variável A): (a) Ak = I3 , em que (b) Ak = I4 , em que  0 A =  1 0 0 0 1  1 0 ; 0  1 0 0 0 0 0 0 1 0  −1 A =   0 0 Julho 2010  0 0  ; 1  0 Reginaldo J. Santos 22 Matrizes e Sistemas Lineares (c) Ak = 0̄, em que  0  0 A =   0 0 1 0 0 0 0 1 0 0  0 0  . 1  0 1.1.12. Vamos fazer um experimento no M ATLABr para tentar ter uma ideia do quão comum é encontrar matrizes cujo produto comuta. No prompt do M ATLABr digite a seguinte linha: >> c=0; for n=1:1000,A=randi(3);B=randi(3);if(A*B==B*A),c=c+1;end,end,c (não esqueça das vı́rgulas e pontos e vı́rgulas!). O que esta linha está mandando o M ATLABr fazer é o seguinte: • Criar um contador c e atribuir a ele o valor zero. • Atribuir às variáveis A e B, 1000 matrizes 3 × 3 com entradas inteiras e aleatórias entre −5 e 5. • Se AB=BA, ou seja, A e B comutarem, então o contador c é acrescido de 1. • No final o valor existente na variável c é escrito. Qual a conclusão que você tira do valor obtido na variável c? 1.1.13. Faça um experimento semelhante ao anterior, mas para o caso em que cada uma das matrizes é diagonal, isto é, os elementos que estão fora da diagonal são iguais a zero. Use a seta para cima ↑ para obter novamente a linha digitada e edite a linha no prompt do M ATLABr de forma a obter algo semelhante à linha: >> c=0; for n=1:1000,A=diag(randi(1,3));B=diag(randi(1,3));if( .... Qual a conclusão que você tira do valor obtido na variável c? 1.1.14. Faça um experimento semelhante ao anterior, mas para o caso em que uma das matrizes é diagonal. Use a seta para cima ↑ para obter novamente a linha digitada e edite a linha no prompt do M ATLABr de forma a obter a seguinte linha: Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 1.1 Matrizes 23 >> c=0; for n=1:1000,A=diag(randi(1,3));B=randi(3);if(A*B==B*A),c=c+1;A,B,end,end,c Aqui são impressas as matrizes A e B quando elas comutarem. Qual a conclusão que você tira deste experimento? Qual a probabilidade de um tal par de matrizes comutarem? 1.1.15. Use o M ATLABr para resolver os Exercı́cios Numéricos. Exercı́cios Teóricos     1.1.16. Sejam E1 =    1 0 0 .. .          , E2 =      0 0 1 0 .. .   0 0 .. .       ,. . . , En =     0  1 0      matrizes n × 1.   (a) Mostre que se    A=  a11 a21 .. . a12 a22 ... ... am1 am2 ... ... a1n a2n .. .      amn é uma matriz m × n, então AEj é igual à coluna j da matriz A. (b) Mostre que se    B=  b11 b21 .. . b12 b22 ... ... bn1 bn2 ... ... b1m b2m .. .    ,  bnm é uma matriz n × m então Eit B é igual à linha i da matriz B. Julho 2010 Reginaldo J. Santos 24 Matrizes e Sistemas Lineares 1.1.17. Seja    D=  λ1 0 .. . 0 λ2 ... ... .. . 0 0 .. . 0 ... 0 λn      uma matriz diagonal n × n, isto é, os elementos que estão fora da diagonal são iguais a zero. Seja   a11 a12 . . . a1n  a21 a22 . . . a2n    A= . ..  .  .. .  ... an1 an2 ... ann (a) Mostre que o produto AD é obtido da matriz A multiplicando-se cada coluna j por λ j , ou seja, se   a1j   A = [ A1 A2 . . . An ], em que A j =  ...  é a coluna j de A, então anj AD = [ λ1 A1 λ2 A2 . . . λn An ]. (b) Mostre  que o produto DA é obtido da matriz A multiplicando-se cada linha i por λi , ou seja, se A1  A2    A =  . , em que Ai = [ ai1 . . . ain ] é a linha i de A, então  ..  An    DA =   λ1 A1 λ2 A2 .. .    .  λn An Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 1.1 Matrizes 25 1.1.18. Sejam A e B matrizes m × p e p × n, respectivamente.   b1j   (a) Mostre que a j-ésima coluna do produto AB é igual ao produto ABj , em que Bj =  ...  é a b pj j-ésima coluna de B, ou seja, se B = [ B1 . . . Bn ], então AB = A[ B1 . . . Bn ] = [ AB1 . . . ABn ]; (b) Mostre que a i-ésima linha do produto AB é igual ao produto Ai B, em que Ai = [ ai1 . . . aip ] é a   A1  A2    i-ésima linha de A, ou seja, se A =  . , então  ..  Am    AB =   A1 A2 .. .       B =    Am A1 B A2 B .. .    .  Am B  1.1.19. Seja A uma matriz m × n e X =  x1  ..   .  xn uma matriz n × 1. Prove que n AX = ∑ xj Aj, em que A j é a j-ésima coluna de A. (Sugestão: Desenvolva o lado direito e che- j =1 gue ao lado esquerdo.) 1.1.20. (a) Mostre que se A é uma matriz m × n tal que AX = 0̄, para toda matriz X, n × 1, então A = 0̄. (Sugestão: use o Exercı́cio 16 na página 23.) Julho 2010 Reginaldo J. Santos 26 Matrizes e Sistemas Lineares (b) Sejam B e C matrizes m × n, tais BX = CX, para todo X, n × 1. Mostre que B = C. (Sugestão: use o item anterior.) 1.1.21. Mostre que a matriz identidade In é a única matriz tal que A In = In A = A para qualquer matriz A, n × n. (Sugestão: Seja Jn uma matriz tal que A Jn = Jn A = A. Mostre que Jn = In .) 1.1.22. Se AB = BA e p é um inteiro positivo, mostre que ( AB) p = A p B p . 1.1.23. Sejam A, B e C matrizes n × n. (a) ( A + B)2 = A2 + 2AB + B2 ? E se AB = BA? Justifique. (b) ( AB)C = C ( AB)? E se AC = CA e BC = CB? Justifique. (Sugestão: Veja o Exemplo 1.8 na página 14.) 1.1.24. (a) Se A e B são duas matrizes tais que AB = 0̄, então A = 0̄ ou B = 0̄? Justifique. (b) Se AB = 0̄, então BA = 0̄? Justifique. (c) Se A é uma matriz tal que A2 = 0̄, então A = 0̄? Justifique. 1.1.25. Dizemos que uma matriz A, n × n, é simétrica se At = A e é anti-simétrica se At = − A. (a) Mostre que se A é simétrica, então aij = a ji , para i, j = 1, . . . n e que se A é anti-simétrica, então aij = − a ji , para i, j = 1, . . . n. Portanto, os elementos da diagonal principal de uma matriz antisimétrica são iguais a zero. (b) Mostre que se A e B são simétricas, então A + B e αA são simétricas, para todo escalar α. (c) Mostre que se A e B são simétricas, então AB é simétrica se, e somente se, AB = BA. (d) Mostre que se A e B são anti-simétricas, então A + B e αA são anti-simétricas, para todo escalar α. (e) Mostre que para toda matriz A, n × n, A + At é simétrica e A − At é anti-simétrica. (f) Mostre que toda matriz quadrada A pode ser escrita como a soma de uma matriz simétrica e uma anti-simétrica. (Sugestão: Observe o resultado da soma de A + At com A − At .) Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 1.1 Matrizes 27 1.1.26. Para matrizes quadradas A = ( aij )n×n definimos o traço de A como sendo a soma dos elementos da n diagonal (principal) de A, ou seja, tr( A) = ∑ aii . i =1 (a) Mostre que tr( A + B) = tr( A) + tr( B). (b) Mostre que tr(αA) = αtr( A). (c) Mostre que tr( At ) = tr( A). (d) Mostre que tr( AB) = tr( BA). (Sugestão: Prove inicialmente para matrizes 2 × 2.) 1.1.27. Seja A uma matriz n × n. Mostre que se AAt = 0̄, então A = 0̄. (Sugestão: use o traço.) E se a matriz A for m × n, com m 6= n? 1.1.28. Já vimos que o produto de matrizes não é comutativo. Entretanto, certos conjuntos de matrizes são comutativos. Mostre que: (a) Se D1 e D2 são matrizes diagonais n × n, então D1 D2 = D2 D1 . (b) Se A é uma matriz n × n e B = a0 In + a1 A + a2 A2 + . . . + ak Ak , em que a0 , . . . , ak são escalares, então AB = BA. 1.1.29. Uma matriz A é chamada nilpotente se Ak = 0̄, para algum inteiro positivo k. Verifique que a matriz   0 1 0 ··· 0  0 0 1 ··· 0      A =  ... ... . . . . . . ...  ,    0 0 0 ··· 1  0 0 0 · · · 0 n×n é nilpotente. Julho 2010 Reginaldo J. Santos 28 Matrizes e Sistemas Lineares Apêndice I: Notação de Somatório São válidas algumas propriedades para a notação de somatório: (a) O ı́ndice do somatório é uma variável muda que pode ser substituı́da por qualquer letra: n n i =1 j =1 ∑ fi = ∑ f j . (b) O somatório de uma soma pode ser escrito como uma soma de dois somatórios: n n n i =1 i =1 i =1 ∑ ( f i + gi ) = ∑ f i + ∑ gi . Pois, n ∑ ( f i + g i ) = ( f 1 + g1 ) + . . . + ( f n + g n ) = i =1 = ( f 1 + . . . + f n ) + ( g1 + . . . + g n ) = n n i =1 i =1 ∑ f i + ∑ gi . Aqui foram aplicadas as propriedades associativa e comutativa da soma de números. (c) Se no termo geral do somatório aparece um produto, em que um fator não depende do ı́ndice do somatório, então este fator pode “sair” do somatório: n n i =1 i =1 ∑ f i gk = gk ∑ f i . Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 1.1 Matrizes 29 Pois, n n ∑ f i gk = f 1 gk + . . . + f n gk = gk ( f 1 + . . . + f n ) = gk ∑ fi . i =1 i =1 Aqui foram aplicadas as propriedades distributiva e comutativa do produto em relação a soma de números. (d) Num somatório duplo, a ordem dos somatórios pode ser trocada: n m ∑∑ i =1 j =1 m f ij = n ∑ ∑ fij . j =1 i =1 Pois, n m n ∑ ∑ fij = ∑ ( fi1 + . . . + fim ) = i =1 j =1 i =1 = ( f 11 + . . . + f 1m ) + . . . + ( f n1 + . . . + f nm ) = = ( f 11 + . . . + f n1 ) + . . . + ( f 1m + . . . + f nm ) = m = m n ∑ ( f1j + . . . + f nj ) = ∑ ∑ fij . j =1 j =1 i =1 Aqui foram aplicadas as propriedades comutativa e associativa da soma de números. Julho 2010 Reginaldo J. Santos 30 Matrizes e Sistemas Lineares 1.2 Sistemas de Equações Lineares Muitos problemas em várias áreas da Ciência recaem na solução de sistemas lineares. Vamos ver como a álgebra matricial pode simplificar o estudo dos sistemas lineares. Uma equação linear em n variáveis x1 , x2 , . . . , xn é uma equação da forma a1 x1 + a2 x2 + . . . + a n x n = b , em que a1 , a2 , . . . , an e b são constantes reais; Um sistema de equações lineares ou simplesmente sistema linear é um conjunto de equações lineares, ou seja, é um conjunto de equações da forma  ... + a1n xn = b1   a11 x1 + a12 x2 +   a21 x1 + a22 x2 + ... + a2n xn = b2 .. .. .  . . = ..    am1 x1 + am2 x2 + ... + amn xn = bm em que aij e bk são constantes reais, para i, k = 1, . . . , m e j = 1, . . . , n. Usando o produto de matrizes que definimos na seção anterior, o sistema linear acima pode ser escrito como uma equação matricial A X = B, em que    A=  a11 a21 .. . a12 a22 ... ... am1 am2 ... ... Um Curso de Geometria Analı́tica e Álgebra Linear a1n a2n .. . amn    ,     X=  x1 x2 .. . xn       e   B=  b1 b2 .. .    .  bm Julho 2010 1.2 Sistemas de Equações Lineares 31    Uma solução de um sistema linear é uma matriz S =   s1 s2 .. .     tal que as equações  sn do sistema são satisfeitas quando substituı́mos x1 = s1 , x2 = s2 , . . . , xn = sn . O conjunto de todas as soluções do sistema é chamado conjunto solução ou solução geral do sistema. A matriz A é chamada matriz do sistema linear. Exemplo 1.10. O sistema linear de duas equações e duas incógnitas  x 2x 1 2 2 1 + 2y = 1 + y = 0 pode ser escrito como   x y   = 1 0  . A solução (geral) do sistema acima é x = −1/3 e y = 2/3 (verifique!) ou  X= − 31 2 3  . Uma forma de resolver um sistema linear é substituir o sistema inicial por outro que tenha o mesmo conjunto solução do primeiro, mas que seja mais fácil de resolver. O outro sistema é obtido depois de aplicar sucessivamente uma série de operações, que não alteram a solução do sistema, sobre as equações. As operações que são usadas são: • Trocar a posição de duas equações do sistema; Julho 2010 Reginaldo J. Santos 32 Matrizes e Sistemas Lineares • Multiplicar uma equação por um escalar diferente de zero; • Somar a uma equação outra equação multiplicada por um escalar. Estas operações são chamadas de operações elementares. Quando aplicamos operações elementares sobre as equações de um sistema linear somente os coeficientes do sistema são alterados, assim podemos aplicar as operações sobre a matriz de coeficientes do sistema, que chamamos de matriz aumentada, ou seja, a matriz   a11 a12 ... a1n b1  a21 a22 ... a2n b2    [ A | B] =  . .. ..  .  .. ... . .  am1 Um Curso de Geometria Analı́tica e Álgebra Linear am2 ... amn bm Julho 2010 1.2 Sistemas de Equações Lineares 33 Definição 1.5. Uma operação elementar sobre as linhas de uma matriz é uma das seguintes operações: (a) Trocar a posição de duas linhas da matriz; (b) Multiplicar uma linha da matriz por um escalar diferente de zero; (c) Somar a uma linha da matriz um múltiplo escalar de outra linha. O próximo teorema garante que ao aplicarmos operações elementares às equações de um sistema o conjunto solução não é alterado. Teorema 1.2. Se dois sistemas lineares AX = B e CX = D, são tais que a matriz aumentada [C | D] é obtida de [ A | B] aplicando-se uma operação elementar, então os dois sistemas possuem as mesmas soluções. Demonstração. A demonstração deste teorema segue-se de duas observações: (a) Se X é solução de um sistema, então X também é solução do sistema obtido aplicando-se uma operação elementar sobre suas equações (verifique!). Julho 2010 Reginaldo J. Santos 34 Matrizes e Sistemas Lineares (b) Se o sistema CX = D, é obtido de AX = B aplicando-se uma operação elementar às suas equações (ou equivalentemente às linhas da sua matriz aumentada), então o sistema AX = B também pode ser obtido de CX = D aplicando-se uma operação elementar às suas equações, pois cada operação elementar possui uma operação elementar inversa do mesmo tipo, que desfaz o que a anterior fez (verifique!). Pela observação (b), AX = B e CX = D podem ser obtidos um do outro aplicandose uma operação elementar sobre as suas equações. E pela observação (a), os dois possuem as mesmas soluções.  Dois sistemas que possuem o mesmo conjunto solução são chamados sistemas equivalentes. Portanto, segue-se do Teorema 1.2 que aplicando-se operações elementares às equações de um sistema linear obtemos sistemas equivalentes. 1.2.1 Método de Gauss-Jordan O método que vamos usar para resolver sistemas lineares consiste na aplicação de operações elementares às linhas da matriz aumentada do sistema até que obtenhamos uma matriz numa forma em que o sistema associado a esta matriz seja de fácil resolução. Vamos procurar obter uma matriz numa forma em que todas as linhas não nulas possuam como primeiro elemento não nulo (chamado pivô) o número 1 . Além disso, se uma coluna contém um pivô, então todos os seus outros elementos terão que ser iguais a zero. Vamos ver no exemplo seguinte como conseguimos isso. Neste exemplo veremos como a partir do faturamento e do gasto com insumos podemos determinar quanto foi produzido de cada produto manufaturado em uma indústria. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 1.2 Sistemas de Equações Lineares 35 Exemplo 1.11. Uma indústria produz três produtos, X, Y e Z, utilizando dois tipos de insumo, A e B. Para a manufatura de cada kg de X são utilizados 1 grama do insumo A e 2 gramas do insumo B; para cada kg de Y, 1 grama de insumo A e 1 grama de insumo B e, para cada kg de Z, 1 grama de A e 4 gramas de B. O preço de venda do kg de cada um dos produtos X, Y e Z é R$ 2,00, R$ 3,00 e R$ 5,00, respectivamente. Com a venda de toda a produção de X, Y e Z manufaturada com 1 kg de A e 2 kg de B, essa indústria arrecadou R$ 2500,00. Vamos determinar quantos kg de cada um dos produtos X, Y e Z foram vendidos. Como vimos no Exemplo 1.6 na página 8, usando matrizes o esquema de produção pode ser descrito da seguinte forma: X Y Z 1 1 1  2 1 4  = A X 2 3 5    x+y+z 1000 AX =  2x + y + 4z  =  2000  2500 2x + 3y + 5z gramas de A/kg gramas de B/kg preço/kg  Assim, precisamos resolver o sistema linear  y + z  x + 2x + y + 4z  2x + 3y + 5z   x =  y  z kg de X produzidos kg de Y produzidos kg de Z produzidos gramas de A usados gramas de B usados arrecadação = 1000 = 2000 = 2500 cuja matriz aumentada é  1  2 2 1 1 1 4 3 5  1000 2000  2500 1a. eliminação: Julho 2010 Reginaldo J. Santos 36 Matrizes e Sistemas Lineares Vamos procurar para pivô da 1a. linha um elemento não nulo da primeira coluna não nula (se for o caso, podemos usar a troca de linhas para “trazê-lo” para a primeira linha). Como o primeiro elemento da primeira coluna é igual à 1 ele será o primeiro pivô. Agora, precisamos “zerar” os outros elementos da 1a. coluna, que é a coluna do pivô, para isto, adicionamos à 2a. linha, −2 vezes a 1a. linha e adicionamos à 3a. linha, também, −2 vezes a 1a. linha.   1 1 1 1000 a a a −2×1 . linha + 2 . linha −→ 2 . linha   0 −1 2 0   −2×1a. linha + 3a. linha −→ 3a. linha 0 1 3 500 2a. eliminação: Olhamos para a sub-matriz obtida eliminando-se a 1a. linha. Escolhemos para pivô um elemento diferente de zero na 1a. coluna não nula desta sub-matriz. Vamos escolher o elemento de posição 2,2. Como temos que “fazer” o pivô igual à um, vamos multiplicar a 2a. linha por −1.   1 1 1 1000  0 1 −2 0  −1×2a. linha −→ 2a. linha 0 1 3 500 Agora, precisamos “zerar” os outros elementos da 2a. coluna, que é a coluna do pivô, para isto, somamos à 1a. linha, −1 vezes a 2a. e somamos à 3a. linha, também, −1 vezes a 2a. . −1×2a. −1×2a. linha + linha + 1a. 3a. linha −→ linha −→ 1a. 3a.  linha linha 1 0  0 1 0 0 3 −2 5  1000 0  500 3a. eliminação: Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 1.2 Sistemas de Equações Lineares 37 Olhamos para a sub-matriz obtida eliminando-se a 1a. e a 2a. linha. Escolhemos para pivô um elemento diferente de zero na 1a. coluna não nula desta sub-matriz. Temos de escolher o elemento de posição 3,3 e como temos de “fazer” o pivô igual à 1, vamos multiplicar a 3a. linha por 1/5.   1 0 3 1000 1 a. a.  0 1 −2 0  5 ×3 linha −→ 3 linha 0 0 1 100 Agora, precisamos “zerar” os outros elementos da 3a. coluna, que é a coluna do pivô, para isto, somamos à 1a. linha, −3 vezes a 3a. e somamos à 2a. linha, 2 vezes a 2a. . −3×3a. 2×3a. linha + linha + 1a. 2a. linha −→ linha −→ 1a. 2a.  linha linha 1 0 0  0 1 0 0 0 1  700 200  100 Portanto, o sistema dado é equivalente ao sistema  = 700  x y = 200  z = 100 que possui solução geral dada por     x 700 X =  y  =  200  . z 100 Portanto, foram vendidos 700 kg do produto X, 200 kg do produto Y e 100 kg do produto Z. Julho 2010 Reginaldo J. Santos 38 Matrizes e Sistemas Lineares A última matriz que obtivemos no exemplo anterior está na forma que chamamos de escalonada reduzida. Definição 1.6. Uma matriz A = ( aij )m×n está na forma escalonada reduzida quando satisfaz as seguintes condições: (a) Todas as linhas nulas (formadas inteiramente por zeros) ocorrem abaixo das linhas não nulas; (b) O pivô (1o. elemento não nulo de uma linha) de cada linha não nula é igual à 1; (c) O pivô de cada linha não nula ocorre à direita do pivô da linha anterior. (d) Se uma coluna contém um pivô, então todos os seus outros elementos são iguais a zero. Se uma matriz satisfaz as propriedades (a) e (c), mas não necessariamente (b) e (d), dizemos que ela está na forma escalonada. Exemplo 1.12. As matrizes  1  0 0 0 1 0  0 0  1  e 1  0 0 Um Curso de Geometria Analı́tica e Álgebra Linear 3 0 0 0 1 0  2 −3  0 Julho 2010 1.2 Sistemas de Equações Lineares 39 são escalonadas reduzidas, enquanto   1 1 1  0 −1 2  e 0 0 5  1  0 0 3 0 0  −1 5 −5 15  0 0 são escalonadas, mas não são escalonadas reduzidas. Este método de resolução de sistemas, que consiste em aplicar operações elementares às linhas da matriz aumentada até que a matriz do sistema esteja na forma escalonada reduzida, é conhecido como método de Gauss-Jordan. Exemplo 1.13. Considere o seguinte sistema   x +  3y y −2y + 13z = 9 + 5z = 2 − 10z = −8 A sua matriz aumentada é  1  0 0 3 1 −2 13 5 −10  9 2  −8 1a. eliminação: Como o pivô da 1a. linha é igual à 1 e os outros elementos da 1a. coluna são iguais a zero, não há nada o que fazer na 1a. eliminação.   9 1 3 13   5 2   0 1 0 −2 −10 −8 Julho 2010 Reginaldo J. Santos 40 Matrizes e Sistemas Lineares 2a. eliminação: Olhamos para submatriz obtida eliminando-se a 1a. linha. Escolhemos para pivô um elemento não nulo da 1a. coluna não nula da submatriz. Escolhemos o elemento de posição 2,2. Como ele é igual à 1, precisamos, agora, “zerar” os outros elementos da coluna do pivô. Para isto somamos à 1a. linha, −3 vezes a 2a. e somamos à 3a. linha, 2 vezes a 2a. . −3×2a. linha + 1a. linha −→ 1a. linha 2×2a. linha + 3a. linha −→ 3a. linha  1  0 0 Portanto, o sistema dado é equivalente ao sistema  − 2z =  x y + 5z =  0 = 0 1 0 −2 5 0  3 2  −4 3 2 −4 que não possui solução. Em geral, um sistema linear não tem solução se, e somente se, a última linha não nula da forma escalonada 0 ], com b0 6 = 0. reduzida da sua matriz aumentada for da forma [ 0 . . . 0 | bm m Exemplo 1.14. Considere o seguinte sistema   5x  x 3z − 9w = 6 + 15y − 10z + 40w = −45 + 3y − z + 5w = −7 A sua matriz aumentada é Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 1.2 Sistemas de Equações Lineares  0  5 1 41 0 15 3  6 −45  −7 −9 40 5 3 −10 −1 1a. eliminação: Como temos que “fazer” o pivô igual à um, escolhemos para pivô o elemento de posição 3,1. Precisamos “colocá-lo” na primeira linha, para isto, trocamos a 3a. linha com a 1a. .  1a. linha ←→ 4a. linha 1  5 0 3 15 0 −1 5 −10 40 3 −9  −7 −45  6 Agora, precisamos “zerar” os outros elementos da 1a. coluna, que é a coluna do pivô, para isto, adicionamos à 2a. linha, −5 vezes a 1a. . −5×1a. linha + 2a. linha −→ 2a. linha  1 3 −1   0 0 0 0 −5 3 5 15 −9 −7 −10 6    2a. eliminação: Olhamos para a sub-matriz obtida eliminando-se a 1a. linha. Escolhemos para pivô um elemento diferente de zero na 1a. coluna não nula desta sub-matriz. Escolhemos o elemento de posição 2,3. Como temos que fazer o pivô igual à 1, multiplicamos a 2a. linha por −1/5. Julho 2010 Reginaldo J. Santos 42 Matrizes e Sistemas Lineares  1  0 0 −(1/5)×2a. linha −→ 2a. linha 3 0 0 −1 5 1 −3 3 −9  −7 2  6 Agora, precisamos “zerar” os outros elementos da 2a. coluna, que é a coluna do pivô, para isto, adicionamos à 1a. linha a 2a. e à 3a. linha, −3 vezes a 2a. .   1 3 0 2 − 5 a a a 2 . linha + 1 . linha −→ 1 . linha  0 0 1 −3 2  −3×2a. linha + 3a. linha −→ 3a. linha 0 0 0 0 0 Esta matriz é escalonada reduzida. Portanto, o sistema dado é equivalente ao sistema seguinte  x + 3y z + 2w = −5 − 3w = 2. A matriz deste sistema possui duas colunas sem pivôs. As variáveis que não estão associadas a pivôs podem ser consideradas variáveis livres, isto é, podem assumir valores arbitrários. Neste exemplo as variáveis y e w não estão associadas a pivôs e podem ser consideradas variáveis livres. Sejam w = α e y = β. As variáveis associadas aos pivôs terão os seus valores dependentes das variáveis livres, z = 2 + 3α, x = −5 − 2α − 3β. Assim, a solução geral do sistema é    x −5 − 2α − 3β  y   β   X=  z = 2 + 3α w α     Um Curso de Geometria Analı́tica e Álgebra Linear para todos os valores de α e β reais. Julho 2010 1.2 Sistemas de Equações Lineares 43 Em geral, se o sistema linear tiver solução e a forma escalonada reduzida da matriz aumentada possuir colunas sem pivôs, as variáveis que não estão associadas a pivôs podem ser consideradas variáveis livres, isto é, podem assumir valores arbitrários. As variáveis associadas aos pivôs terão os seus valores dependentes das variáveis livres. Lembramos que o sistema linear não tem solução se a última linha não nula da forma 0 ], escalonada reduzida da matriz aumentada do sistema for da forma [ 0 . . . 0 | bm 0 com bm 6= 0, como no Exemplo 1.13 na página 39. Observação. Para se encontrar a solução de um sistema linear não é necessário transformar a matriz aumentada do sistema na sua forma escalonada reduzida, mas se a matriz está nesta forma, o sistema associado é o mais simples possı́vel. Um outro método de resolver sistemas lineares consiste em, através da aplicação de operações elementares à matriz aumentada do sistema, se chegar a uma matriz que é somente escalonada (isto é, uma matriz que satisfaz as condições (a) e (c), mas não necessariamente (b) e (d) da Definição 1.6). Este método é conhecido como método de Gauss. O próximo resultado mostra que um sistema linear que tenha mais de uma solução não pode ter um número finito de soluções. Julho 2010 Reginaldo J. Santos 44 Matrizes e Sistemas Lineares Proposição 1.3. Sejam A uma matriz m × n e B uma matriz m × 1. Se o sistema linear A X = B possui duas soluções distintas X0 6= X1 , então ele tem infinitas soluções. Demonstração. Seja Xλ = (1 − λ) X0 + λX1 , para λ ∈ R. Vamos mostrar que Xλ é solução do sistema A X = B, para qualquer λ ∈ R. Para isto vamos mostrar que A Xλ = B. Aplicando as propriedades (i), (j) das operações matriciais (Teorema 1.1 na página 9) obtemos A Xλ = A[(1 − λ) X0 + λX1 ] = A(1 − λ) X0 + AλX1 = (1 − λ) A X0 + λA X1 Como X0 e X1 são soluções de A X = B, então A X0 = B e A X1 = B, portanto A Xλ = (1 − λ) B + λB = [(1 − λ) + λ] B = B, pela propriedade (f) do Teorema 1.1. Assim, o sistema A X = B tem infinitas soluções, pois para todo valor de λ ∈ R, Xλ é solução e Xλ − Xλ0 = (λ − λ0 )( X1 − X0 ), ou seja, Xλ 6= Xλ0 , para λ 6= λ0 .  Observe que na demonstração, para λ = 0, então Xλ = X0 , para λ = 1, então Xλ = X1 , para λ = 1/2, então Xλ = 21 X0 + 12 X1 , para λ = 3, então Xλ = −2X0 + 3X1 e para λ = −2, então Xλ = 3X0 − 2X1 . No Exemplo 3.4 na página 154 temos uma interpretação geométrica desta demonstração. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 1.2 Sistemas de Equações Lineares 45 Para resolver sistemas lineares vimos aplicando operações elementares à matriz aumentada do sistema linear. Isto pode ser feito com quaisquer matrizes. 1.2.2 Matrizes Equivalentes por Linhas Definição 1.7. Uma matriz A = ( aij )m×n é equivalente por linhas a uma matriz B = (bij )m×n , se B pode ser obtida de A aplicando-se uma sequência de operações elementares sobre as suas linhas. Exemplo 1.15. Observando os Exemplos 1.11, 1.14 e 1.13, vemos que as matrizes  3 −10 −1  −9 40  , 5  1  0 0 3 1 −2 são equivalentes por linhas às matrizes    1 0 0 1 3 0  0 1 0 ,  0 0 1 0 0 1 0 0 0  2 −3  , 0  0 1 0 1  2 2 1 1 3  1 4 , 5  0  5 1 0 15 3 1  0 0  13 5  −10  −2 5 , 0 respectivamente. Matrizes estas que são escalonadas reduzidas. Julho 2010 Reginaldo J. Santos 46 Matrizes e Sistemas Lineares Cuidado: elas são equivalentes por linhas, não são iguais! A relação “ser equivalente por linhas” satisfaz as seguintes propriedades, cuja verificação deixamos como exercı́cio para o leitor: • Toda matriz é equivalente por linhas a ela mesma (reflexividade); • Se A é equivalente por linhas a B, então B é equivalente por linhas a A (simetria); • Se A é equivalente por linhas a B e B é equivalente por linhas a C, então A é equivalente por linhas a C (transitividade). Toda matriz é equivalente por linhas a uma matriz na forma escalonada reduzida e a demonstração, que omitiremos, pode ser feita da mesma maneira que fizemos no caso particular das matrizes aumentadas dos Exemplos 1.11, 1.14 e 1.13. No Teorema 5.15 na página 332 mostramos que essa matriz escalonada reduzida é a única matriz na forma escalonada reduzida equivalente a A. Teorema 1.4. Toda matriz A = ( aij )m×n é equivalente por linhas a uma única matriz escalonada reduzida R = (rij )m×n . O próximo resultado será usado para provar alguns resultados no capı́tulo de inversão de matrizes. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 1.2 Sistemas de Equações Lineares 47 Proposição 1.5. Seja R uma matriz n × n, na forma escalonada reduzida. Se R 6= In , então R tem uma linha nula. Demonstração. Observe que o pivô de uma linha i está sempre numa coluna j com j ≥ i. Portanto, ou a última linha de R é nula ou o pivô da linha n está na posição n, n. Mas, neste caso todas as linhas anteriores são não nulas e os pivôs de cada linha i está na coluna i, ou seja, R = In .  1.2.3 Sistemas Lineares Homogêneos Um sistema linear da forma  a11 x1     a21 x1 ..  .    am1 x1 + + a12 x2 a22 x2 + + + am2 x2 + ... ... + + a1n xn a2n xn .. . = 0 = 0 . = .. ... + amn xn = 0 (1.7) é chamado sistema homogêneo. Osistema  (1.7)  pode  ser escrito como A X = 0̄. Todo sistema homogêneo x1 0  x2   0      admite pelo menos a solução X =  .  =  .  chamada de solução trivial. Portanto, todo sistema  ..   ..  xn 0 homogêneo tem solução. Além disso ou tem somente a solução trivial ou tem infinitas soluções Julho 2010 Reginaldo J. Santos 48 Matrizes e Sistemas Lineares Observação. Para resolver um sistema linear homogêneo A X = 0̄, basta escalonarmos a matriz A do sistema, já que sob a ação de uma operação elementar a coluna de zeros não é alterada. Mas, é preciso ficar atento quando se escreve o sistema linear associado à matriz resultante das operações elementares, para se levar em consideração esta coluna de zeros que não vimos escrevendo. Teorema 1.6. Se A = ( aij )m×n , é tal que m < n, então o sistema homogêneo AX = 0̄ tem solução diferente da solução trivial, ou seja, todo sistema homogêneo com menos equações do que incógnitas tem infinitas soluções. Demonstração. Como o sistema tem menos equações do que incógnitas (m < n), o número de linhas não nulas r da forma escalonada reduzida da matriz aumentada do sistema também é tal que r < n. Assim, temos r pivôs e n − r variáveis (incógnitas) livres, que podem assumir todos os valores reais. Logo, o sistema admite solução não trivial e portanto infinitas soluções.  O conjunto solução de um sistema linear homogêneo satisfaz duas propriedades interessantes. Estas propriedades terão um papel decisivo no estudo de subespaços de Rn na Seção 5.2 na página 307. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 1.2 Sistemas de Equações Lineares 49 Proposição 1.7. Seja A = ( aij )m×n . (a) Se X e Y são soluções do sistema homogêneo, AX = 0̄, então X + Y também o é. (b) Se X é solução do sistema homogêneo, AX = 0̄, então αX também o é. Demonstração. (a) Se X e Y são soluções do sistema homogêneo AX = 0̄, então AX = 0̄ e AY = 0̄ e portanto X + Y também é solução, pois A( X + Y ) = AX + AY = 0̄ + 0̄ = 0̄; (b) Se X é solução do sistema homogêneo AX = 0̄, então αX também o é, pois A(αX ) = αAX = α0̄ = 0̄.  Estas propriedades não são válidas para sistemas lineares em geral. Por exemplo, considere o sistema linear A X = B, em que A = [1] e B = [1]. A solução deste sistema é X = [1]. Mas, X + X = 2 X = 2, não é solução do sistema. Exemplo 1.16. Vamos retomar a cadeia de Markov do Exemplo 1.9 na página 16. Vamos supor que uma população é dividida em três estados (por exemplo: ricos, classe média e pobres) e que em cada unidade de tempo a probabilidade de mudança de um estado para outro seja constante no tempo, só dependa dos estados. Julho 2010 Reginaldo J. Santos 50 Matrizes e Sistemas Lineares Seja tij a probabilidade de mudança do estado j para o estado i em uma unidade de tempo (geração). A matriz de transição é dada por T =  1 t11  t21 t31 2 t12 t22 t32 3  1 t13 t23  2 3 t33 1 2 1 2 1 2 1 4 1 2 1 4 3  0 1 1  2  2 3 1 Vamos considerar a matriz de transição  T  =  0 2 Vamos descobrir qual distribuição inicial da população entre os três estados permanece inalterada, geração após geração. Ou seja, vamos determinar um vetor de estado P tal que TP = P ou TP = I3 P ou ( T − I3 ) P = 0̄. Assim, precisamos resolver o sistema linear homogêneo  1 1   −2x + 4y 1 1 ( T − I3 ) X = 0̄ ⇔ 2x − 2y +   1 4y − = 0 1 2z 1 2z = 0 = 0 cuja matriz aumentada é  − 12   1 2 0 1 4 − 12 1 4 Um Curso de Geometria Analı́tica e Álgebra Linear 0 1 2 − 12 0   0  0 Julho 2010 1.2 Sistemas de Equações Lineares 51 1a. eliminação: −2×1a. linha −→ 2a. linha  1 − 12 0   1 2 − 12 0 1 4 1 2 − 12 1 − 12 0   0 − 14 1 2 − 12  0  0 −2 − 12  0 0  0  − 12 ×1a. linha + 2a. linha −→ 2a. linha 0 1 4 1  0 0 − 12 1  0 1 0 0   0  0 0  0 2a. eliminação:  −4×2a. linha −→ 2a. linha 1 a. a. a. 2 ×2 linha + 1 linha −→ 1 linha − 14 ×2a. linha + 3a. linha −→ 3a. linha 1  0 0 1 4  −1 0 −2 0  0 0 Portanto, o sistema dado é equivalente ao sistema seguinte  x − z = 0 y − 2z = 0 Seja z = α. Então y = 2α e x = α. Assim, a solução geral do sistema é     p1 1 X =  p2  = α  2  , para todo α ∈ R. p3 1 Julho 2010 Reginaldo J. Santos 52 Matrizes e Sistemas Lineares Tomando a solução tal que p1 + p2 + p3 = 1 obtemos que se a população inicial for distribuı́da de forma que p1 = 1/4 da população esteja no estado 1, p2 = 1/2 da população esteja no estado 2 e p3 = 1/4, esteja no estado 3, então esta distribuição permanecerá constante geração após geração. 1.2.4 Matrizes Elementares (opcional) Definição 1.8. Uma matriz elementar n × n é uma matriz obtida da matriz identidade In aplicando-se uma, e somente uma, operação elementar. Vamos denotar por Eij a matriz elementar obtida trocando-se a linha i com a linha j da matriz In , Ei (α) a matriz elementar obtida multiplicando-se a linha i da matriz In pelo escalar α 6= 0 e Ei,j (α) a matriz elementar obtida da matriz In , somando-se à linha j, α vezes a linha i.     1 0 · · · · · · 0 1 0 · · · · 0   .   ..    0 ·   0 ...   ·  1 ·   ·      · 0 ... 1 ·   · 1 ·   ←i    . . ..  . . · α ·  Ei,j =  · , Ei (α) =  .  ←i . . · ←j    ·  1 ... 0 ·  1 ·  ·    · 1 ·      .   .    . 0  .. ·  · . 0  0 · · · · 0 1 0 · · · · · · 0 1 Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 1.2 Sistemas de Equações Lineares 53 e  1       Ei,j (α) =       0 · · 0 .. . 1 .. . · · α · · · · ·      ←i  ·   ←j ·    0  1 · · .. . ... 1 .. · 0 0 · · . 0 Exemplo 1.17. As matrizes seguintes são as matrizes elementares 2 × 2:  E1,2 = E2,1 = 0 1 1 0   E1 (α) = ,  E1,2 (α) =    Sejam E1 =   1 0 .. . 0 Julho 2010        , E2 =    0 1 .. . 0 1 α  0 1 α 0 0 1   , E2 (α) =   e      ,. . . , En =    E2,1 (α) = 0 0 .. . 1 0 1 0 α 1 0 α  , com α 6= 0,  .     matrizes m × 1.  1 Reginaldo J. Santos 54 Matrizes e Sistemas Lineares As matrizes elementares podem ser escritas em termos das matrizes Ei como  E1t  ..   .   t   Ej  ←i    , =  ...     Et  ← j  i   .   ..  t Em  Ei,j  E1t  ..   .    t  Ei (α) =   αEi  ← i  .   ..  t Em   e E1t .. .     Eit  ..  Ei,j (α) =   t . t  E + αE i  j  .  ..      ←i    ← j    t Em Aplicar uma operação elementar em uma matriz, corresponde a multiplicar a matriz à esquerda por uma matriz elementar, como mostra o resultado a seguir. Teorema 1.8. Sejam E uma matriz elementar m × m e A uma matriz qualquer m × n. Então, EA é igual à matriz obtida aplicando-se na matriz A a mesma operação elementar que originou E. Demonstração. Como a i-ésima linha de um produto de matrizes BA é igual à Bi A, em que Bi é a i-ésima linha da matriz B (Exercı́cio 1.1.18 (b) na página 25) e Eit A = Ai , em que Ai é a linha i da matriz A (Exercı́cio 16 (b) na página 23), então: Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 1.2 Sistemas de Equações Lineares 55  t  E1 A E1t  ..   ..  .   .  t  t   Ej   Ej A i →    .    ..  A =  ...    j →  Et   Et A  i  i   .   .  ..   .. t t A Em Em  Ei,j A = Ei (α) A =  Ei,j (α) A =     ←i    ← j      t E1t E1 A  ..   ..  .   .    t  A =  αEt A i→  αE i  i    .   ..  ..   . t t A Em Em  E1t .. .     Eit i→  ..    t . t j →  E + αE i  j  .  .. t Em    A1  ..   .     Aj   ←i   =  ...     Ai  ← j    .   ..    Am   A1  ..   .     =   αAi  ← i  .   ..  Am     ←i    E1t A .. .         Eit A   ..    A=  .   t   E A + αEt A j i     .   .. t A Em      ←i    ← j     A1 .. .     Ai   .. =  .   A j + αAi   ..  .      ←i    ← j    Am  Julho 2010 Reginaldo J. Santos 56 Matrizes e Sistemas Lineares Assim, aplicar uma sequência de operações elementares em uma matriz, corresponde a multiplicar a matriz à esquerda por um produto de matrizes elementares. Exemplo 1.18. Quando usamos o método de Gauss-Jordan para resolver o sistema do Exemplo 1.11 na página 35, aplicamos uma sequência de operações elementares na matriz aumentada do sistema. Isto corresponde a multiplicar a matriz aumentada   1 1 1 1000 [ A | B ] =  2 1 4 2000  2 3 5 2500 à esquerda pelas matrizes elementares     1 0 0 1 0 0 E1,2 (−2) =  −2 1 0  , E1,3 (−2) =  0 1 0  , 0 0 1 −2 0 1      1 0 0 1 −1 0 1 0  , E2,3 (−1) =  E2 (−1) =  0 −1 0  , E2,1 (−1) =  0 0 0 1 0 0 1      1 0 0 1 0 −3 1 0  , E3,2 (2) =  0 E3 ( 15 ) =  0 1 0  , E3,1 (−3) =  0 1 0 0 1 0 0 0 15 1 0 0 0 1 0  0 0 1 0  −1 1  0 2 , 1 ou seja,  1 0 0 E3,2 (2) E3,1 (−3) E3 ( 15 ) E2,3 (−1) E2,1 (−1) E2 (−1) E1,3 (−2) E1,2 (−2) [ A | B ] =  0 1 0 0 0 1 Um Curso de Geometria Analı́tica e Álgebra Linear  700 200  . 100 Julho 2010 1.2 Sistemas de Equações Lineares 57 Exercı́cios Numéricos (respostas na página 488) 1.2.1. Quais das seguintes matrizes estão na forma escalonada reduzida:    1 0 0 0 3 A =  0 0 1 0 −4 , B= 0 0 0 1 2    1 0 0 0 3   0 0 1 0 0   D= C=   0 0 0 1 2 , 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0  0 0 −4 1 0 5 , 0 −1 2 0 0 0 1 2 −4  . 0 1 0  0 0 0 1.2.2. Em cada item suponha que a matriz aumentada de um sistema foi transformada usando operações elementares na matriz escalonada reduzida dada. Resolva o sistema correspondente.     1 0 0 −7 8 1 0 0 0 6 3 2 ; (a)  0 1 0 (c)  0 1 0 0 3 ; 0 0 1 1 −5 0 0 1 1 2     1 −6 0 0 3 −2 1 7 0 0 −8 −3  0  0 0 1 0 0 1 0 4 7  6 5  ; . (b)  (d)   0  0 0 0 1 0 0 1 5 8  3 9  0 0 0 0 0 0 0 0 0 0 0 0 1.2.3. Resolva, usando o método de Gauss-Jordan, os seguintes sistemas:  x2 + 2x3 = 8  x1 + − x1 − 2x2 + 3x3 = 1 ; (a)  3x1 − 7x2 + 4x3 = 10  0  2x1 + 2x2 + 2x3 = −2x1 + 5x2 + 2x3 = 1 ; (b)  8x1 + x2 + 4x3 = −1 Julho 2010 Reginaldo J. Santos 58 Matrizes e Sistemas Lineares (c)   3x1  6x1 − 2x2 + 6x2 + 6x2 + 3x3 − 3x3 + 3x3 = 1 = −2 . = 5 1.2.4. Os sistemas lineares seguintes possuem a mesma matriz A. Resolva-os usando o método de GaussJordan. Observe que os dois sistemas podem ser resolvidos ao mesmo tempo escalonando a matriz aumentada [ A | B1 | B2 ].   x3 = 1 x3 = 2  x1 − 2x2 +  x1 − 2x2 + 2x1 − 5x2 + x3 = −2 ; 2x1 − 5x2 + x3 = −1 . (b) (a)   3x1 − 7x2 + 2x3 = −1 3x1 − 7x2 + 2x3 = 2   1 0 5 1 . 1.2.5. Seja A =  1 1 0 1 −4 (a) Encontre a solução geral do sistema ( A + 4I3 ) X = 0̄; (b) Encontre a solução geral do sistema ( A − 2I3 ) X = 0̄. 1.2.6. Para cada sistema linear dado, encontre todos os valores de a para os quais o sistema não tem solução, tem solução única e tem infinitas soluções:  3z = 4  x + 2y − 3x − y + 5z = 2 (a) ;  4x + y + ( a2 − 14)z = a + 2  y + z = 2  x + 2x + 3y + 2z = 5 (b) .  2x + 3y + ( a2 − 1)z = a + 1 1.2.7. Uma indústria produz três produtos, X, Y e Z, utilizando dois tipos de insumo, A e B. Para a manufatura de cada kg de X são utilizados 2 gramas do insumo A e 1 grama do insumo B; para cada kg de Y, 1 grama de insumo A e 3 gramas de insumo B e, para cada kg de Z, 3 gramas de A e 5 gramas de B. O preço de venda do kg de cada um dos produtos X, Y e Z é R$ 3,00, R$ 2,00 e R$ 4,00, respectivamente. Com a venda Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 1.2 Sistemas de Equações Lineares 59 de toda a produção de X, Y e Z manufaturada com 1,9 kg de A e 2,4 kg de B, essa indústria arrecadou R$ 2900,00. Determine quantos kg de cada um dos produtos X, Y e Z foram vendidos. (Sugestão: veja o Exemplo 1.11 na página 35.) 1.2.8. Determine os coeficientes a, b, c e d da função polinomial p( x ) = ax3 + bx2 + cx + d, cujo gráfico passa pelos pontos P1 = (0, 10), P2 = (1, 7), P3 = (3, −11) e P4 = (4, −14). Julho 2010 Reginaldo J. Santos 60 Matrizes e Sistemas Lineares 30 y 20 10 0 x −10 −20 −30 −2 −1 0 Um Curso de Geometria Analı́tica e Álgebra Linear 1 2 3 4 5 Julho 2010 1.2 Sistemas de Equações Lineares 61 1.2.9. Determine coeficientes a, b e c da equação do cı́rculo, x2 + y2 + ax + by + c = 0, que passa pelos pontos P1 = (−2, 7), P2 = (−4, 5) e P3 = (4, −3). Julho 2010 Reginaldo J. Santos 62 Matrizes e Sistemas Lineares y 8 6 4 2 0 x −2 −4 −6 −4 −2 Um Curso de Geometria Analı́tica e Álgebra Linear 0 2 4 6 8 Julho 2010 1.2 Sistemas de Equações Lineares 63 1.2.10. Encontre condições sobre os bi ’s para que cada um dos sistemas seja consistente (isto é, tenha solução):   x1 − 2x2 + 5x3 = b1 x1 − 2x2 − x3 = b1   4x1 − 5x2 + 8x3 = b2 ; −4x1 + 5x2 + 2x3 = b2 . (a) (b)   −3x1 + 3x2 − 3x3 = b3 −4x1 + 7x2 + 4x3 = b3 1.2.11. (Relativo à sub-seção 1.2.4) Considere a matriz  0 A= 1 −2 1 3 −5 7 3 1  8 8 . −8 Encontre matrizes elementares E, F, G e H tais que R = EFGH A é uma matriz escalonada reduzida. (Sugestão: veja o Exemplo 1.18 na página 56.) 1.2.12. Resolva, usando o método de Gauss-Jordan, os seguintes sistemas:  x1 + 2x2 − 3x4 + x5 = 2    x1 + 2x2 + x3 − 3x4 + x5 + 2x6 = 3 ; (a) x1 + 2x2 − 3x4 + 2x5 + x6 = 4    3x1 + 6x2 + x3 − 9x4 + 4x5 + 3x6 = 9  x1 + 3x2 − 2x3 + 2x5 = 0    2x1 + 6x2 − 5x3 − 2x4 + 4x5 − 3x6 = −1 (b) ; 5x3 + 10x4 + 15x6 = 5    2x1 + 6x2 + 8x4 + 4x5 + 18x6 = 6   1 1 1 1  1  3 − 2 a  1.2.13. Considere a matriz A =   2 2 a − 2 − a − 2 3 a − 1 . Determine o conjunto solução do sistema 3 a+2 −3 2a+1 AX = B, em que B = [ 4 3 1 6 ]t , para todos os valores de a. 1.2.14. Resolva os sistemas lineares cujas matrizes aumentadas são: Julho 2010 Reginaldo J. Santos 64 Matrizes e Sistemas Lineares  1 2 3 1 8 (a)  1 3 0 1 7 ;  1 0 2 1 3  1 1 3 −3 0 3 ; (b)  0 2 1 −3 1 0 2 −1 −1   1  1 (c)   1 1 2 1 1 3 3 1 2 3  0 0  ; 0  0 Exercı́cios usando o M ATLABr Comandos do M ATLABr : >> A=[A1,...,An] cria uma matriz A formada pelas matrizes, definidas anteriormente, A1, ..., An colocadas uma ao lado da outra; >> expr=subs(expr,x,num) substitui na expressão expr a variável x por num. >> p=poly2sym([an,...,a0],x) armazena na variável p o polinômio an x n + . . . + a0 . >> clf limpa a figura ativa. Comandos do pacote GAAL: >> B=opel(alpha,i,A) ou >> oe(alpha,i,A)faz a operação elementar alpha×linha i ==> linha i da matriz A e armazena a matriz resultante em B. >> B=opel(alpha,i,j,A) ou >> oe(alpha,i,j,A) faz a operação elementar alpha×linha i + linha j ==> linha j da matriz A e armazena em B. >> B=opel(A,i,j) ou >> oe(A,i,j) faz a troca da linha i com a linha j da matriz A e armazena a matriz resultante em B. >> B=escalona(A) calcula passo a passo a forma escalonada reduzida da matriz A e armazena a matriz resultante na variável B. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 1.2 Sistemas de Equações Lineares 65 >> matvand(P,k) obtém a matriz de Vandermonde de ordem k, se P=[x1;...;xn] e a matriz de Vandermonde generalizada no caso em que P=[x1,y1;...;xn,yn]. >> po([x1,y1;x2,y2;...xk,yk]) desenha os pontos (x1,y1),...,(xk,yk). >> plotf1(f,[a,b]) desenha o gráfico da função dada pela expressão simbólica f no intervalo [a,b]. >> plotci(f,[a,b],[c,d]) desenha o gráfico da curva dada implicitamente pela expressão f(x,y)=0 na região do plano [a,b]x[c,d]. >> p=poly2sym2([a,b,c,d,e,f],x,y) armazena na variável p o polinômio em duas variáveis ax2 + bxy + cy2 + dx + ey + f . >> eixos desenha os eixos coordenados. 1.2.15. (a) Use o comando P=randi(4,2), para gerar 4 pontos com entradas inteiras e aleatórias entre −5 e 5. Os pontos estão armazenados nas linhas da matriz P. (b) Use o M ATLABr para tentar encontrar os coeficientes a, b, c e d da função polinomial p( x ) = ax3 + bx2 + cx + d cujo gráfico passa pelos pontos dados pelas linhas da matriz P. A matriz A=matvand(P(:,1),3) pode ser útil na solução deste problema, assim como a matriz B=P(:,2). Se não conseguiu, repita o passo anterior. Por que pode não ser possı́vel? (c) Desenhe os pontos e o gráfico do polinômio com os comandos clf, po(P), syms x, p=poly2sym(R(:,5),x), plotf1(p,[-5,5]), em que R é forma escalonada reduzida da matriz [A,B]. (d) Desenhe os eixos coordenados com o comando eixos. 1.2.16. (a) Use o comando P=randi(5,2), para gerar 5 pontos com entradas inteiras e aleatórias entre −5 e 5. Os pontos estão armazenados nas linhas da matriz P. (b) Use o M ATLABr para tentar encontrar os coeficientes a, b, c, d, e e f da cônica, curva de equação ax2 + bxy + cy2 + dx + ey + f = 0, cujo gráfico passa pelos pontos cujas coordenadas são dadas pelas linhas da matriz P. A matriz A=matvand(P,2) pode ser útil na solução deste problema. Se não conseguiu, repita o passo anterior. Por que pode não ser possı́vel? Julho 2010 Reginaldo J. Santos 66 Matrizes e Sistemas Lineares (c) Desenhe os pontos e a cônica com os comandos clf, po(P), syms x y, p=poly2sym2([-R(:,6);1],x,y), plotci(p,[-5,5],[-5,5]), em que R é a forma escalonada reduzida da matriz A. (d) Desenhe os eixos coordenados com o comando eixos. 1.2.17. Use o M ATLABr e resolva os Exercı́cios Numéricos a partir do Exercı́cio 1.2.3. Exercı́cios Teóricos 1.2.18. Mostre que toda operação elementar possui inversa, do mesmo tipo, ou seja, para cada operação elementar existe uma outra operação elementar do mesmo tipo que desfaz o que a operação anterior fez. 1.2.19. Prove que: (a) Toda matriz é equivalente por linhas a ela mesma (reflexividade); (b) Se A é equivalente por linhas a B, então B é equivalente por linhas a A (simetria); (c) Se A é equivalente por linhas a B e B é equivalente por linhas a C, então A é equivalente por linhas a C (transitividade). 1.2.20. (a) Sejam X1 e X2 soluções do sistema homogêneo A X = 0̄. Mostre que αX1 + βX2 é solução, para quaisquer escalares α e β. (Sugestão: veja o Exemplo 1.7.) (b) Sejam X1 e X2 soluções do sistema A X = B. Mostre que se αX1 + βX2 é solução, para quaisquer escalares α e β, então B = 0̄. (Sugestão: faça α = β = 0.) 1.2.21. Sejam A uma matriz m × n e B 6= 0̄ uma matriz m × 1. (a) Mostre que se X1 é uma solução do sistema AX = B e Y1 é uma solução do sistema homogêneo associado AX = 0̄, então X1 + Y1 é solução de AX = B. (b) Seja X0 solução particular do sistema AX = B. Mostre que toda solução X do sistema AX = B, pode ser escrita como X = X0 + Y, em que Y é uma solução do sistema homogêneo associado, AX = 0̄. Assim, a solução geral do sistema AX = B é a soma de uma solução particular de AX = B com a Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 1.2 Sistemas de Equações Lineares 67 solução geral do sistema homogêneo associado AX = 0̄. (Sugestão: Escreva X = X0 + ( X − X0 ) e mostre que X − X0 é solução do sistema homogêneo AX = 0̄.) Julho 2010 Reginaldo J. Santos 68 Matrizes e Sistemas Lineares Teste do Capı́tulo 1. Para o sistema linear dado, encontre todos os valores de a para os quais o sistema não tem solução, tem solução única e tem infinitas soluções:  z = 3  x + 2y + x + y − z = 2  x + y + ( a2 − 5) z = a 2. Se possı́vel, encontre os valores de x, y e z tais que:   1 2 3 −40 16  2 5 3   13 −5 1 0 8 5 −2   x 1 y = 0 z 0 0 1 0  0 0  1 sen θ cos θ  3. Sejam  D= 1 0 0 −1   . e P= cos θ − sen θ . Sabendo-se que A = Pt DP, calcule D2 , PPt e A2 . 4. Responda Verdadeiro ou Falso, justificando: (a) Se A2 = −2A4 , então ( In + A2 )( In − 2A2 ) = In ; (b) Se A = Pt DP, onde D é uma matriz diagonal, então At = A; Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 1.2 Sistemas de Equações Lineares 69 (c) Se D é uma matriz diagonal, então DA = AD, para toda matriz A, n × n; (d) Se B = AAt , então B = Bt . (e) Se B e A são tais que A = At e B = Bt , então C = AB, é tal que C t = C. Julho 2010 Reginaldo J. Santos 2 Inversão de Matrizes e Determinantes 2.1 Matriz Inversa Todo número real a, não nulo, possui um inverso (multiplicativo), ou seja, existe um número b, tal que a b = b a = 1. Este número é único e o denotamos por a−1 . Apesar da álgebra matricial ser semelhante à álgebra dos números reais, nem todas as matrizes A não nulas possuem inversa, ou seja, nem sempre existe uma matriz B tal que A B = B A = In . De inı́cio, para que os produtos AB e BA estejam definidos e sejam iguais é preciso que as matrizes A e B sejam quadradas. Portanto, somente as matrizes quadradas podem ter inversa, o que já diferencia do caso dos números reais, pois todo número não nulo tem inverso. Mesmo entre as matrizes quadradas, 70 2.1 A Inversa de uma Matriz 71 muitas não possuem inversa, apesar do conjunto das que não tem inversa ser bem menor do que o conjunto das que tem (Exercı́cio 2.2.9 na página 124). Definição 2.1. Uma matriz quadrada A = ( aij )n×n é invertı́vel ou não singular, se existe uma matriz B = (bij )n×n tal que A B = B A = In , (2.1) em que In é a matriz identidade. A matriz B é chamada de inversa de A. Se A não tem inversa, dizemos que A é não invertı́vel ou singular. Exemplo 2.1. Considere as matrizes  A= −2 1 0 3   e B= −1/2 1/6 0 1/3  . A matriz B é a inversa da matriz A, pois A B = B A = I2 . Teorema 2.1. Se uma matriz A = ( aij )n×n possui inversa, então a inversa é única. Julho 2010 Reginaldo J. Santos 72 Inversão de Matrizes e Determinantes Demonstração. Suponhamos que B e C sejam inversas de A. Então, AB = BA = In = AC = CA e assim, B = B In = B( AC ) = ( BA)C = In C = C .  Denotamos a inversa de A, quando ela existe, por A−1 . Devemos chamar atenção para o fato de que o ı́ndice superior −1, aqui, não significa uma potência, tão pouco uma divisão. Assim, como no caso da transposta, em que At significa a transposta de A, aqui, A−1 significa a inversa de A. 2.1.1 Teorema 2.2. Propriedades da Inversa (a) Se A é invertı́vel, então A−1 também o é e ( A −1 ) −1 = A ; (b) Se A = ( aij )n×n e B = (bij )n×n são matrizes invertı́veis, então AB é invertı́vel e ( AB)−1 = B−1 A−1 ; Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 2.1 A Inversa de uma Matriz 73 (c) Se A = ( aij )n×n é invertı́vel, então At também é invertı́vel e ( A t ) −1 = ( A −1 ) t . Demonstração. Se queremos mostrar que uma matriz é a inversa de uma outra, temos que mostrar que os produtos das duas matrizes são iguais à matriz identidade. (a) Uma matriz B é a inversa de A−1 se A−1 B = BA−1 = In . Mas, como A−1 é a inversa de A, então AA−1 = A−1 A = In . Como a inversa é única, então B = A é a inversa de A−1 , ou seja, ( A−1 )−1 = A. (b) Temos que mostrar que a inversa de AB é B−1 A−1 , ou seja, mostrar que os produtos ( AB)( B−1 A−1 ) e ( B−1 A−1 )( AB) são iguais à matriz identidade. Mas, pelas propriedades (h) e (i) do Teorema 1.1 na página 9: ( AB)( B−1 A−1 ) = A( BB−1 ) A−1 = AIn A−1 = AA−1 (B −1 A −1 )( AB) = B −1 (A −1 A) B = B −1 In B = B −1 B = In , = In . (c) Queremos mostrar que a inversa de At é ( A−1 )t . Pela propriedade (o) do Teorema 1.1 na página 9: At ( A−1 )t = ( A−1 A)t = Int (A Julho 2010 −1 t t ) A = ( AA −1 t ) = Int = In , = In . Reginaldo J. Santos 74 Inversão de Matrizes e Determinantes  O teorema seguinte, cuja demonstração será apresentada na Subseção 2.1.2, garante que basta verificarmos uma das duas igualdades em (2.1) para sabermos se uma matriz é a inversa de outra. Teorema 2.3. Sejam A e B matrizes n × n. (a) Se BA = In , então AB = In ; (b) Se AB = In , então BA = In ; Assim, para verificar que uma matriz A é invertı́vel, quando temos uma matriz B que é candidata a inversa de A, basta fazer um dos produtos AB ou BA e verificar se é igual à In . O próximo exemplo ilustra este fato. Exemplo 2.2. Seja A = ( aij )n×n uma matriz tal que A3 = 0̄ (A pode não ser a matriz nula!). Vamos mostrar que a inversa de In − A é In + A + A2 . Para provar isto, devemos multiplicar a matriz In − A, pela matriz que possivelmente seja a inversa dela, aqui I + A + A2 , e verificar se o produto das duas é igual à matriz identidade In . ( In − A)( In + A + A2 ) = In ( In + A + A2 ) − A( In + A + A2 ) = In + A + A2 − A − A2 − A3 = In . Aqui foram usadas as propriedades (i) e (j) do Teorema 1.1 na página 9. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 2.1 A Inversa de uma Matriz 2.1.2 75 Matrizes Elementares e Inversão (opcional) As matrizes elementares têm um papel importante no estudo da inversão de matrizes e da solução de sistemas lineares. Proposição 2.4. Toda matriz elementar é invertı́vel e sua inversa é também uma matriz elementar. Usando a notação introduzida na página 52, temos: −1 (a) Ei,j = Ej,i = Ei,j ; (b) Ei (α)−1 = Ei (1/α), para α 6= 0; (c) Ei,j (α)−1 = Ei,j (−α). Demonstração. Seja E uma matriz elementar. Esta matriz é obtida de In aplicandose uma operação elementar. Seja F a matriz elementar correspondente a operação que transforma E de volta em In . Agora, pelo Teorema 1.8 na página 54, temos que F E = E F = In . Portanto, F é a inversa de E.  Teorema 2.5. Seja A uma matriz n × n. As seguintes afirmações são equivalentes: (a) Existe uma matriz B, n × n, tal que BA = In . Julho 2010 Reginaldo J. Santos 76 Inversão de Matrizes e Determinantes (b) A matriz A é equivalente por linhas à matriz identidade In . (c) A matriz A é invertı́vel. Demonstração. (a)⇒(b) Se BA = In , então o sistema A X = 0̄ tem somente a solução trivial, pois X = In X = BAX = B 0̄ = 0̄. Isto implica que a matriz A é equivalente por linhas à matriz identidade In , pois caso contrário a forma escalonada reduzida de A teria uma linha nula (Proposição 1.5 na página 47). (b)⇒(c) A matriz A ser equivalente por linhas à In significa, pelo Teorema 1.8 na página 54, que existem matrizes elementares E1 , . . . , Ek , tais que Ek −1 −1 ( E1 . . . Ek ) Ek = In . . . E1 A = E1−1 . . . Ek−1 . . . E1 A A = E1−1 . . . Ek−1 . (2.2) (2.3) Aqui, usamos o fato de que as matrizes elementares são invertı́veis (Proposição 2.4). Portanto, A é invertı́vel como o produto de matrizes invertı́veis. (c)⇒(a) Claramente.  Se A é invertı́vel, então multiplicando-se ambos os membros de (2.2) à direita por A−1 obtemos Ek . . . E1 In = A−1 . Assim, a mesma sequência de operações elementares que transforma a matriz A na matriz identidade In transforma também In em A−1 . Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 2.1 A Inversa de uma Matriz 77 A demonstração do Teorema 2.3 na página 74, agora, é uma simples consequência do Teorema anterior. Demonstração do Teorema 2.3. (a) Vamos mostrar que se BA = In , então A é invertı́vel e B = A−1 . Se BA = In , então pelo Teorema 2.5, A é invertı́vel e B = BIn = BAA−1 = In A−1 = A−1 . Logo, AB = BA = In . (b) Se AB = In , então pelo item anterior B é invertı́vel e B−1 = A. Portanto, BA = AB = In .  Segue da demonstração, do Teorema 2.5 (equação (2.3)) o resultado seguinte. Teorema 2.6. Uma matriz A é invertı́vel se, e somente se, ela é um produto de matrizes elementares. Exemplo 2.3. Vamos escrever a matriz A do Exemplo 2.5 na página 82 como o produto de matrizes elementares. Quando encontramos a inversa da matriz A, aplicamos uma sequência de operações elementares em [ A | I3 ] até que encontramos a matriz [ I3 | A−1 ]. Como as operações são por linha, esta mesma sequência de Julho 2010 Reginaldo J. Santos 78 Inversão de Matrizes e Determinantes operaç transforma A em In . Isto corresponde a multiplicar a matriz  ões elementares  1 1 1 A =  2 1 4  à esquerda pelas matrizes elementares 2 3 5     1 0 0 1 0 0 E1,2 (−2) =  −2 1 0  , E1,3 (−2) =  0 1 0  , 0 0 1 −2 0 1       1 0 0 1 −1 0 1 0 0 1 0  , E2,3 (−1) =  0 1 0  E2 (−1) =  0 −1 0  , E2,1 (−1) =  0 0 0 1 0 0 1 0 −1 1       1 0 0 1 0 −3 1 0 0 0  , E3,2 (2) =  0 1 2  , E3 ( 15 ) =  0 1 0  , E3,1 (−3) =  0 1 1 0 0 1 0 0 1 0 0 5 ou seja, E3,2 (2) E3,1 (−3) E3 ( 15 ) E2,3 (−1) E2,1 (−1) E2 (−1) E1,3 (−2) E1,2 (−2) A = I3 . Multiplicando à esquerda pelas inversas das matrizes elementares correspondentes obtemos A = E1,2 (2) E1,3 (2) E2 (−1) E2,1 (1) E2,3 (1) E3 (5) E3,1 (3) E3,2 (−2). 2.1.3 Método para Inversão de Matrizes O exemplo seguinte mostra, para matrizes 2 × 2, não somente uma forma de descobrir se uma matriz A tem inversa mas também, como encontrar a inversa, no caso em que ela exista. Ou seja, escalonamos a matriz [ A | I2 ] e encontramos a sua forma escalonada reduzida [ R | S]. Se R = I2 , então a matriz A é invertı́vel e a inversa A−1 = S. Caso contrário, a matriz A não é invertı́vel. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 2.1 A Inversa de uma Matriz Exemplo 2.4. Seja A =  a c 79 b d   . Devemos procurar uma matriz B = x z y w  tal que AB = I2 , ou seja,  ax    cx    + bz + dz = = ay + bw = cy + dw = 1 0 0 1 Este sistema pode ser desacoplado em dois sistemas independentes que possuem a mesma matriz, que é a matriz A. Podemos resolvê-los simultaneamente. Para isto, basta escalonarmos a matriz aumentada   a b 1 0 = [ A | I2 ]. c d 0 1 Os dois sistemas têm solução única se, e somente se, a forma escalonada reduzida   1 0 s t da matriz [ A | I2 ] for da forma [ I2 | S ] = (verifique, observando o 0 1 u v que acontece se a forma escalonada reduzida da matriz A não for igual à I2 ). Neste caso, x = s, z = u e y = t, w = v, ou seja, a matriz A possuirá inversa,   s t −1 A =B=S= . u v Para os leitores da Subseção 2.1.2 o próximo teorema é uma simples consequência do Teorema 2.5 na página 75. Entretanto a demonstração que daremos a seguir fornece um método para encontrar a inversa de uma matriz, se ela existir. Julho 2010 Reginaldo J. Santos 80 Inversão de Matrizes e Determinantes Teorema 2.7. Uma matriz A, n × n, é invertı́vel se, e somente se, A é equivalente por linhas à matriz identidade In . Demonstração. Pelo Teorema 2.3 na página 74, para verificarmos se uma matriz A, n × n, é invertı́vel, basta verificarmos se existe uma matriz B, tal que A B = In . (2.4) Vamos denotar as colunas de B por X1 , X2 , . . . , Xn , ou seja, B = [ X1 . . . Xn ], em que       x11 x12 x1n  x21   x22   x2n        X1 =  .  , X2 =  .  , . . . , X n =  .   ..   ..   ..  xn1 xn2 xnn e as colunas da matriz identidade In , por E1 , E2 , . . . , En , ou seja, In = [ E1 . . . En ], em que       1 0 0  0   1   0        E1 =  .  , E2 =  .  , . . . , En =  .  .  ..   ..   ..  0 0 1 Assim, a equação (2.4) pode ser escrita como A [ X1 . . . Xn ] = [ AX1 . . . AXn ] = [ E1 . . . En ], pois a j-ésima coluna do produto AB é igual à A vezes a j-ésima coluna da matriz B (Exercı́cio 18 na página 25). Analisando coluna a coluna a equação anterior vemos que encontrar B é equivalente a resolver n sistemas lineares A X j = Ej para j = 1 . . . , n. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 2.1 A Inversa de uma Matriz 81 Cada um dos sistemas pode ser resolvido usando o método de Gauss-Jordan. Para isso, formarı́amos as matrizes aumentadas [ A | E1 ], [ A | E2 ], . . . , [ A | En ]. Entretanto, como as matrizes dos sistemas são todas iguais à A, podemos resolver todos os sistemas simultaneamente (como no Exercı́cio 1.2.4 na página 58) formando a matriz n × 2n [ A | E1 E2 . . . En ] = [ A | In ]. Transformando [ A | In ] na sua forma escalonada reduzida, que vamos denotar por [ R | S ], vamos chegar a duas situações possı́veis: ou a matriz R é a matriz identidade, ou não é. • Se R = In , então a forma escalonada reduzida da matriz [ A | In ] é da forma [ In | S ]. Se escrevemos a matriz S em termos das suas colunas S = [ S1 S2 . . . Sn ], então as soluções dos sistemas A X j = Ej são X j = S j e assim B = S é tal que A B = In e pelo Teorema 2.3 na página 74 A é invertı́vel. • Se R 6= In , então a matriz A não é equivalente por linhas à matriz identidade In . Então, pela Proposição 1.5 na página 47 a matriz R tem uma linha nula. O que implica que cada um dos sistemas A X j = Ej ou não tem solução única ou não tem solução. Isto implica que a matriz A não tem inversa, pois as colunas da (única) inversa seriam X j , para j = 1, . . . n.  Observação. Da demonstração do Teorema 2.7 obtemos não somente uma forma de descobrir se uma matriz A tem inversa mas também, como encontrar a inversa, no caso em que ela exista. Ou seja, escalonamos a matriz [ A | In ] e encontramos a sua forma escalonada reduzida [ R | S]. Se R = In , então a matriz A é invertı́vel e a inversa A−1 = S. Caso contrário, a matriz A não é invertı́vel. Vejamos os exemplos seguintes. Julho 2010 Reginaldo J. Santos 82 Inversão de Matrizes e Determinantes Exemplo 2.5. Vamos encontrar, se existir, a inversa de  1 A= 2 2 1 1 3  1 4  5 1a. eliminação: −2×1a. −2×1a. linha + linha + 2a. 3a. linha −→ linha −→ 2a. 3a.  linha linha 1  0 0 1 −1 1 1 2 3 1 −2 −2 0 1 0  0 0  1 2a. eliminação: −1×2a. linha −→ 2a. linha −1×2a. linha + 1a. linha −→ 1a. linha −1×2a. linha + 3a. linha −→ 3a. linha  0 0 −1 0  0 1  1  0 0 1 1 1 1 −2 3 1 2 −2  0 1 0 3 −2 5  −1 1 0 2 −1 0  −4 1 1 1  0 0 3a. eliminação:  1 a. 5 ×3 linha −→ 3a. linha Um Curso de Geometria Analı́tica e Álgebra Linear 1  0 0 0 1 0 3 −2 1 −1 1 2 −1 1 − 45 5  0 0  1 5 Julho 2010 2.1 A Inversa de uma Matriz 83  −3×3a. linha + 1a. linha −→ 1a. linha 2×3a. linha + 2a. linha −→ 2a. linha 1 0 0   0 1 0 0 0 1 7 5 2 5 − 45 2 5 − 35 1 5 − 35  2 5 1 5   Assim, a matriz [ A | I3 ] é equivalente por linhas à matriz acima, que é da forma [ I3 | S], portanto a matriz A é invertı́vel e a sua inversa é a matriz S, ou seja,  7 2 3  5 5 −5  2  A−1 =  25 − 35 5 . − 45 1 5 1 5 Exemplo 2.6. Vamos determinar, se existir, a inversa da matriz  1 A= 1 0 2 1 1  3 2 . 1 Para isso devemos escalonar a matriz aumentada  1 2 3 1 [ A | I3 ] =  1 1 2 0 0 1 1 0 0 1 0  0 0  1 1a. eliminação:  −1×1a. linha + 2a. linha −→ 2a. linha Julho 2010 1 2 3  0 1 1 0 1 1 1 1 0  0 0 −1 0  0 1 Reginaldo J. Santos 84 Inversão de Matrizes e Determinantes 2a. eliminação:  −1×2a. linha −→ 2a. linha −2×2a. linha + 1a. linha −→ 1a. linha −1×2a. linha + 3a. linha −→ 3a. linha  1 2 3 1 0 0  0 1 1 1 −1 0  0 1 1 0 0 1   1 0 1 −1 2 0  0 1 1 1 −1 0  0 0 0 −1 1 1 Assim, a matriz [ A | I3 ] é equivalente por linhas à matriz acima, que é da forma [ R | S], com R 6= I3 . Assim, a matriz A não é equivalente por linhas à matriz identidade e portanto não é invertı́vel. Se um sistema linear A X = B tem o número de equações igual ao número de incógnitas, então o conhecimento da inversa da matriz do sistema, A−1 , reduz o problema de resolver o sistema a simplesmente fazer um produto de matrizes, como está enunciado no próximo teorema. Teorema 2.8. Seja A uma matriz n × n. (a) O sistema associado AX = B tem solução única se, e somente se, A é invertı́vel. Neste caso a solução é X = A−1 B; (b) O sistema homogêneo A X = 0̄ tem solução não trivial se, e somente se, A é singular (não invertı́vel). Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 2.1 A Inversa de uma Matriz 85 Demonstração. (a) Se a matriz A é invertı́vel, então multiplicando A X = B por A−1 à esquerda em ambos os membros obtemos A −1 ( A X ) = A −1 B ( A −1 A ) X = A −1 B In X = = A −1 B X A−1 B. Aqui foram usadas as propriedades (h) e (i) do Teorema 1.1 na página 9. Portanto, X = A−1 B é a única solução do sistema A X = B. Por outro lado, se o sistema A X = B possui solução única, então a forma escalonada reduzida da matriz aumentada do sistema [ A | B] é da forma [ R | S], em que R = In . Pois a matriz A é quadrada e caso R fosse diferente da identidade possuiria uma linha de zeros (Proposição 1.5 na página 47) o que levaria a que o sistema A X = B ou não tivesse solução ou tivesse infinitas soluções. Logo, a matriz A é equivalente por linhas à matriz identidade o que pelo Teorema 2.7 na página 80 implica que A é invertı́vel. (b) Todo sistema homogêneo possui pelo menos a solução trivial. Pelo item anterior, esta será a única solução se, e somente se, A é invertı́vel.  Vamos ver no próximo exemplo que se conhecemos a inversa de uma matriz, então a produção de uma indústria em vários perı́odos pode ser obtida apenas multiplicando-se a inversa por matrizes colunas que contenham a arrecadação e as quantidades dos insumos utilizados em cada perı́odo. Julho 2010 Reginaldo J. Santos 86 Inversão de Matrizes e Determinantes Exemplo 2.7. Uma indústria produz três produtos, X, Y e Z, utilizando dois tipos de insumo, A e B. Para a manufatura de cada kg de X são utilizados 1 grama do insumo A e 2 gramas do insumo B; para cada kg de Y, 1 grama de insumo A e 1 grama de insumo B e, para cada kg de Z, 1 grama de A e 4 gramas de B. O preço de venda do kg de cada um dos produtos X, Y e Z é R$ 2,00, R$ 3,00 e R$ 5,00, respectivamente. Como vimos no Exemplo 1.6 na página 8, usando matrizes o esquema de produção pode ser descrito da seguinte forma: gramas de A/kg gramas de B/kg preço/kg X Y Z 1 1 1  2 1 4  2 3 5  = A   x+y+z AX =  2x + y + 4z  2x + 3y + 5z  x X=  y  z kg de X produzidos kg de Y produzidos kg de Z produzidos gramas de A usados gramas de B usados arrecadação No Exemplo 2.5 na página 82 determinamos a inversa da matriz   1 1 1 A= 2 1 4  2 3 5 que é   A −1 =  7 5 2 5 − 45 2 5 − 35 1 5 − 35 2 5 1 5  −3 1   2 .  =  2 −3 5 −4 1 1   7 2 Sabendo-se a inversa da matriz A podemos saber a produção da indústria sempre que soubermos quanto foi gasto do insumo A, do insumo B e a arrecadação. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 2.1 A Inversa de uma Matriz 87 (a) Se em um perı́odo com a venda de toda a produção de X, Y e Z manufaturada com 1 kg de A e 2 kg de B, essa indústria arrecadou R$ 2500, 00, então para determinar quantos kg de cada um dos produtos X, Y e Z foram vendidos simplesmente multiplicamos A−1 pela matriz   gramas de A usados 1000 gramas de B usados B =  2000  arrecadação 2500 ou seja, kg de X produzidos kg de Y produzidos kg de Z produzidos   7 x 1  − 1  y  =X=A B =  2 5 z −4   −3  1000   700   −3 2   2000  =  200  2500 100 1 1 2 Portanto, foram produzidos 700 kg do produto X, 200 kg de Y e 100 kg de Z. (b) Se em outro perı́odo com a venda de toda a produção de X, Y e Z manufaturada com 1 kg de A e 2, 1 kg de B, essa indústria arrecadou R$ 2900, 00, então para determinar quantos kg de cada um dos produtos X, Y e Z foram vendidos simplesmente multiplicamos A−1 pela matriz   1000 gramas de A usados gramas de B usados B =  2100  2900 arrecadação ou seja, kg de X produzidos kg de Y produzidos kg de Z produzidos   7 x 1  − 1  y  =X =A B =  2 5 z −4   −3  1000   500   −3 2   2100  =  300  2900 200 1 1 2 Portanto, foram produzidos 500 kg do produto X, 300 kg de Y e 200 kg de Z. Julho 2010 Reginaldo J. Santos 88 Inversão de Matrizes e Determinantes Vamos mostrar a recı́proca do item (b) do Teorema 2.2 na página 72. Este resultado será útil na demonstração de que o determinante do produto de matrizes é o produto dos determinantes (Subseção 2.2.2 na página 119). Proposição 2.9. Se A e B são matrizes n × n, com AB invertı́vel, então A e B são invertı́veis. Demonstração. Considere o sistema ( AB) X = 0̄. Se B não fosse invertı́vel, então existiria X 6= 0̄, tal que B X = 0̄ (Teorema 2.8 na página 84). Multiplicando-se por A, terı́amos AB X = 0̄, o que, novamente pelo Teorema 2.8 na página 84, contradiz o fato de AB ser invertı́vel. Portanto, B é invertı́vel. Agora, se B e AB são invertı́veis, então A também é invertı́vel, pois A = ( AB) B−1 , que é o produto de duas matrizes invertı́veis.  Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 2.1 A Inversa de uma Matriz 2.1.4 89 Aplicação: Interpolação Polinomial Sejam P1 = ( x1 , y1 ), . . . , Pn = ( xn , yn ), com x1 , . . . , xn números distintos. Considere o problema de encontrar um polinômio de grau n − 1 p ( x ) = a n −1 x n −1 + a n −2 x n −2 + · · · + a 1 x + a 0 , que interpola os dados, no sentido de que p( xi ) = yi , para i = 1, . . . , n. Por exemplo se os pontos são P1 = (0, 10), P2 = (1, 7), P3 = (3, −11), P4 = (4, −14) então o problema consiste em encontrar um polinômio de grau 3 que interpola os pontos dados (veja o Exercı́cio 1.2.8 na página 59). Julho 2010 Reginaldo J. Santos 90 Inversão de Matrizes e Determinantes 30 y 20 10 0 x −10 −20 −30 −2 −1 0 1 2 3 4 5 Vamos mostrar que existe, um e somente um, polinômio de grau no máximo igual à n − 1, que interpola n pontos, com abscissas distintas. Substituindo os pontos no Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 2.1 A Inversa de uma Matriz 91 polinômio p( x ), obtemos um sistema linear AX = B, em que    X=  a n −1 a n −2 .. . a0    ,     B=  y1 y2 .. .       e   A=  yn x1n−1 x2n−1 .. . x1n−2 x2n−2 .. . ... ... x1 x2 .. .  1 1   .  xnn−1 xnn−2 ... xn 1 A matriz A é chamada matriz de Vandermonde. Vamos mostrar que AX = B tem somente uma solução. Pelo Teorema 2.8 na página 84, um sistema de n equações e n incógnitas AX = B tem solução única se, e somente se, o sistema homogêneo associado, AX = 0̄, tem somente a solução trivial. X = [ an−1 · · · a0 ] é solução do sistema homogêneo se, e somente se, o polinômio de grau n − 1, p( x ) = an−1 x n−1 + · · · + a0 , se anula em n pontos distintos. O que implica que o polinômio p( x ) é o polinômio com todos os seus coeficientes iguais a zero. Portanto, o sistema homogêneo A X = 0̄ tem somente a solução trivial. Isto prova que existe, um e somente um, polinômio de grau no máximo igual à n − 1, que interpola n pontos, com abscissas distintas. Assim, a solução do sistema linear é X = A−1 B. Como a matriz A depende apenas das abscissas dos pontos, tendo calculado a matriz A−1 podemos determinar rapidamente os polinômios que interpolam vários conjuntos de pontos, desde que os pontos de todos os conjuntos tenham as mesmas abscissas dos pontos do conjunto inicial. Julho 2010 Reginaldo J. Santos 92 Inversão de Matrizes e Determinantes 2.1.5 0 o 15 a ~ 30 F 45 U 60 ^ O 75 ; 90 * 105 a 1 p 16 ç 31 G 46 V 61 ~ O 76 < 91 + 106 b 2 q 17 é 32 H 47 W 62 Ú 77 = 92 , 107 c 3 r 18 e ^ 33 I 48 X 63 Ü 78 > 93 108 Aplicação: Criptografia d 4 s 19 ı́ 34 J 49 Y 64 0 79 ? 94 . 109 e 5 t 20 ó 35 K 50 Z 65 1 80 @ 95 / 110 f 6 u 21 o ^ 36 L 51 À 66 2 81 ! 96 [ 111 g 7 v 22 o ~ 37 M 52 Á 67 3 82 " 97 \ 112 h 8 w 23 ú 38 N 53 ^ A 68 4 83 # 98 ] 113 i 9 x 24 ü 39 O 54 ~ A 69 5 84 $ 99 _ 114 j 10 y 25 A 40 P 55 Ç 70 6 85 % 100 { 115 k 11 z 26 B 41 Q 56 É 71 7 86 & 101 | 116 l 12 à 27 C 42 R 57 ^ E 72 8 87 ’ 102 } 117 m 13 á 28 D 43 S 58 Í 73 9 88 ( 103 n 14 a ^ 29 E 44 T 59 Ó 74 : 89 ) 104 Tabela 2.1. Tabela de conversão de caracteres em números Vamos transformar uma mensagem em uma matriz da seguinte forma. Vamos quebrar a mensagem em pedaços de tamanho 3 e cada pedaço será convertido em uma matriz coluna usando a Tabela 2.1 de conversão entre caracteres e números. Considere a seguinte mensagem criptografada 1ydobbr,? (2.5) Quebrando a mensagem criptografada em pedaços de tamanho 3 e convertendo Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 2.1 A Inversa de uma Matriz 93 cada pedaço para uma coluna de números usando a Tabela 2.1 obtemos a matriz   80 15 18 Y =  25 2 107  4 2 94 Sabendo-se que esta mensagem foi criptografada fazendo o produto da mensagem inicial pela matriz   1 1 0 M= 0 1 1  0 0 1 então X = M −1 Y será a mensagem inicial convertida para números, ou seja,      1 −1 1 80 15 18 59 15 5 1 −1   25 2 107  =  21 0 13  X = M −1 Y =  0 0 0 1 4 2 94 4 2 94 Convertendo para texto usando novamente a Tabela 2.1 obtemos que a mensagem que foi criptografada é Tudo bem? (2.6) Julho 2010 Reginaldo J. Santos 94 Inversão de Matrizes e Determinantes Exercı́cios Numéricos (respostas na página 505)   1 2.1.1. Seja A uma matriz 3 × 3. Suponha que X =  −2  é solução do sistema homogêneo A X = 0̄. A matriz 3 A é singular ou não? Justifique. 2.1.2. Se possı́vel, encontre as inversas das seguintes matrizes:   1 2 3 (a)  1 1 2 ;  0 1 2  1 2 2 (b)  1 3 1 ;   1 3 2 1 1 1 1  1 2 −1 2  ; (c)   1 −1 2 1  1 3 3 2  (d)   (e)    (f)    1 2.1.3. Encontre todos os valores de a para os quais a matriz A =  1 1 1 0 2 1 0 1 1 1 0 1 1 1 5  3 3 ; 4  3 2 ; 1 1 1 −1 1 2 2 2 2 1 1 1 3 2 9   1 2  ; 1  6 0 0  tem inversa. a 2.1.4. Se A −1  = 3 1 2 3  2 4 3 1  e B −1  = 2 3 5 −2  , encontre ( A B)−1 . 2.1.5. Resolva o sistema A X = B, se A −1  = Um Curso de Geometria Analı́tica e Álgebra Linear  eB= 5 3  . Julho 2010 2.1 A Inversa de uma Matriz 95 2.1.6. Seja  A= mostraremos no Exemplo 6.6 na página 398 que   1 1 P= −2 2 1 −4 −1 1  .  e D= 3 0 0 −1  são tais que A = PDP−1 . Determine Ak , para k = 1, 2, 3, . . . 2.1.7. (Relativo à Subseção 2.1.2) Encontre matrizes elementares E1 , . . . , Ek tais que A = E1 . . . Ek , para   1 2 3 A =  2 1 2 . 0 1 2 Exercı́cios usando o M ATLABr Comandos do M ATLABr : >> M=[A,B] atribui à matriz M a matriz obtida colocando lado a lado as matrizes A e B. >> A=[A1,...,An] cria uma matriz A formada pelas matrizes, definidas anteriormente, A1, ..., An colocadas uma ao lado da outra; >> M=A(:,k:l) atribui à matriz M a submatriz da matriz A obtida da coluna l à coluna k da matriz A. Comandos do pacote GAAL: Julho 2010 Reginaldo J. Santos 96 Inversão de Matrizes e Determinantes >> B=opel(alpha,i,A) ou B=oe(alpha,i,A)faz a operação elementar alpha*linha i ==> linha i da matriz A e armazena a matriz resultante em B. >> B=opel(alpha,i,j,A) ou B=oe(alpha,i,j,A) faz a operação elementar alpha*linha i + linha j ==> linha j da matriz A e armazena a matriz resultante na variável B. >> B=opel(A,i,j) ou B=oe(A,i,j) faz a troca da linha i com a linha j da matriz A e armazena a matriz resultante na variável B. >> B=escalona(A) calcula passo a passo a forma escalonada reduzida da matriz A e armazena a matriz resultante na variável B. 2.1.8. O pacote GAAL contém alguns arquivos com mensagens criptografadas e uma chave para decifrá-las. Use os comandos a seguir para ler dos arquivos e atribuir às variáveis correspondentes, uma mensagem criptografada e a uma chave para decifrá-la. >> menc=lerarq(’c:/matlab/toolbox/gaal/menc1.txt’) >> key=lerarq(’c:/matlab/toolbox/gaal/key.txt’) Com estes comandos foram lidos os arquivos menc1.txt e key.txt e atribuı́dos os resultados às variáveis menc e key respectivamente. Para converter a mensagem criptografada e a chave para matrizes numéricas use os comandos do pacote gaal: >> y=char2num(menc), M=char2num(key) Sabendo-se que a mensagem criptografada (convertida para números), y, foi originalmente obtida multiplicando-se a matriz M pela mensagem original (convertida para números), x, determine x. Descubra a mensagem usando o comando do pacote gaal, num2char(x), que converte a matriz para texto. Decifre as mensagens que estão nos arquivos menc2.txt e menc3.txt. Como deve ser a matriz M para que ela possa ser uma matriz chave na criptografia? 2.1.9. Resolva os Exercı́cios Numéricos a partir do Exercı́cio 2.1.2 usando o M ATLABr . Exercı́cios Teóricos Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 2.1 A Inversa de uma Matriz 97  2.1.10. (a) Mostre que a matriz A = a c b d  é invertı́vel se, e somente se, ad − bc 6= 0 e neste caso a inversa é dada por A −1 1 = ad − bc  −b a d −c  . (Sugestão: encontre a forma escalonada reduzida da matriz [ A | I2 ], para a 6= 0 e para a = 0.) (b) Mostre que se ad − bc 6= 0, então o sistema linear  ax cx + by = + dy = g h tem como solução x= gd − bh , ad − bc y= ah − gc ad − bc Sugestão para os próximos 4 exercı́cios: Para verificar que uma matriz B é a inversa de uma matriz A, basta fazer um dos produtos AB ou BA e verificar que é igual à In . 2.1.11. Se A é uma matriz n × n e Ak = 0̄, para k um inteiro positivo, mostre que ( In − A)−1 = In + A + A2 + . . . + Ak−1 . 2.1.12. Seja A uma matriz diagonal, isto é, os elementos que estão fora da diagonal são iguais a zero (aij = 0, para i 6= j). Se aii 6= 0, para i = 1, . . . , n, mostre que A é invertı́vel e a sua inversa é também uma matriz diagonal com elementos na diagonal dados por 1/a11 , 1/a22 , . . . , 1/ann . 2.1.13. Sejam A e B matrizes quadradas. Mostre que se A + B e A forem invertı́veis, então ( A + B)−1 = A−1 ( In + BA−1 )−1 . Julho 2010 Reginaldo J. Santos 98 Inversão de Matrizes e Determinantes 2.1.14. Seja Jn a matriz n × n, cujas entradas são iguais a 1. Mostre que se n > 1, então ( In − Jn )−1 = In − 1 Jn . n−1 (Sugestão: observe que Jn2 = nJn .) 2.1.15. Mostre que se B é uma matriz invertı́vel, então AB−1 = B−1 A se, e somente se, AB = BA. (Sugestão: multiplique a equação AB = BA por B−1 .) 2.1.16. Mostre que se A é uma matriz invertı́vel, então A + B e In + BA−1 são ambas invertı́veis ou ambas não invertı́veis. (Sugestão: multiplique A + B por A−1 .) 2.1.17. Sejam A e B matrizes n × n. Mostre que se B não é invertı́vel, então AB também não o é. 2.1.18. Mostre que se A e B são matrizes n × n, invertı́veis, então A e B são equivalentes por linhas. 2.1.19. Sejam A uma matriz m × n e B uma matriz n × m, com n < m. Mostre que AB não é invertı́vel. (Sugestão: Mostre que o sistema ( AB) X = 0̄ tem solução não trivial.) Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 2.2 Determinantes 99 2.2 Determinantes Vamos inicialmente definir o determinante de matrizes 1 × 1. Para cada matriz A = [ a] definimos o determinante de A, indicado por det( A), por det( A) = a. Vamos, agora, definir o determinante de matrizes 2 × 2 e a partir daı́ definir para matrizes de ordem maior. A cada matriz A, 2 × 2, associamos um número real, denominado determinante de A, por:   a11 a12 det( A) = det = a11 a22 − a12 a21 . a21 a22 Para definir o determinante de matrizes quadradas maiores, precisamos definir o que são os menores de uma matriz. Dada uma matriz A = ( aij )n×n , o menor do elemento aij , denotado por Ãij , é a submatriz (n − 1) × (n − 1) de A obtida eliminandose a i-ésima linha e a j-ésima coluna de A, que tem o seguinte aspecto: j          Ãij =         Julho 2010 a11 ... ... .. . a1n  .. .                 aij .. . an1 .. . ... ... ann i Reginaldo J. Santos 100 Inversão de Matrizes e Determinantes Exemplo 2.8. Para uma matriz A = ( aij )3×3 ,  a11 a12 a13   Ã23 =  a21  a31 a22 a23 a32 a33    a11  = a31  a12 a32  Agora, vamos definir os cofatores de uma matriz quadrada A = ( aij )3×3 . O cofator do elemento aij , denotado por ãij , é definido por ãij = (−1)i+ j det( Ãij ), ou seja, o cofator ãij , do elemento aij é igual à mais ou menos o determinante do menor Ãij , sendo o mais e o menos determinados pela seguinte disposição:   + − +  − + −  + − + Exemplo 2.9. Para uma matriz A = ( aij )3×3 ,  a11 a12 a13   ã23 = (−1)2+3 det( Ã23 ) = −det  a21  a31 a22 a23 a32 a33    a11  = − det  a31  a12 a32  = a31 a12 − a11 a32 Vamos, agora, definir o determinante de uma matriz 3 × 3. Se   a11 a12 a13   A= a , 21 a22 a23 a31 a32 a33 Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 2.2 Determinantes 101 então, o determinante de A é igual à soma dos produtos dos elementos da 1a. linha pelos seus cofatores. det( A) = a11 ã11 + a12 ã12 + a13 ã13       a22 a23 a21 a23 a21 a22 = a11 det − a12 det + a13 det a32 a33 a31 a33 a31 a32 = a11 ( a22 a33 − a32 a23 ) − a12 ( a21 a33 − a31 a23 ) + a13 ( a21 a32 − a31 a22 ). Da mesma forma que a partir do determinante de matrizes 2 × 2, definimos o determinante de matrizes 3 × 3, podemos definir o determinante de matrizes quadradas de ordem maior. Supondo que sabemos como calcular o determinante de matrizes (n − 1) × (n − 1) vamos definir o determinante de matrizes n × n. Vamos definir, agora, os cofatores de uma matriz quadrada A = ( aij )n×n . O cofator do elemento aij , denotado por ãij , é definido por ãij = (−1)i+ j det( Ãij ), ou seja, o cofator ãij , do elemento aij é igual à mais ou menos o determinante do menor Ãij , sendo o mais e o menos determinados pela seguinte disposição:      Julho 2010 + − + − + − + − + .. .. .. . . . − + − .. . ... ... ... .. .      Reginaldo J. Santos 102 Inversão de Matrizes e Determinantes Definição 2.2. Seja A = ( aij )n×n . O determinante de A, denotado por det( A), é definido por n det( A) = a11 ã11 + a12 ã12 + . . . + a1n ã1n = ∑ a1j ã1j , (2.7) j =1 em que ã1j = (−1)1+ j det( Ã1j ) é o cofator do elemento a1j . A expressão (2.8) é chamada desenvolvimento em cofatores do determinante de A em termos da 1a. linha. Exemplo 2.10. Seja  0 0 0 −3    A=  1 −1 2 2 3 1 3 4 2 5 −2 0   .  Desenvolvendo-se o determinante de A em cofatores, obtemos  det( A) = 0ã11 + 0ã12 + 0ã13 + (−3)(−1)1+4 det( B), Um Curso de Geometria Analı́tica e Álgebra Linear em que  B= 1 2 3 −1 3 2 2 1 −2   . Julho 2010 2.2 Determinantes 103 Mas o det( B) também pode ser calculado usando cofatores, det( B) = 1b̃11 + 2b̃12 + 3b̃13 = 1(−1)1+1 det( B̃11 ) + 2(−1)1+2 det( B̃12 ) + 3(−1)1+3 det( B̃13 )       3 2 −1 2 −1 3 = det − 2 det + 3 det 1 −2 2 −2 2 1 = −8 − 2 (−2) + 3 (−7) = −25 Portanto, det( A) = 3 det( B) = −75. Exemplo 2.11. Usando a definição de determinante, vamos mostrar que o determinante de uma matriz triangular inferior (isto é, os elementos situados acima da diagonal principal são iguais a zero) é o produto dos elementos da diagonal principal. Vamos mostrar inicialmente para matrizes 3 × 3. Seja   a11 0 0   A= a  0 21 a22 a31 a32 a33 Desenvolvendo-se o determinante de A em cofatores, obtemos   a22 0 det( A) = a11 det = a11 a22 a33 . a32 a33 Vamos supor termos provado que para qualquer matriz (n − 1) × (n − 1) triangular inferior, o determinante é o produto dos elementos da diagonal principal. Então Julho 2010 Reginaldo J. Santos 104 Inversão de Matrizes e Determinantes vamos provar que isto também vale para matrizes n × n. Seja  a11    A=   a21 .. . 0 ... a22 an1 ... 0 .. . ... 0 .. . 0 ann        Desenvolvendo-se o determinante de A em cofatores, obtemos  a22   a32 det( A) = a11 det   .  .. an2 0 ... a33 0 .. . ... ...  0 ..  .   = a11 a22 . . . ann ,  0  ann pois o determinante acima é de uma matriz (n − 1) × (n − 1) triangular inferior. Em particular, para a matriz identidade, In , det( In ) = 1. 2.2.1 Propriedades do Determinante Vamos provar uma propriedade do determinante que é usada para provar várias outras propriedades. Para isso vamos escrever a matriz A = ( aij )n×n em termos das Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 2.2 Determinantes 105 suas linhas  A1 .. .     A k −1  A=  Ak  A k +1   .  .. An       ,      em que Ai é a linha i da matriz A, ou seja, Ai = [ ai1 ai2 . . . ain ]. Se a linha Ak é escrita na forma Ak = αX + βY, em que X = [ x1 . . . xn ], Y = [ y1 . . . yn ] e α e β são escalares, dizemos que a linha Ak é combinação linear de X e Y. Se a linha Ak é combinação linear de X e Y, então o determinante pode ser decomposto como no resultado seguinte. Teorema 2.10. Seja A = ( aij )n×n escrita em termos das suas linhas, Ai = [ ai1 ai2 . . . ain ]. Se para algum k, a linha Ak = αX + βY, Y = [ y1 . . . yn ] e α e β são escalares, então:      A1 A1 A1   ..   ..  ..    .   . .       A k −1   A k −1   A k −1          det  αX + βY  = α det  X  + β det   Y  A k +1   A k +1   A k +1         .   . ..    ..   .. . An Julho 2010 An denotadas por Ai , ou seja, em que X = [ x1 . . . xn ],       .      An Reginaldo J. Santos 106 Inversão de Matrizes e Determinantes Aqui, Ak = αX + βY = [ αx1 + βy1 . . . αxn + βyn ]. Demonstração. Vamos provar aqui somente para k = 1. Para k > 1 é demonstrado no Apêndice II na página 126. Se A1 = αX + βY, em que X = [ x1 . . . xn ], Y = [ y1 . . . yn ] e α e β são escalares, então:   αX + βY   n A2   det   = ∑ (−1)1+ j (αx j + βy j ) det( Ã1j ) ..   . j =1 An n n = α ∑ x j det( Ã1j ) + β ∑ y j det( Ã1j ) j =1 j =1    = α det   X A2 .. . An Um Curso de Geometria Analı́tica e Álgebra Linear        + β det    Y A2 .. .    .   An Julho 2010 2.2 Determinantes 107 Exemplo 2.12. O cálculo do determinante da matriz a seguir pode ser feito da seguinte forma:  cos t det 2 cos t − 3 sen t sen t 2 sen t + 3 cos t   = 2 det cos t cos t sen t sen t   + 3 det cos t − sen t sen t cos t  =3 Pela definição de determinante, o determinante deve ser calculado fazendo-se o desenvolvimento em cofatores segundo a 1a. linha. O próximo resultado, que não vamos provar neste momento (Apêndice II na página 126), afirma que o determinante pode ser calculado fazendo-se o desenvolvimento em cofatores segundo qualquer linha ou qualquer coluna. Teorema 2.11. Seja A uma matriz n × n. O determinante de A pode ser calculado fazendo-se o desenvolvimento em cofatores segundo qualquer linha ou qualquer coluna. n det( A) = ai1 ãi1 + ai2 ãi2 + . . . + ain ãin = ∑ aij ãij , para i = 1, . . . , n, (2.8) para j = 1, . . . , n, (2.9) j =1 n = a1j ã1j + a2j ã2j + . . . + anj ãnj = ∑ aij ãij , i =1 em que ãij = (−1)i+ j det( Ãij ) é o cofator do elemento aij . A expressão (2.8) é chamada desenvolvimento em cofatores do determinante de A em termos da i-ésima linha e (2.9) é chamada desenvolvimento em cofatores do determinante de A em termos da j-ésima coluna. Julho 2010 Reginaldo J. Santos 108 Inversão de Matrizes e Determinantes Temos a seguinte consequência deste resultado. Corolário 2.12. Seja A uma matriz n × n. Se A possui duas linhas iguais, então det( A) = 0. Demonstração. O resultado é claramente verdadeiro para matrizes 2 × 2. Supondo que o resultado seja verdadeiro para matrizes (n − 1) × (n − 1), vamos provar que ele é verdadeiro para matrizes n × n. Suponhamos que as linhas k e l sejam iguais, para k 6= l. Desenvolvendo o determinante de A em termos de uma linha i, com i 6= k, l, obtemos det( A) = n n j =1 j =1 ∑ aij ãij = ∑ (−1)i+ j aij det( Ãij ). Mas, cada Ãij é uma matriz (n − 1) × (n − 1) com duas linhas iguais. Como estamos supondo que o resultado seja verdadeiro para estas matrizes, então det( Ãij ) = 0. Isto implica que det( A) = 0.  Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 2.2 Determinantes 109 No próximo resultado mostramos como varia o determinante de uma matriz quando aplicamos operações elementares sobre suas linhas. Teorema 2.13. Sejam A e B matrizes n × n. (a) Se B é obtida de A multiplicando-se uma linha por um escalar α, então det( B) = α det( A) ; (b) Se B resulta de A pela troca da posição de duas linhas k 6= l, então det( B) = − det( A) ; (c) Se B é obtida de A substituindo-se a linha l por ela somada a um múltiplo escalar de uma linha k, k 6= l, então det( B) = det( A) . Demonstração. (a) Segue diretamente do Teorema 2.10 na página 105. Julho 2010 Reginaldo J. Santos 110 Inversão de Matrizes e Determinantes (b) Sejam  A1  ..   .     Ak      A =  ...     Al     .   ..   A1  ..   .     Al      B =  ...  .    Ak     .   ..    e An An Agora, pelo Teorema 2.10 na página 105 e o Corolário 2.12, temos que  0 = A1 .. .         Ak + Al      .. det   .    Ak + Al      . .   .         A1 A1 A1 A1  ..   ..   ..   ..   .   .   .   .           Ak   Ak   Al   Al                  = det  ...  + det  ...  + det  ...  + det  ...           Ak   Al   Ak   Al           .   .   .   .  . . . .  .   .   .   .  An An An An An = 0 + det( A) + det( B) + 0. Portanto, det( A) = − det( B). Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 2.2 Determinantes 111 (c) Novamente, pelo Teorema 2.10 na página 105, temos que  A1 .. .     Ak   .. det  .   Al + αAk   ..  . An Julho 2010                  A1 A1  ..    ..   .    .        Ak    Ak        ..    ..  = det  .  + α det  .  = det        Ak    Al        .    .   ..    ..  An An   A1 ..  .   Ak   ..  . .   Al   ..  .   An Reginaldo J. Santos 112 Inversão de Matrizes e Determinantes Exemplo 2.13. Vamos calcular o determinante da matriz  0 A= 3 2 1 −6 6  5 9  1 usando operações elementares para transformá-la numa matriz triangular superior e aplicando o Teorema 2.13.   3 −6 9 1 5  1a. linha ←→ 2a. linha det( A) = − det  0 6 1   2 1 −2 3 1 5  = −3 det  0 1/3×1a. linha −→ 1a. linha 6 1   2 1 −2 3 1 5  = −3 det  0 −2×1a. linha+3a. linha −→ 3a. linha  0 10 −5  1 −2 3 1 5  −10×2a. linha+3a. linha −→ 3a. linha = −3 det  0 0 0 −55 = (−3)(−55) = 165 Quando multiplicamos uma linha de uma matriz por um escalar α o determinante da nova matriz é igual à α multiplicado pelo determinante da matriz antiga. Mas o que estamos calculando aqui é o determinante da matriz anterior, por isso ele é igual à 1/α multiplicado pelo determinante da matriz nova. Para se calcular o determinante de uma matriz n × n pela expansão em cofatores, precisamos fazer n produtos e calcular n determinantes de matrizes (n − 1) × (n − 1), Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 2.2 Determinantes 113 que por sua vez vai precisar de n − 1 produtos e assim por diante. Portanto, ao todo são necessários da ordem de n! produtos. Para se calcular o determinante de uma matriz 20 × 20, é necessário se realizar 20! ≈ 1018 produtos. Os computadores pessoais realizam da ordem de 108 produtos por segundo. Portanto, um computador pessoal precisaria de cerca de 1010 segundos ou 103 anos para calcular o determinante de uma matriz 20 × 20 usando a expansão em cofatores. Entretanto usando o método apresentado no exemplo anterior para o cálculo do determinante, é necessário apenas da ordem de n3 produtos. Ou seja, para calcular o determinante de uma matriz 20 × 20 usando o método apresentado no exemplo anterior um computador pessoal gasta muito menos de um segundo. A seguir estabelecemos duas propriedades do determinante que serão demonstradas somente na Subseção 2.2.2 na página 119. Teorema 2.14. Sejam A e B matrizes n × n. (a) O determinante do produto de A por B é igual ao produto dos seus determinantes, det( AB) = det( A) det( B) . (b) Os determinantes de A e de sua transposta At são iguais, det( A) = det( At ) ; Julho 2010 Reginaldo J. Santos 114 Inversão de Matrizes e Determinantes Observação. Como o determinante de uma matriz é igual ao determinante da sua transposta (Teorema 2.14 (b)), segue-se que todas as propriedades que se referem a linhas são válidas com relação às colunas. Exemplo 2.14. Seja A = ( aij )n×n . Vamos mostrar que se A é invertı́vel, então det( A−1 ) = 1 . det( A) Como A A−1 = In , aplicando-se o determinante a ambos os membros desta igualdade e usando o Teorema 2.14, obtemos det( A) det( A−1 ) = det( In ). Mas, det( In ) = 1 (Exemplo 2.11 na página 103, a matriz identidade também é trian1 gular inferior!). Logo, det( A−1 ) = . det( A) Exemplo 2.15. Se uma matriz quadrada é tal que A2 = A−1 , então vamos mostrar que det( A) = 1. Aplicando-se o determinante a ambos os membros da igualdade acima, e usando novamente o Teorema 2.14 e o resultado do exemplo anterior, obtemos 1 . (det( A))2 = det( A) Logo, (det( A))3 = 1. Portanto, det( A) = 1. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 2.2 Determinantes 115 O resultado seguinte caracteriza em termos do determinante as matrizes invertı́veis e os sistemas lineares homogêneos que possuem solução não trivial. Teorema 2.15. Seja A uma matriz n × n. (a) A matriz A é invertı́vel se, e somente se, det( A) 6= 0. (b) O sistema homogêneo AX = 0̄ tem solução não trivial se, e somente se, det( A) = 0. Demonstração. (a) Seja R a forma escalonada reduzida da matriz A. A demonstração deste item segue-se de três observações: • Pelo Teorema 2.13 na página 109, det( A) 6= 0 se, e somente se, det( R) 6= 0. • Pela Proposição 1.5 da página 47, ou R = In ou a matriz R tem uma linha nula. Assim, det( A) 6= 0 se, e somente se, R = In . • Pelo Teorema 2.7 na página 80, R = In se, e somente se, A é invertı́vel. (b) Pelo Teorema 2.8 na página 84, o sistema homogêneo AX = 0̄ tem solução não trivial se, e somente se, a matriz A não é invertı́vel. E pelo item anterior, a matriz A é não invertı́vel se, e somente se, det( A) = 0.  Julho 2010 Reginaldo J. Santos 116 Inversão de Matrizes e Determinantes Exemplo 2.16. Considere a matriz  2 A= 0 0 2 2 1  2 0 . 3   x (a) Determinar os valores de λ ∈ R tais que existe X =  y  6= 0̄ que satisfaz z AX = λX. (b) Para  cada um dos valores de λ encontrados no item anterior determinar todos x X =  y  tais que AX = λX. z Solução: (a) Como a matriz identidade I3 é o elemento neutro do produto, então AX = λX ⇔ AX = λI3 X. Subtraindo-se λI3 X obtemos AX − λI3 X = 0̄ ⇔ ( A − λI3 ) X = 0̄. Agora, este sistema homogêneo tem solução não trivial (X 6= 0̄) se, e somente se, det( A − λI3 ) = 0. Mas  2−λ det  0 0 2 2−λ 1  2 0  = −(λ − 2)2 (λ − 3) = 0 3−λ Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 2.2 Determinantes 117 se, e somentese, λ = 2 ou λ = 3. Assim, somente para λ = 2 e λ = 3 existem x vetores X =  y  6= 0̄ tais que AX = λX. z (b) Para λ = 2:       2 x 0 2y + 2z      0 y = 0 ( A − 2I3 ) X = 0̄ ⇔ ⇔ y + z 1 z 0     x β que tem solução o conjunto dos X =  y  =  −α , para todos os valores z α de α, β ∈ R. 0  0 0 2 0 1 = 0 = 0 Para λ = 3:      −1 2 2 x 0  − x + 2y + 2z = 0 −y = 0 ( A − 3I3 ) X = 0̄ ⇔  0 −1 0   y  =  0  ⇔  0 1 0 z 0 y = 0     x 2α que tem solução o conjunto dos X =  y  =  0 , para todos os valores z α de α ∈ R.  Exemplo 2.17. A matriz A =  a c b d  é invertı́vel se, e somente se, det( A) = ad − bc 6= 0. Julho 2010 Reginaldo J. Santos 118 Inversão de Matrizes e Determinantes Neste caso a inversa de A é dada por A −1 = 1 det( A)  −b a d −c  , como pode ser verificado multiplicando-se a candidata a inversa pela matriz A. Isto também foi mostrado no Exercı́cio 2.1.10 na página 97. Observe que este exemplo fornece uma regra para se encontrar a inversa de uma matriz 2 × 2: troca-se a posição dos elementos da diagonal principal, troca-se o sinal dos outros elementos e divide-se todos os elementos pelo determinante de A. Exemplo 2.18. Considere o sistema linear de 2 equações e 2 incógnitas  ax cx + by = + dy = A matriz deste sistema é  A= a c b d g h  . Se det( A) 6= 0, então a solução do sistema é   g b  det h d  1     =   a g det( A) det c h  X = A −1 B = 1 det( A)  d −b −c a  g h  = 1 det( A)  dg − bh −cg + ah   g h  b d   ou seja,   g b h d  , x= a b det c d det Um Curso de Geometria Analı́tica e Álgebra Linear a c  y= a det c det Julho 2010 2.2 Determinantes 119 esta é a chamada Regra de Cramer para sistemas de 2 equações e 2 incógnitas. Pode-se mostrar (ver por exemplo [32] ou [33]), que para sistemas de n equações e n incógnitas é válida a Regra de Cramer dada a seguir. Se o sistema linear AX = B é tal que a matriz A é n × n e invertı́vel, então a solução do sistema é dada por x1 = det( A2 ) det( An ) det( A1 ) , x2 = , . . . , xn = , det( A) det( A) det( A) em que A j é a matriz que se obtém de A substituindo-se a sua j-ésima coluna por B, para j = 1, . . . , n. Existem sistemas AX = B de n equações e n incógnitas, com n > 2, em que det( A) = det( A1 ) = · · · = det( An ) = 0 e o sistema não tem solução. Por exemplo o sistema   x + 2y + 3z = 2x + 4y + 6z =  3x + 6y + 9z = 1 3 2 é tal que det( A) = det( A1 ) = det( A2 ) = det( A3 ) = 0, mas ele não tem solução (verifique!). 2.2.2 Matrizes Elementares e o Determinante (opcional) Relembramos que uma matriz elementar é uma matriz que se obtém aplicando-se uma operação elementar na matriz identidade. Assim, aplicando-se o Teorema 2.13 na página 109 obtemos o resultado seguinte. Julho 2010 Reginaldo J. Santos 120 Inversão de Matrizes e Determinantes Proposição 2.16. (a) Se Ei,j é a matriz elementar obtida trocando-se as linhas i e j da matriz identidade, então det( Ei,j ) = −1. (b) Se Ei (α) é a matriz elementar obtida da matriz identidade, multiplicando-se a linha i por α, então det( Ei (α)) = α. (c) Se Ei,j (α) é a matriz elementar obtida da matriz identidade, somando-se à linha j, α vezes a linha i, então det( Ei,j (α)) = 1. Lembramos também que uma matriz é invertı́vel se, e somente se, ela é o produto de matrizes elementares (Teorema 2.6 na página 77). Além disso, o resultado da aplicação de uma operação elementar em uma matriz é o mesmo que multiplicar a matriz à esquerda pela matriz elementar correspondente. Usando matrizes elementares podemos provar o Teorema 2.14 na página 113. Demonstração do Teorema 2.14. (a) Queremos provar que det( AB) = det( A) det( B). Vamos dividir a demonstração deste item em três casos: Caso 1: Se A = E é uma matriz elementar. Este caso segue-se diretamente da proposição anterior e do Teorema 2.13 na página 109. Caso 2: Se A é invertı́vel, então pelo Teorema 2.6 na página 77 ela é o produto de matrizes elementares, A = E1 . . . Ek . Aplicando-se o caso anterior sucessivas vezes, obtemos det( AB) = det( E1 ) . . . det( Ek ) det( B) = det( E1 . . . Ek ) det( B) = det( A) det( B). Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 2.2 Determinantes 121 Caso 3: Se A é singular, pela Proposição 2.9 na página 88, AB também é singular. Logo, det( AB) = 0 = 0 det( B) = det( A) det( B). (b) Queremos provar que det( A) = det( At ). Vamos dividir a demonstração deste item em dois casos. Caso 1: Se A é uma matriz invertı́vel, pelo Teorema 2.6 na página 77 ela é o produto de matrizes elementares, A = E1 . . . Ek . É fácil ver que se E é uma matriz elementar, então det( E) = det( Et ) (verifique!). Assim, det( At ) = det( Ekt ) . . . det( E1t ) = det( Ek ) . . . det( E1 ) = det( E1 . . . Ek ) = det( A). Caso 2: Se A não é invertı́vel, então At também não o é, pois caso contrário, pelo Teorema 2.2 na página 72, também A = ( At )t seria invertı́vel. Assim, neste caso, det( At ) = 0 = det( A).  Exercı́cios Numéricos (respostas na página 507) 2.2.1. Se det( A) = −3, encontre (b) det( A3 ); (a) det( A2 ); (c) det( A−1 ); (d) det( At ); 2.2.2. Se A e B são matrizes n × n tais que det( A) = −2 e det( B) = 3, calcule det( At B−1 ). 2.2.3. Seja A = ( aij )3×3 tal que det( A) = 3. Calcule o determinante das matrizes a seguir:     a11 a12 a13 + a12 a11 + a12 a11 − a12 a13 (a)  a21 a22 a23 + a22  (b)  a21 + a22 a21 − a22 a23  a31 a32 a33 + a32 a31 + a32 a31 − a32 a33 Julho 2010 Reginaldo J. Santos 122 Inversão de Matrizes e Determinantes 2.2.4. Calcule o determinante das matrizes a seguir:  rt  e tert (a) rert (1 + rt)ert  (b) cos βt α cos βt − β sen βt sen βt α sen βt + β cos βt 2.2.5. Calcule o determinante de cada uma das matrizes seguintes usando operações formá-las em matrizes triangulares superiores.    2 1 3 1 1 −2 3 1   1 0 1 1  5 −9 6 3  (b)  (a)   0 2 1 0  −1 2 −6 −2  0 1 2 3 2 8 6 1  elementares para trans  .  2.2.6. Determine todos os valores de λ para os quais det( A − λIn ) = 0, em que     0 1 2 1 0 0 0  (a) A =  0 0 3  (b) A =  −1 3 0 0 0 3 2 − 2     2 −2 3 2 2 3 3 −2  2 1  (c) A =  0 (d) A =  1 0 −1 2 2 −2 1   x1  ..  2.2.7. Determine os valores de λ ∈ R tais que existe X =  .  6= 0̄ que satisfaz AX = λX. xn  (a) A =    (c) A =   2 3 0 1 0 0 0  0 0 −1 0 ; 4 3  2 3 4 −1 3 2  ; 0 3 3  0 0 2 Um Curso de Geometria Analı́tica e Álgebra Linear  (b) A =    (d) A =   2 0 0 2 0 0 0 3 1 0 2 2 0 0  0 0 ; 2  3 4 3 2  . 1 1  0 1 Julho 2010 2.2 Determinantes 123 2.2.8. Para as matrizes do exercı́cio anterior, e os valores de λ encontrados, encontre a solução geral do sistema AX = λX, ou equivalentemente, do sistema homogêneo ( A − λIn ) X = 0̄. Julho 2010 Reginaldo J. Santos 124 Inversão de Matrizes e Determinantes Exercı́cios usando o M ATLABr Comandos do M ATLABr : >> det(A) calcula o determinante da matriz A. Comando do pacote GAAL: >> detopelp(A) calcula o determinante de A aplicando operações elementares até que a matriz esteja na forma triangular superior. 2.2.9. Vamos fazer um experimento no M ATLABr para tentar ter uma ideia do quão comum é encontrar matrizes invertı́veis. No prompt do M ATLABr digite a seguinte linha: >> c=0; for n=1:1000,A=randi(2);if(det(A)~=0),c=c+1;end,end,c (não esqueça das vı́rgulas e pontos e vı́rgulas!). O que esta linha está mandando o M ATLABr fazer é o seguinte: • Criar um contador c e atribuir a ele o valor zero. • Atribuir à variável A, 1000 matrizes 2 × 2 com entradas inteiras aleatórias entre −5 e 5. • Se det(A) 6= 0, então o contador c é acrescido de 1. • No final o valor existente na variável c é escrito. Qual a conclusão que você tira do valor obtido na variável c? 2.2.10. Resolva, com o M ATLABr , os Exercı́cios Numéricos a partir do Exercı́cio 4. Exercı́cios Teóricos 2.2.11. Mostre que se det( AB) = 0, então ou A é singular ou B é singular. 2.2.12. O determinante de AB é igual ao determinante de BA? Justifique. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 2.2 Determinantes 125 2.2.13. Mostre que se A é uma matriz não singular tal que A2 = A, então det( A) = 1. 2.2.14. Mostre que se Ak = 0̄, para algum k inteiro positivo, então A é singular. 2.2.15. Mostre que se At = A−1 , então det( A) = ±1; 2.2.16. Mostre que se α é um escalar e A é uma matriz n × n, então det(αA) = αn det( A). 2.2.17. Mostre que A, n × n, é invertı́vel se, e somente se, At A é invertı́vel. 2.2.18. Sejam A e P matrizes n × n, sendo P invertı́vel. Mostre que det( P−1 AP) = det( A). 2.2.19. Mostre que se uma matriz A = ( aij )n×n é triangular superior, (isto é, os elementos situados abaixo da diagonal são iguais a zero) então det( A) = a11 a22 . . . ann .   a b 2.2.20. (a) Mostre que se A = , então det( A) = 0 se, e somente se, uma linha é múltiplo escalar da c d outra. E se A for uma matriz n × n? (b) Mostre que se uma linha Ai de uma matriz A = ( aij )n×n , é tal que Ai = αAk + βAl , para α e β escalares e i 6= k, l, então det( A) = 0. (c) Mostre que se uma linha Ai de uma matriz A = ( aij )n×n , é tal que Ai = ∑ αk Ak , para α1 , . . . , αk k 6 =i escalares, então det( A) = 0. 2.2.21. Mostre que o determinante de Vandermonde é dado por    Vn = det   1 1 .. . x1 x2 .. . x12 x22 ... ... .. .  x1n−1 x2n−1   =  1 xn xn2 ... xnn−1 ∏ ( x i − x j ). i> j A expressão à direita significa o produto de todos os termos xi − x j tais que i > j e i, j = 1, . . . , n. (Sugestão: Mostre primeiro que V3 = ( x3 − x2 )( x2 − x1 )( x3 − x1 ). Suponha que o resultado é verdadeiro Julho 2010 Reginaldo J. Santos 126 Inversão de Matrizes e Determinantes para matrizes de Vandermonde de ordem n − 1, mostre que o resultado é verdadeiro para matrizes de Vandermonde de ordem n. Faça as seguintes operações nas colunas da matriz, − x1 Ci−1 + Ci → Ci , para i = n, . . . , 2. Obtenha Vn = ( xn − x1 ) . . . ( x2 − x1 )Vn−1 .) 2.2.22. Sejam A, B e D matrizes p × p, p × (n − p) e (n − p) × (n − p), respectivamente. Mostre que   A B det = det( A) det( D ). 0̄ D (Sugestão: O resultado é claramente verdadeiro para n = 2. Suponha que o resultado seja verdadeiro para matrizes de ordem n − 1. Desenvolva o determinante da matriz em termos da 1a. coluna, escreva o resultado em termos de determinantes de ordem n − 1 e mostre que o resultado é verdadeiro para matrizes de ordem n.) 2.2.23. Dado um polinômio p(t) = (−1)n (tn + an−1 tn−1 + · · · + a0 ) Verifique que a matriz     A=   0 0 .. . 1 0 .. . 0 1 .. . ··· ··· .. . 0 0 .. . 0 − a0 0 − a1 0 − a2 ··· ··· − a n −1       1  , n×n é tal que det( A − tIn ) = p(t). Esta matriz é chamada matriz companheira do polinômio p(t). (Sugestão: verifique para n = 2 e depois supondo que seja verdade para matrizes (n − 1) × (n − 1) mostre que é verdade para matrizes n × n expandindo em cofatores em relação a primeira coluna) Apêndice II: Demonstração do Teorema 2.11 na página 107 Demonstração do Teorema 2.10 na página 105 para k > 1. Deixamos como exercı́cio para o leitor a verificação de que para matrizes 2 × 2 o Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 2.2 Determinantes 127 resultado é verdadeiro. Supondo que o resultado seja verdadeiro para matrizes (n − 1) × (n − 1), vamos provar para matrizes n × n. Sejam       A1 A1 A1  ..   ..    ..  .   .    .        A k −1   A k −1   A k −1             A=  αX + βY  , B =  X  e C =  Y  .  A k +1   A k +1   A k +1          .   .   .. . .      .  . . An An An Suponha que k = 2, . . . , n. As matrizes Ã1j , B̃1j e C̃1j só diferem na (k − 1)-ésima linha (lembre-se que a primeira linha é retirada!). Além disso, a (k − 1)-ésima linha de Ã1j é igual à α vezes a linha correspondente de B̃1j mais β vezes a linha correspondente de C̃1j (esta é a relação que vale para a k-ésima linha de A). Como estamos supondo o resultado verdadeiro para matrizes (n − 1) × (n − 1), então det( Ã1j ) = α det( B̃1j ) + β det(C̃1j ). Assim, n det( A) = ∑ (−1)1+ j a1j det( Ã1j ) j =1 n = ∑ (−1)1+ j a1j  α det( B̃1j ) + β det(C̃1j )  j =1 n n j =1 j =1 = α ∑ (−1)1+ j b1j det( B̃1j ) + β ∑ (−1)1+ j c1j det(C̃1j ) = α det( B) + β det(C ), pois a1j = b1j = c1j , para j = 1, . . . , n. Julho 2010  Reginaldo J. Santos 128 Inversão de Matrizes e Determinantes Lema 2.17. Sejam E1 = [ 1 0 . . . 0 ], E2 = [ 0 1 0 . . . 0 ], . . . , En = [ 0 . . . 0 1 ]. Se A é uma matriz n × n, cuja i-ésima linha é igual à Ek , para algum k (1 ≤ k ≤ n), então det( A) = (−1)i+k det( Ãik ). Demonstração. É fácil ver que para matrizes 2 × 2 o lema é verdadeiro. Suponha que ele seja verdadeiro para matrizes (n − 1) × (n − 1) e vamos provar que ele é verdadeiro para matrizes n × n. Podemos supor que 1 < i ≤ n. Seja Bj a matriz (n − 2) × (n − 2) obtida de A eliminando-se as linhas 1 e i e as colunas j e k, para 1 ≤ j ≤ n. Para j < k, a matriz Ã1j é uma matriz (n − 1) × (n − 1) cuja (i − 1)-ésima linha é igual à Ek−1 . Para j > k, a matriz Ã1j é uma matriz (n − 1) × (n − 1) cuja (i − 1)-ésima linha é igual à Ek . Como estamos supondo o lema verdadeiro para estas matrizes e como pelo Teorema 2.10 na página 105 se uma matriz tem uma linha nula o seu determinante é igual à zero, então det( Ã1k ) = 0, segue-se que   (−1)(i−1)+(k−1) det( Bj ) se j < k, 0 se j = k, det( Ã1j ) = (2.10)  ( i − 1 )+ k (−1) det( Bj ) se j > k. Usando (2.10), obtemos n det( A) = ∑ (−1)1+ j a1j det( Ãij ) j =1 = n n j<k j>k ∑ (−1)1+ j a1j (−1)(i−1)+(k−1) det( Bj ) + ∑ (−1)1+ j a1j (−1)(i−1)+k det( Bj ) Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 2.2 Determinantes 129 Por outro lado, temos que " (−1) i +k det( Ãik ) = (−1) i +k n ∑ (−1) 1+ j j<k n a1j det( Bj ) + ∑ (−1) # 1+( j−1) a1j det( Bj ) j>k É simples a verificação de que as duas expressões acima são iguais.  Demonstração do Teorema 2.11 na página 107. Pelo Teorema 2.14 na página 113 basta provarmos o resultado para o desenvolvimento em termos das linhas de A. Sejam E1 = [ 1 0 . . . 0 ], E2 = [ 0 1 0 . . . 0 ], . . . , En = [ 0 . . . 0 1 ]. Observe que a linha i de A pode ser escrita como n Ai = ∑ aij Ej . j =1 Seja Bj a matriz obtida de A substituindo-se a linha i por Ej . Pelo Teorema 2.10 na página 105 e o Lema 2.17 segue-se que det( A) = n n j =1 j =1 ∑ aij det( Bj ) = ∑ (−1)i+ j aij det( Ãij ).  Julho 2010 Reginaldo J. Santos 130 Inversão de Matrizes e Determinantes Teste do Capı́tulo 1. Calcule o determinante da matriz seguinte usando matriz triangular superior.  1 3  2 3   0 3 4 6 2. Se possı́vel, encontre a inversa da seguinte matriz:  1 0  0 1   0 0 2 0 operações elementares para transformá-la em uma 9 2 4 9  7 5   1  1 0 0 1 0  2 0   0  2 3. Encontre todos os valores de λ para os quais a matriz A − λI4 tem inversa, em que   2 0 0 0  2 0 0 0   A=  1 2 1 0  3 2 −1 2 4. Responda Verdadeiro ou Falso, justificando: Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 2.2 Determinantes 131 (a) Se A2 = −2A4 , então ( I + A2 )−1 = I − 2A2 ; (b) Se At = − A2 e A é não singular, então determinante de A é -1; (c) Se B = AAt A−1 , então det( A) = det( B). (d) det( A + B) = det A + det B Julho 2010 Reginaldo J. Santos 3 Vetores no Plano e no Espaço Muitas grandezas fı́sicas, como velocidade, força, deslocamento e impulso, para serem completamente identificadas, precisam, além da magnitude, da direção e do sentido. Estas grandezas são chamadas grandezas vetoriais ou simplesmente vetores. Geometricamente, vetores são representados por segmentos (de retas) orientados (segmentos de retas com um sentido de percurso) no plano ou no espaço. A ponta da seta do segmento orientado é chamada ponto final ou extremidade e o outro ponto extremo é chamado de ponto inicial ou origem do segmento orientado. Segmentos orientados com mesma direção, mesmo sentido e mesmo comprimento representam o mesmo vetor. A direção, o sentido e o comprimento do vetor são 132 133 Figura 3.1. Segmentos orientados representando o mesmo vetor Julho 2010 Reginaldo J. Santos 134 Vetores no Plano e no Espaço definidos como sendo a direção, o sentido e o comprimento de qualquer um dos segmentos orientados que o representam. Este fato é análogo ao que ocorre com os números racionais e as frações. Duas frações representam o mesmo número racional se o numerador e o denominador de cada uma delas estiverem na mesma proporção. Por exemplo, as frações 1/2, 2/4 e 3/6 representam o mesmo número racional. A definição de igualdade de vetores também é análoga a igualdade de números racionais. Dois números racionais a/b e c/d são iguais, quando ad = bc. Dizemos que dois vetores são iguais se eles possuem o mesmo comprimento, a mesma direção e o mesmo sentido. Na Figura 3.1 temos 4 segmentos orientados, com origens em pontos diferentes, que representam o mesmo vetor, ou seja, são considerados como vetores iguais, pois possuem a mesma direção, mesmo sentido e o mesmo comprimento. Se o ponto inicial de um representante de um vetor V é A e o ponto final é B, então escrevemos q *B    −→ AB −→ V = AB q A 3.1 Soma de Vetores e Multiplicação por Escalar A soma, V + W, de dois vetores V e W é determinada da seguinte forma: • tome um segmento orientado que representa V; • tome um segmento orientado que representa W, com origem na extremidade de V; Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 3.1 Soma de Vetores e Multiplicação por Escalar 135 • o vetor V + W é representado pelo segmento orientado que vai da origem de V até a extremidade de W. Julho 2010 Reginaldo J. Santos 136 Vetores no Plano e no Espaço W W U V + V V + W W +U V W V V W Figura 3.2. V + W = W + V Um Curso de Geometria Analı́tica e Álgebra Linear + W +U W) (V + U) (W + V+ Figura 3.3. V + (W + U ) = (V + W ) + U Julho 2010 3.1 Soma de Vetores e Multiplicação por Escalar 137 Da Figura 3.2, deduzimos que a soma de vetores é comutativa, ou seja, V + W = W + V, (3.1) para quaisquer vetores V e W. Observamos também que a soma V + W está na diagonal do paralelogramo determinado por V e W, quando estão representados com a mesma origem. Da Figura 3.3, deduzimos que a soma de vetores é associativa, ou seja, V + (W + U ) = (V + W ) + U, (3.2) para quaisquer vetores V, W e U. O vetor que tem a sua origem coincidindo com a sua extremidade é chamado vetor nulo e denotado por 0̄. Segue então, que V + 0̄ = 0̄ + V = V, (3.3) para todo vetor V. Para qualquer vetor V, o simétrico de V, denotado por −V, é o vetor que tem mesmo comprimento, mesma direção e sentido contrário ao de V. Segue então, que V + (−V ) = 0̄. (3.4) Definimos a diferença W menos V, por W − V = W + (−V ). Segue desta definição, de (3.1), (3.2), (3.4) e de (3.3) que W + (V − W ) = (V − W ) + W = V + (−W + W ) = V + 0̄ = V. Assim, a diferença V − W é um vetor que somado a W dá V, portanto ele vai da extremidade de W até a extremidade de V, desde que V e W estejam representados por segmentos orientados com a mesma origem. Julho 2010 Reginaldo J. Santos 138 Vetores no Plano e no Espaço V −W V −W V −W V W W Figura 3.4. A diferença V − W Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 3.1 Soma de Vetores e Multiplicação por Escalar 139 A multiplicação de um vetor V por um escalar α, α V, é determinada pelo vetor que possui as seguintes caracterı́sticas: (a) é o vetor nulo, se α = 0 ou V = 0̄, (b) caso contrário, i. tem comprimento |α| vezes o comprimento de V, ii. a direção é a mesma de V (neste caso, dizemos que eles são paralelos), iii. tem o mesmo sentido de V, se α > 0 e tem o sentido contrário ao de V, se α < 0. As propriedades da multiplicação por escalar serão apresentadas mais a frente. Se W = α V, dizemos que W é um múltiplo escalar de V. É fácil ver que dois vetores não nulos são paralelos (ou colineares) se, e somente se, um é um múltiplo escalar do outro. Julho 2010 Reginaldo J. Santos 140 Vetores no Plano e no Espaço V 3V −2V 1 2V Figura 3.5. Multiplicação de vetor por escalar Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 3.1 Soma de Vetores e Multiplicação por Escalar 141 As operações com vetores podem ser definidas utilizando um sistema de coordenadas retangulares ou cartesianas. Em primeiro lugar, vamos considerar os vetores no plano. Seja V um vetor no plano. Definimos as componentes de V como sendo as coordenadas (v1 , v2 ) do ponto final do representante de V que tem ponto inicial na origem. Vamos identificar o vetor com as suas componentes e vamos escrever simplesmente V = ( v1 , v2 ). Julho 2010 Reginaldo J. Santos 142 Vetores no Plano e no Espaço y y P = ( x, y) V = ( v1 , v2 ) y v2 −→ OP O Figura 3.6. plano v1 x As componentes do vetor V no Um Curso de Geometria Analı́tica e Álgebra Linear x O x Figura 3.7. As coordenadas de P são iguais as −→ componentes de OP Julho 2010 3.1 Soma de Vetores e Multiplicação por Escalar 143 −→ Assim, as coordenadas de um ponto P são iguais as componentes do vetor OP, que vai da origem do sistema de coordenadas ao ponto P. Em particular, o vetor nulo, 0̄ = (0, 0). Em termos das componentes, podemos realizar facilmente as operações: soma de vetores e multiplicação de vetor por escalar. • Como ilustrado na Figura 3.8, a soma de dois vetores V = (v1 , v2 ) e W = (w1 , w2 ) é dada por V + W = ( v 1 + w1 , v 2 + w2 ) ; • Como ilustrado na Figura 3.9, a multiplicação de um vetor V = (v1 , v2 ) por um escalar α é dada por α V = ( α v1 , α v2 ). Julho 2010 Reginaldo J. Santos 144 Vetores no Plano e no Espaço y y V +W αv2 v2+w2 αV V v2 v2 V w2 W x v1 w1 v 1 + w1 Figura 3.8. A soma de dois vetores no plano Um Curso de Geometria Analı́tica e Álgebra Linear v1 αv1 x Figura 3.9. A multiplicação de vetor por escalar no plano Julho 2010 3.1 Soma de Vetores e Multiplicação por Escalar 145 Definimos as componentes de um vetor no espaço de forma análoga a que fizemos com vetores no plano. Vamos inicialmente introduzir um sistema de coordenadas retangulares no espaço. Para isto, escolhemos um ponto como origem O e como eixos coordenados, três retas orientadas (com sentido de percurso definido), passando pela origem, perpendiculares entre si, sendo uma delas vertical orientada para cima. Estes serão os eixos x, y e z. O eixo z é o eixo vertical. Os eixos x e y são horizontais e satisfazem a seguinte propriedade. Suponha que giramos o eixo x pelo menor ângulo até que coincida com o eixo y. Se os dedos da mão direita apontam na direção do semieixo x positivo de forma que o semieixo y positivo esteja do lado da palma da mão, então o polegar aponta no sentido do semieixo z positivo. Cada par de eixos determina um plano chamado de plano coordenado. Portanto, os três planos coordenados são: xy, yz e xz. A cada ponto P no espaço associamos um terno de números ( x, y, z), chamado de coordenadas do ponto P como segue. • Trace uma reta paralela ao eixo z, passando por P; • A interseção da reta paralela ao eixo z, passando por P, com o plano xy é o ponto P0 . As coordenadas de P0 , ( x, y), no sistema de coordenadas xy são as duas primeiras coordenadas de P. • A terceira coordenada é igual ao comprimento do segmento PP0 , se P estiver acima do plano xy e ao comprimento do segmento PP0 com o sinal negativo, se P estiver abaixo do plano xy. Julho 2010 Reginaldo J. Santos 146 Vetores no Plano e no Espaço z z z P = ( x, y, z) P = ( x, y, z) z x x y P0 x y x y y Figura 3.10. As coordenadas de um ponto no espaço Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 3.1 Soma de Vetores e Multiplicação por Escalar 147 As coordenadas de um ponto P são determinadas também da maneira dada a seguir. • Passe três planos por P paralelos aos planos coordenados. • A interseção do plano paralelo ao plano xy, passando por P, com o eixo z determina a coordenada z. • A interseção do plano paralelo ao plano xz, passando por P, com o eixo y determina a coordenada y • A interseção do plano paralelo ao plano yz, passando por P, com o eixo x determina a coordenada x. Agora, estamos prontos para utilizarmos um sistema de coordenadas cartesianas também nas operações de vetores no espaço. Seja V um vetor no espaço. Como no caso de vetores do plano, definimos as componentes de V como sendo as coordenadas (v1 , v2 , v3 ) do ponto final do representante de V que tem ponto inicial na origem. Também vamos identificar o vetor com as suas componentes e vamos escrever simplesmente V = ( v1 , v2 , v3 ). Julho 2010 Reginaldo J. Santos 148 Vetores no Plano e no Espaço z z z v3 P = ( x, y, z) V = ( v1 , v2 , v3 ) −→ OP v1 x x v2 y Figura 3.11. As componentes de um vetor no espaço Um Curso de Geometria Analı́tica e Álgebra Linear O x y y Figura 3.12. As coordenadas de P são iguais as −→ componentes de OP Julho 2010 3.1 Soma de Vetores e Multiplicação por Escalar 149 −→ Assim, as coordenadas de um ponto P são iguais as componentes do vetor OP que vai da origem do sistema de coordenadas ao ponto P. Em particular, o vetor nulo, 0̄ = (0, 0, 0). Assim, como fizemos para vetores no plano, para vetores no espaço a soma de vetores e a multiplicação de vetor por escalar podem ser realizadas em termos das componentes. • Se V = (v1 , v2 , v3 ) e W = (w1 , w2 , w3 ), então a adição de V com W é dada por V + W = ( v 1 + w1 , v 2 + w2 , v 3 + w3 ) ; • Se V = (v1 , v2 , v3 ) e α é um escalar, então a multiplicação de V por α é dada por α V = ( α v1 , α v2 , α v3 ). Exemplo 3.1. Se V = (1, −2, 3), W = (2, 4, −1), então V + W = (1 + 2, −2 + 4, 3 + (−1)) = (3, 2, 2), 3V = (3 · 1, 3 (−2), 3 · 3) = (3, −6, 9). Quando um vetor V está representado por um segmento orientado com ponto inicial fora da origem (Figura 3.13), digamos em P = ( x1 , y1 , z1 ), e ponto final em Q = ( x2 , y2 , z2 ), então as componentes do vetor V são dadas por −→ −→ −→ V = PQ=OQ − OP= ( x2 − x1 , y2 − y1 , z2 − z1 ). Julho 2010 Reginaldo J. Santos 150 Vetores no Plano e no Espaço Portanto, as componentes de V são obtidas subtraindo-se as coordenadas do ponto Q (extremidade) das do ponto P (origem). O mesmo se aplica a vetores no plano. Exemplo 3.2. As componentes do vetor V que tem um representante com ponto inicial P = (5/2, 1, 2) e ponto final Q = (0, 5/2, 5/2) são dadas por −→ V = PQ= (0 − 5/2, 5/2 − 1, 5/2 − 2) = (−5/2, 3/2, 1/2). Observação. O vetor é “livre”, ele não tem posição fixa, ao contrário do ponto e do segmento orientado. Por exemplo, o vetor V = (−5/2, 3/2, 1/2), no exemplo acima, estava representado por um segmento orientado com a origem no ponto P = (5/2, 1, 2). Mas, poderia ser representado por um segmento orientado cujo ponto inicial poderia estar em qualquer outro ponto. Um vetor no espaço V = (v1 , v2 , v3 ) pode também ser escrito na notação matricial como uma matriz linha ou como uma matriz coluna:   v1   V =  v2  ou V = v1 v2 v3 . v3 Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 3.1 Soma de Vetores e Multiplicação por Escalar 151 Estas notações podem ser justificadas pelo fato de que as operações matriciais           v1 w1 v 1 + w1 v1 αv1 V + W =  v2  +  w2  =  v2 + w2  , αV = α  v2  =  αv2  v3 w3 v 3 + w3 v3 αv3 ou V +W =  v1    + w1 w2 w3 = v 1 + w1 v 2 + w2     αV = α v1 v2 v3 = αv1 αv2 αv3 v2 v3  v 3 + w3  , produzem os mesmos resultados que as operações vetoriais V + W = ( v 1 , v 2 , v 3 ) + ( w1 , w2 , w3 ) = ( v 1 + w1 , v 2 + w2 , v 3 + w3 ) , αV = α(v1 , v2 , v3 ) = (αv1 , αv2 , αv3 ). O mesmo vale, naturalmente, para vetores no plano. No teorema seguinte enunciamos as propriedades mais importantes da soma de vetores e multiplicação de vetores por escalar. Teorema 3.1. Sejam U, V e W vetores e α e β escalares. São válidas as seguintes propriedades: (a) (b) (c) (d) U + V = V + U; (U + V ) + W = U + ( V + W ) ; U + 0̄ = U; U + (−U ) = 0̄; Julho 2010 (e) (f) (g) (h) α( βU ) = (αβ)U; α(U + V ) = αU + αV; (α + β)U = αU + βU; 1U = U. Reginaldo J. Santos 152 Vetores no Plano e no Espaço Demonstração. Segue diretamente das propriedades da álgebra matricial (Teorema  1.1 na página 9). Exemplo 3.3. Seja um triângulo ABC e sejam M e N os pontos médios de AC e BC, respectivamente. Vamos provar que MN é paralelo a AB e tem comprimento igual à metade do comprimento de AB. Devemos provar que −→ MN = Um Curso de Geometria Analı́tica e Álgebra Linear 1 −→ AB . 2 Julho 2010 3.1 Soma de Vetores e Multiplicação por Escalar 153 C N M A B Agora, a partir da figura acima temos que −→ −→ −→ MN = MC + CN . Julho 2010 Reginaldo J. Santos 154 Vetores no Plano e no Espaço Como M é ponto médio de AC e N é ponto médio de BC, então −→ MC = 1 −→ AC 2 −→ e CN = 1 −→ CB . 2 Logo, −→ MN = −→ 1 −→ 1 −→ 1 −→ 1 −→ AC + CB= ( AC + CB) = AB . 2 2 2 2 −→ −→ Exemplo 3.4. Dados quatro pontos A, B, C e X tais que AX = λ AB, vamos escre−→ −→ −→ ver CX como combinação linear de CA e CB, isto é, como uma soma de múltiplos −→ −→ escalares de CA e CB. −→ −→ −→ −→ Como AX = λ AB, então os vetores AX e AB são paralelos e portanto o ponto X só pode estar na reta definida por A e B. Vamos desenhá-lo entre A e B, mas isto não representará nenhuma restrição, como veremos a seguir. O vetor que vai de C para X, pode ser escrito como uma soma de um vetor que vai de C para A com um vetor que vai de A para X, −→ −→ −→ CX =CA + AX . Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 3.1 Soma de Vetores e Multiplicação por Escalar 155 B X C A −→ −→ −→ −→ −→ Agora, por hipótese AX = λ AB, o que implica que CX =CA +λ AB. −→ −→ −→ −→ −→ −→ −→ Mas, AB=CB − CA, portanto CX =CA +λ(CB − CA). Logo, −→ −→ −→ CX = (1 − λ) CA +λ CB . Julho 2010 Reginaldo J. Santos 156 Vetores no Plano e no Espaço Observe que: −→ −→ −→ −→ • Se λ = 0, então CX =CA. • Se λ = 1, então CX =CB. −→ • Se λ = 1/2, então CX = −→ • Se λ = 1/3, então CX = −→ −→ −→ −→ 1 2 CA + 12 CB. 2 3 CA + 13 CB. • Se 0 ≤ λ ≤ 1, então X pertence ao segmento AB, enquanto que se λ < 0 ou λ > 1, então X pertence a um dos prolongamentos do segmento AB. Exemplo 3.5. Vamos mostrar, usando vetores, que o ponto médio de um segmento que une os pontos A = ( x1 , y1 , z1 ) e B = ( x2 , y2 , z2 ) é   x1 + x2 y1 + y2 z1 + z2 . , , M= 2 2 2 −→ O ponto M é o ponto médio de AB se, e somente se, AM = −→ 1 2 −→ AB. Então, aplicando −→ −→ o exemplo anterior (com o ponto C sendo a origem O), OM = 12 OA + 12 OB. Como as coordenadas de um ponto são iguais as componentes do vetor que vai da origem −→ até aquele ponto, segue-se que OM = 12 ( x1 , y1 , z1 ) + 21 ( x2 , y2 , z2 ) e   x1 + x2 y1 + y2 z1 + z2 M= , , . 2 2 2 Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 3.1 Soma de Vetores e Multiplicação por Escalar 157 Exercı́cios Numéricos (respostas na página 513) −→ −→ 3.1.1. Determine o ponto C tal que AC = 2 AB sendo A = (0, −2) e B = (1, 0). 3.1.2. Uma reta no plano tem equação y = 2x + 1. Determine um vetor paralelo a esta reta. 3.1.3. Determine uma equação para a reta no plano que é paralela ao vetor V = (2, 3) e passa pelo ponto P0 = (1, 2). 3.1.4. Determine o vetor X, tal que 3X − 2V = 15( X − U ).  6X − 2Y = 3.1.5. Determine os vetores X e Y tais que 3X + Y = U U+V 3.1.6. Determine as coordenadas da extremidade do segmento orientado que representa o vetor V = (3, 0, −3), sabendo-se que sua origem está no ponto P = (2, 3, −5). 3.1.7. Quais são as coordenadas do ponto P0 , simétrico do ponto P = (1, 0, 3) em relação ao ponto −→ −→ M = (1, 2, −1)? (Sugestão: o ponto P0 é tal que o vetor MP0 = − MP) 3.1.8. Verifique se os pontos dados a seguir são colineares, isto é, pertencem a uma mesma reta: (a) A = (5, 1, −3), B = (0, 3, 4) e C = (0, 3, −5); (b) A = (−1, 1, 3), B = (4, 2, −3) e C = (14, 4, −15); 3.1.9. Dados os pontos A = (1, −2, −3), B = (−5, 2, −1) e C = (4, 0, −1). Determine o ponto D tal que A, B, C e D sejam vértices consecutivos de um paralelogramo. 3.1.10. Verifique se o vetor U é combinação linear (soma de múltiplos escalares) de V e W: (a) V = (9, −12, −6), W = (−1, 7, 1) e U = (−4, −6, 2); (b) V = (5, 4, −3), W = (2, 1, 1) e U = (−3, −4, 1); 3.1.11. Verifique se é um paralelogramo o quadrilátero de vértices (não necessariamente consecutivos) Julho 2010 Reginaldo J. Santos 158 Vetores no Plano e no Espaço (a) A = (4, −1, 1), B = (9, −4, 2), C = (4, 3, 4) e D = (4, −21, −14) (b) A = (4, −1, 1), B = (9, −4, 2), C = (4, 3, 4) e D = (9, 0, 5) 3.1.12. Quais dos seguintes vetores são paralelos U = (6, −4, −2), V = (−9, 6, 3), W = (15, −10, 5). Exercı́cios usando o M ATLABr >> V=[v1,v2,v3] cria um vetor V, usando as componentes numéricas v1, v2, v3. Por exemplo >> V=[1,2,3] cria o vetor V = (1, 2, 3); >> V+W é a soma de V e W; >> V-W é a diferença V menos W; >> num*V é o produto do vetor V pelo escalar num; >> subs(expr,x,num) substitui x por num na expressão expr; >> solve(expr) determina a solução da equação expr=0; Comandos gráficos do pacote GAAL: >> desvet(P,V) desenha o vetor V com origem no ponto P e >> desvet(V) desenha o vetor V com origem no ponto O = (0, 0, 0). >> po([P1;P2;...;Pn]) desenha os pontos P1, P2, ..., Pn. >> lineseg(P1,P2,’cor’) desenha o segmento de reta P1P2. >> tex(P,’texto’) coloca o texto no ponto P. >> axiss reescala os eixos com a mesma escala. >> eixos desenha os eixos coordenados. >> box desenha uma caixa em volta da figura. >> rota faz uma rotação em torno do eixo z. >> zoom3(fator) amplifica a região pelo fator. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 3.1 Soma de Vetores e Multiplicação por Escalar 159 3.1.13. Coloque em duas variáveis V e W dois vetores do plano ou do espaço a seu critério (a) Use a função ilsvw(V,W) para visualizar a soma dos dois vetores. (b) Coloque em uma variável a um número e use a função ilav(a,V) para visualizar a multiplicação do vetor V pelo escalar a. 3.1.14. Use o M ATLABr para resolver os Exercı́cios Numéricos a partir do Exercı́cio 1.3. Exercı́cios Teóricos 3.1.15. Demonstre que o segmento que une os pontos médios dos lados não paralelos de um trapézio é paralelo às bases, e sua medida é a média aritmética das medidas das bases. (Sugestão: mostre que −→ MN = −→ −→ 1 −→ ( AB + DC ) 2 −→ e depois conclua que MN é um múltiplo escalar de AB. Revise o Exemplo 3.3 na página 152) Julho 2010 Reginaldo J. Santos 160 Vetores no Plano e no Espaço D C M N A B 3.1.16. Demonstre que as diagonais de um paralelogramo se cortam ao meio. (Sugestão: Sejam M e N os pontos −→ médios das duas diagonais do paralelogramo. Mostre que o vetor MN = 0̄, então conclua que M = N.) Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 3.1 Soma de Vetores e Multiplicação por Escalar 161 D C M N A B 3.1.17. Considere o triângulo ABC e sejam M o ponto médio de BC, N o ponto médio de AC e P o ponto médio de AB. Mostre que as medianas (os segmentos AM, BN e CP) se cortam num mesmo ponto que divide −→ as medianas na proporção 2/3 e 1/3. (Sugestão: Sejam G, H e I os pontos definidos por AG = −→ BH = Julho 2010 2 3 −→ −→ BN e CI = 2 3 −→ −→ −→ 2 3 −→ AM, CP. Mostre que GH = 0̄, GI = 0̄, conclua que G = H = I.) Reginaldo J. Santos 162 Vetores no Plano e no Espaço C N H M G I A P B 3.1.18. Sejam A, B e C pontos quaisquer com A 6= B. Prove que: −→ −→ (a) Um ponto X pertence a reta determinada por A e B ( AX = λ AB) se, e somente se, −→ −→ −→ CX = α CA + β CB, Um Curso de Geometria Analı́tica e Álgebra Linear com α + β = 1. Julho 2010 3.1 Soma de Vetores e Multiplicação por Escalar 163 −→ −→ (b) Um ponto X pertence ao interior do segmento AB ( AX = λ AB, com 0 < λ < 1) se, e somente se, −→ −→ −→ CX = α CA + β CB, com α > 0, β > 0 −→ e α + β = 1. −→ (c) Um ponto X é um ponto interior ao triângulo ABC ( A0 X = λ A0 B0 , com 0 < λ < 1, em que A0 é um ponto interior ao segmento AC e B0 é interior ao segmento CB) se, e somente se, −→ −→ −→ CX = α CA + β CB, Julho 2010 com α > 0, β > 0 e α + β < 1. Reginaldo J. Santos 164 Vetores no Plano e no Espaço B C A 3.1.19. Mostre que se αV = 0̄, então α = 0 ou V = 0̄. 3.1.20. Se αU = αV, então U = V ? E se α 6= 0 ? 3.1.21. Se αV = βV, então α = β ? E se V 6= 0̄ ? Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 3.1 Soma de Vetores e Multiplicação por Escalar 165 z Q V P O x y −→ −→ −→ Figura 3.13. V = PQ=OQ − OP Julho 2010 Reginaldo J. Santos 166 Vetores no Plano e no Espaço 3.2 Produtos de Vetores 3.2.1 Norma e Produto Escalar Já vimos que o comprimento de um vetor V é definido como sendo o comprimento de qualquer um dos segmentos orientados que o representam. O comprimento do vetor V também é chamado de norma de V e é denotado(a) por ||V ||. Segue do Teorema de Pitágoras que a norma de um vetor pode ser calculada usando as suas componentes, por q ||V || = v21 + v22 , no caso em que V = (v1 , v2 ) é um vetor no plano, e por ||V || = q v21 + v22 + v23 , no caso em que V = (v1 , v2 , v3 ) é um vetor no espaço (verifique usando as Figuras 3.14 e 3.15). Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 3.2 Produtos de Vetores 167 y V = ( v1 , v2 , v3 ) V = ( v1 , v2 ) | |V || | v2 | |v 1 | v1 | x Figura 3.14. A norma de um vetor V no plano Julho 2010 | v3 | | |v2 | Figura 3.15. A norma de um vetor V no espaço Reginaldo J. Santos 168 Vetores no Plano e no Espaço Um vetor de norma igual à 1 é chamado vetor unitário. A distância entre dois pontos P = ( x1 , y1 , z1 ) e Q = ( x2 , y2 , z2 ) é igual à norma do −→ vetor PQ (Figura 3.13 na página 165). Como −→ −→ −→ PQ=OQ − OP= ( x2 − x1 , y2 − y1 , z2 − z1 ), então a distância de P a Q é dada por −→ dist( P, Q) = || PQ || = p ( x2 − x1 )2 + ( y2 − y1 )2 + ( z2 − z1 )2 . Analogamente, a distância entre dois pontos P = ( x1 , y1 ) e Q = ( x2 , y2 ) no plano é −→ igual à norma do vetor PQ, que é dada por −→ dist( P, Q) = || PQ || = p ( x2 − x1 )2 + ( y2 − y1 )2 . Exemplo 3.6. A norma do vetor V = (1, −2, 3) é ||V || = q 12 + (−2)2 + 32 = √ 14. A distância entre os pontos P = (2, −3, 1) e Q = (−1, 4, 5) é −→ dist( P, Q) = || PQ || = ||(−1 − 2, 4 − (−3), 5 − 1)|| = ||(−3, 7, 4)|| = Um Curso de Geometria Analı́tica e Álgebra Linear q (−3)2 + 72 + 42 = √ 74. Julho 2010 3.2 Produtos de Vetores 169 Se V = (v1 , v2 , v3 ) e α é um escalar, então da definição da multiplicação de vetor por escalar e da norma de um vetor segue-se que q q ||αV || = ||(αv1 , αv2 , αv3 )|| = (αv1 )2 + (αv2 )2 + (αv3 )2 = α2 (v21 + v22 + v23 ), ou seja, ||αV || = |α| ||V ||. (3.5) Dado um vetor V não nulo, o vetor  U= 1 ||V ||  V. é um vetor unitário na direção de V, pois por (3.5), temos que ||U || = 1 ||V || = 1. ||V || Exemplo 3.7. Um vetor unitário na direção do vetor V = (1, −2, 3) é o vetor  U= 1 ||V ||   V= 1 √ 14  1 −2 3 (1, −2, 3) = ( √ , √ , √ ). 14 14 14 O ângulo entre dois vetores não nulos, V e W, é definido pelo ângulo θ determinado por V e W que satisfaz 0 ≤ θ ≤ π, quando eles estão representados com a mesma origem (Figura 3.16). Quando o ângulo θ entre dois vetores V e W é reto (θ = 90o), ou um deles é o vetor nulo, dizemos que os vetores V e W são ortogonais ou perpendiculares entre si. Julho 2010 Reginaldo J. Santos 170 Vetores no Plano e no Espaço Vamos definir, agora, um produto entre dois vetores, cujo resultado é um escalar. Por isso ele é chamado produto escalar. Este produto tem aplicação, por exemplo, em Fı́sica: o trabalho realizado por uma força é o produto escalar do vetor força pelo vetor deslocamento, quando a força aplicada é constante. Definição 3.1. O produto escalar ou interno de dois vetores V e W é definido por  V ·W = 0, ||V || ||W || cos θ, se V ou W é o vetor nulo, caso contrário, em que θ é o ângulo entre eles. Quando os vetores são dados em termos das suas componentes não sabemos diretamente o ângulo entre eles. Por isso, precisamos de uma forma de calcular o produto escalar que não necessite do ângulo entre os vetores. Se V e W são dois vetores não nulos e θ é o ângulo entre eles, então pela lei dos cossenos, ||V − W ||2 = ||V ||2 + ||W ||2 − 2||V || ||W || cos θ. Assim,  1 ||V ||2 + ||W ||2 − ||V − W ||2 . (3.6) 2 Já temos então uma fórmula para calcular o produto escalar que não depende diretamente do ângulo entre eles. Substituindo-se as coordenadas dos vetores em (3.6) obtemos uma expressão mais simples para o cálculo do produto interno. V · W = ||V || ||W || cos θ = Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 3.2 Produtos de Vetores 171 V V θ θ W W Figura 3.16. Ângulo entre dois vetores, agudo (à esquerda) e obtuso (à direita) V V V −W V −W θ W θ W Figura 3.17. Triângulo formado por representantes de V, W e V − W. À esquerda o ângulo entre V e W é agudo e à direita é obtuso. Julho 2010 Reginaldo J. Santos 172 Vetores no Plano e no Espaço Por exemplo, se V = (v1 , v2 , v3 ) e W = (w1 , w2 , w3 ) são vetores no espaço, então substituindo-se ||V ||2 = v21 + v22 + v23 , ||W ||2 = w12 + w22 + w32 e ||V − W ||2 = (v1 − w1 )2 + (v2 − w2 )2 + (v3 − w3 )2 em (3.6) os termos v2i e wi2 são cancelados e obtemos V · W = v 1 w1 + v 2 w2 + v 3 w3 . Teorema 3.2. O produto escalar ou interno, V · W, entre dois vetores é dado por V · W = v 1 w1 + v 2 w2 , se V = (v1 , v2 ) e W = (w1 , w2 ) são vetores no plano e por V · W = v 1 w1 + v 2 w2 + v 3 w3 , se V = (v1 , v2 , v3 ) e W = (w1 , w2 , w3 ) são vetores no espaço. Exemplo 3.8. Sejam V = (0, 1, 0) e W = (2, 2, 3). O produto escalar de V por W é dado por V · W = v 1 w1 + v 2 w2 + v 3 w3 = 0 · 2 + 1 · 2 + 0 · 3 = 2 . Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 3.2 Produtos de Vetores 173 Podemos usar o Teorema 3.2 para determinar o ângulo entre dois vetores não nulos, V e W. O cosseno do ângulo entre V e W é, então, dado por cos θ = V ·W . ||V || ||W || Se V e W são vetores não nulos e θ é o ângulo entre eles, então (a) θ é agudo (0 ≤ θ < 90o ) se, e somente se, V · W > 0, (b) θ é reto (θ = 90o ) se, e somente se, V · W = 0 e (c) θ é obtuso (90o < θ ≤ 180o ) se, e somente se, V · W < 0. Exemplo 3.9. Vamos determinar o ângulo entre uma diagonal de um cubo e uma de suas arestas. Sejam V1 = (1, 0, 0), V2 = (0, 1, 0) e V3 = (0, 0, 1) (Figura 3.18). Uma diagonal do cubo é representada pelo vetor D dado por D = V1 + V2 + V3 = (1, 1, 1) . Então o ângulo entre D e V1 satisfaz cos θ = D · V1 1.1 + 0.1 + 0.1 1 √ = √ = √ || D ||||V1 || 3 ( 12 + 12 + 12 )( 12 + 02 + 02 ) ou seja, 1 θ = arccos( √ ) ≈ 54o . 3 Julho 2010 Reginaldo J. Santos 174 Vetores no Plano e no Espaço (0, 0, 1) (1, 1, 1) θ (1, 0, 0) (0, 1, 0) Figura 3.18. Ângulo entre a diagonal de um cubo e uma de suas arestas Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 3.2 Produtos de Vetores 175 Teorema 3.3. Sejam U, V e W vetores e α um escalar. São válidas as seguintes propriedades: (a) (comutatividade) U · V = V · U ; (b) (distributividade) U · (V + W ) = U · V + U · W; (c) (associatividade) α(U · V ) = (αU ) · V = U · (αV ); (d) V · V = ||V ||2 ≥ 0, para todo V e V · V = 0 se, e somente se, V = 0̄. Demonstração. Sejam U = (u1 , u2 , u3 ), V = (v1 , v2 , v3 ) e W = (w1 , w2 , w3 ). (a) U · V = u1 v1 + u2 v2 + u3 v3 = v1 u1 + v2 u2 + v3 u3 = V · U; (b) U · (V + W ) = (u1 , u2 , u3 ) · (v1 + w1 , v2 + w2 , v3 + w3 ) = = u 1 ( v 1 + w1 ) + u 2 ( v 2 + w2 ) + u 3 ( v 3 + w3 ) = = ( u 1 v 1 + u 1 w1 ) + ( u 2 v 2 + u 2 w2 ) + ( u 3 v 3 + u 3 w3 ) = = (u1 v1 + u2 v2 + u3 v3 ) + (u1 w1 + u2 w2 + u3 w3 ) = U · V + U · W; (c) α(U · V ) = α(u1 v1 + u2 v2 + u3 v3 ) = (αu1 )v1 + (αu2 )v2 + (αu3 )v3 = (αU ) · V; (d) V · V = ||V ||2 é uma soma de quadrados, por isso é sempre maior ou igual à zero e é zero se, e somente se, todas as parcelas são iguais a zero.  3.2.2 Projeção Ortogonal Dados dois vetores V e W a projeção ortogonal de V sobre W denotada por projW V Julho 2010 Reginaldo J. Santos 176 Vetores no Plano e no Espaço é o vetor que é paralelo a W tal que V − projW V seja ortogonal a W (Figura 3.19). Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Produtos de Vetores 177 V V − projW V V − projW V 3.2 V projW V W projW V W Figura 3.19. Projeção ortogonal do vetor V sobre o vetor W Julho 2010 Reginaldo J. Santos 178 Vetores no Plano e no Espaço Proposição 3.4. Seja W um vetor não nulo. Então, a projeção ortogonal de um vetor V em W é dada por  projW V = V ·W ||W ||2  W. Demonstração. Sejam V1 = projW V e V2 = V − projW V. Como V1 é paralelo a W, então V1 = αW. (3.7) Assim, V2 = V − αW . Multiplicando-se escalarmente V2 por W e usando o Teorema 3.3 (d) obtemos V2 · W = (V − αW ) · W = V · W − α||W ||2 . (3.8) Mas, V2 é ortogonal a W, então V2 · W = 0. Portanto, de (3.8) obtemos α= V ·W . ||W ||2 Substituindo este valor de α na equação (3.7) segue-se o resultado.  Exemplo 3.10. Sejam V = (2, −1, 3) e W = (4, −1, 2). Vamos encontrar dois vetores V1 e V2 tais que V = V1 + V2 , V1 é paralelo a W e V2 é perpendicular a W (Figura 3.19). Temos que V · W = 2 · 4 + (−1)(−1) + 3 · 2 = 15 Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 3.2 Produtos de Vetores 179 ||W ||2 = 42 + (−1)2 + 22 = 21 .     V · W) 15 20 5 10 V1 = projW V = W = (4, −1, 2) = ( , − , ) 21 7 7 7 ||W ||2 V2 = V − V1 = (2, −1, 3) − ( 3.2.3 20 5 10 6 2 11 , − , ) = (− , − , ) . 7 7 7 7 7 7 Produto Vetorial Vamos, agora, definir um produto entre dois vetores, cujo resultado é um vetor. Por isso, ele é chamado produto vetorial. Este produto tem aplicação, por exemplo, em Fı́sica: a força exercida sobre uma partı́cula com carga unitária mergulhada num campo magnético uniforme é o produto vetorial do vetor velocidade da partı́cula pelo vetor campo magnético. Julho 2010 Reginaldo J. Santos 180 Vetores no Plano e no Espaço h = ||W || sen θ | |W || W θ V ||V || Figura 3.20. Área de um paralelogramo determinado por dois vetores Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 3.2 Produtos de Vetores 181 Definição 3.2. Sejam V e W dois vetores no espaço. Definimos o produto vetorial, V × W, como sendo o vetor com as seguintes caracterı́sticas: (a) Tem comprimento dado numericamente por ||V × W || = ||V || ||W || sen θ, ou seja, a norma de V × W é numericamente igual à área do paralelogramo determinado por V e W. (b) Tem direção perpendicular a V e a W. (c) Tem o sentido dado pela regra da mão direita (Figura 3.21): Se o ângulo entre V e W é θ, giramos o vetor V de um ângulo θ até que coincida com W e acompanhamos este movimento com os dedos da mão direita, então o polegar vai apontar no sentido de V × W. Julho 2010 Reginaldo J. Santos 182 Vetores no Plano e no Espaço VxW V θ W V θ W WxV Figura 3.21. Regra da mão direita Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 3.2 Produtos de Vetores 183 Da forma como definimos o produto vetorial é difı́cil o seu cálculo, mas as propriedades que apresentaremos a seguir possibilitarão obter uma fórmula para o produto vetorial em termos das componentes dos vetores. Teorema 3.5. Sejam U, V e W vetores no espaço e α um escalar. São válidas as seguintes propriedades: (a) V × W = −(W × V ) (anti-comutatividade). (b) V × W = 0̄ se, e somente se, V = αW ou W = αV. (c) (V × W ) · V = (V × W ) · W = 0. (d) α(V × W ) = (αV ) × W = V × (αW ). (e) V × (W + U ) = V × W + V × U e (V + W ) × U = V × U + W × U (Distributividade em relação a soma de vetores). Demonstração. (a) Pela definição do produto vetorial V × W e W × V têm o mesmo comprimento e a mesma direção. Além disso trocando-se V por W troca-se o sentido de V × W (Figura 3.21). (b) ||V × W || = 0 se, e somente se, um deles é o vetor nulo ou sen θ = 0, em que θ é o ângulo entre V e W, ou seja, V e W são paralelos. Assim, V × W = 0̄ se, e somente se, V = αW ou W = αV. (c) Segue-se imediatamente da definição do produto vetorial. Julho 2010 Reginaldo J. Santos 184 Vetores no Plano e no Espaço (d) Segue-se facilmente da definição do produto vetorial, por isso deixamos como exercı́cio para o leitor. (e) Este item será demonstrado no Apêndice III na página 205.  Os vetores canônicos ~i = (1, 0, 0), ~j = (0, 1, 0) e ~k = (0, 0, 1) são vetores unitários (de norma igual à um) paralelos aos eixos coordenados. Todo vetor V = ( v1 , v2 , v3 ) pode ser escrito como uma soma de múltiplos escalares de~i,~j e~k (combinação linear), pois V = ( v1 , v2 , v3 ) Um Curso de Geometria Analı́tica e Álgebra Linear = (v1 , 0, 0) + (0, v2 , 0) + (0, 0, v3 ) = = v1 (1, 0, 0) + v2 (0, 1, 0) + v3 (0, 0, 1) = = v1~i + v2 ~j + v3 ~k. (3.9) Julho 2010 3.2 Produtos de Vetores 185 v3~k V = ( v1 , v2 , v3 ) ~k ~i ~j v1~i Figura 3.22. Vetores ~i, ~j e ~k Julho 2010 v2~j Figura 3.23. V = v1~i + v2~j + v3~k Reginaldo J. Santos 186 Vetores no Plano e no Espaço Da definição de produto vetorial podemos obter facilmente as seguintes relações: ~i ×~i = 0̄, ~i × ~j = ~k, ~j × ~j = 0̄, ~j ×~k = ~i, ~k ×~k = 0̄, ~k ×~i = ~j, ~j ×~i = −~k, ~k × ~j = −~i, ~i ×~k = −~j. Agora, estamos prontos para obter uma fórmula que dê o produto vetorial de dois vetores em termos das suas componentes. Teorema 3.6. Sejam V = (v1 , v2 , v3 ) e W = (w1 , w2 , w3 ) vetores no espaço. Então o produto vetorial V × W é dado por  V ×W =  det v2 w2 v3 w3   , − det v1 w1 v3 w3   , det v1 w1 v2 w2  . (3.10) Demonstração. De (3.9) segue-se que podemos escrever V = v1~i + v2 ~j + v3 ~k e W = w1~i + w2 ~j + w3 ~k. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 3.2 Produtos de Vetores 187 Assim, pela distributividade do produto vetorial em relação a soma, temos que V ×W = (v1~i + v2 ~j + v3 ~k) × (w1~i + w2 ~j + w3 ~k) = v1 w1 (~i ×~i ) + v1 w2 (~i × ~j) + v1 w3 (~i ×~k) + + v2 w1 (~j ×~i ) + v2 w2 (~j × ~j) + v2 w3 (~j ×~k) + + v3 w1 (~k ×~i ) + v3 w2 (~k × ~j) + v3 w3 (~k ×~k) = (v2 w3 − v3 w2 )~i + (v3 w1 − v1 w3 )~j + (v1 w2 − v2 w1 )~k       v2 v3 ~ v1 v3 ~ v1 v2 ~ = det i − det j + det k w2 w3 w1 w3 w1 w2        v2 v3 v1 v3 v1 v2 = det , − det , det . w2 w3 w1 w3 w1 w2  Para obter as componentes do produto vetorial V × W procedemos como se segue: • Escreva a matriz:  V W   = v1 w1 v2 w2 v3 w3  ; • Para calcular a primeira componente de V × W, elimine a primeira coluna da matriz acima e calcule o determinante da sub-matriz resultante. A segunda componente é obtida, eliminando-se a segunda coluna e calculando-se o determinante da sub-matriz resultante com o sinal trocado. A terceira é obtida como a primeira, mas eliminando-se a terceira coluna. Exemplo 3.11. Sejam V = ~i + 2~j − 2~k e W = 3~i + ~k. Vamos determinar o produto Julho 2010 Reginaldo J. Santos 188 Vetores no Plano e no Espaço vetorial V × W. Como  V W   = 1 3 2 0 −2 1  , então  V ×W =  det 2 0 −2 1   , − det 1 3 −2 1   , det 1 3 2 0  = (2, −7, −6) . Usando os vetores ~i,~j e ~k o produto vetorial V × W, pode ser escrito em termos do “determinante”         ~k ~i ~j v2 v3 ~ v1 v3 ~ v1 v2 ~ V × W = det  v1 v2 v3  = det i − det j + det k. w2 w3 w1 w3 w1 w2 w1 w2 w3 Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 3.2 Produtos de Vetores 189 Q R P Figura 3.24. Área do triângulo PQR Julho 2010 Reginaldo J. Santos 190 Vetores no Plano e no Espaço Exemplo 3.12. Vamos calcular a área do triângulo PQR em que (Figura 3.24) P = (3, 2, 0), Sejam Q = (0, 4, 3) e R = (1, 0, 2). −→ V = RP= (3 − 1, 2 − 0, 0 − 2) = (2, 2, −2) −→ W = RQ= (0 − 1, 4 − 0, 3 − 2) = (−1, 4, 1) . Então, V × W = (10, 0, 10) = 10(1, 0, 1). A área do triângulo PQR é a metade da área do paralelogramo com lados determinados por V e W. Assim, Área = 3.2.4 √ 1 ||V × W || = 5 2. 2 Produto Misto O produto (V × W ) · U é chamado produto misto de U, V e W. O resultado abaixo mostra como calcular o produto misto usando as componentes dos vetores. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 3.2 Produtos de Vetores 191 Teorema 3.7. Sejam U = u1~i + u2~j + u3~k, V = v1~i + v2~j + v3~k e W = w1~i + w2~j + w3~k. Então,  v1 (V × W ) · U = det  w1 u1 v2 w2 u2  v3 w3  . u3 Demonstração. Segue do Teorema 3.2 na página 172, do Teorema 3.6 na página 186 e da definição de determinante de uma matriz que  (V × W ) · U = = =      v1 v3 (u1 , u2 , u3 ) · det , − det , det w1 w3      v2 v3 v1 v3 v1 − u2 det + u3 det u1 det w2 w3 w1 w3 w1   v1 v2 v3 det  w1 w2 w3  . u1 u2 u3 v2 w2 v3 w3 v1 w1 v2 w2 v2 w2    Exemplo 3.13. O produto misto dos vetores U = 2~i − ~j + 3~k, V = −~i + 4~j + ~k e W = 5~i + ~j − 2~k é  v1 (V × W ) · U = det  w1 u1 Julho 2010 v2 w2 u2   v3 −1 w3  = det  5 u3 2 4 1 −1  1 −2  = −84. 3 Reginaldo J. Santos 192 Vetores no Plano e no Espaço V ×W θ h = ||U || | cos θ | U W V Figura 3.25. Volume do paralelepı́pedo determinado por V, W e U Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 3.2 Produtos de Vetores 193 Teorema 3.8. Dados três vetores no espaço, U, V e W, |(V × W ) · U | é numericamente igual ao volume do paralelepı́pedo determinado por U, V e W. Demonstração. O volume do paralelepı́pedo determinado por U, V e W é igual ao produto da área da base pela altura, ou seja, pela definição do produto vetorial, o volume é dado por Volume = ||V × W || h . Mas, como vemos na Figura 3.25 a altura é h = ||U ||| cos θ |, o que implica que Volume = ||V × W || ||U ||| cos θ | = |(V × W ) · U | .  Exemplo 3.14. Sejam V = 4~i, W = 2~i + 5~j e U = 3~i + 3~j + 4~k. O volume do paralelepı́pedo com um vértice na origem e arestas determinadas por U, V e W é dado por   4 0 0 volume = |(V × W ) · U | = | det  2 5 0  | = |80| = 80 . 3 3 4 Julho 2010 Reginaldo J. Santos 194 Vetores no Plano e no Espaço U V W Figura 3.26. Paralelepı́pedo determinado por U, V e W do Exemplo 3.14 Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 3.2 Produtos de Vetores 195 Segue imediatamente do Teorema 3.7 e do Teorema 3.8 um critério para saber se três vetores são paralelos a um mesmo plano. Corolário 3.9. Sejam U = u1~i + u2~j + u3~k, V = v1~i + v2~j + v3~k e W = w1~i + w2~j + w3~k. Estes vetores são coplanares (isto é, são paralelos a um mesmo plano) se, e somente se,  v1 (V × W ) · U = det  w1 u1 v2 w2 u2  v3 w3  = 0 . u3 Exemplo 3.15. Vamos verificar que os pontos P = (0, 1, 1), Q = (1, 0, 2), R = (1, −2, 0) e S = (−2, 2, −2) são coplanares, isto é, pertencem a um mesmo plano. Com estes pontos podemos construir os vetores −→ PQ= (1 − 0, 0 − 1, 2 − 1) = (1, −1, 1), −→ PR= (1 − 0, −2 − 1, 0 − 1) = (1, −3, −1) e −→ PS = (−2 − 0, 2 − 1, −2 − 1) = (−2, 1, −3) Julho 2010 Reginaldo J. Santos 196 Vetores no Plano e no Espaço −→ Os pontos P, Q, R e S pertencem a um mesmo plano se, e somente se, os vetores PQ, −→ −→ PR e PS são coplanares. E isto acontece se, e somente se, o produto misto deles é igual zero.   1 −3 −1 −→ −→ −→ 1 −3  = 0. ( PR × PS ) · PQ= det  −2 1 −1 1 Assim, P, Q, R e S são coplanares. O resultado a seguir será usado no próximo capı́tulo para deduzir as equações paramétricas do plano. Corolário 3.10. Sejam U, V e W vetores coplanares não nulos no espaço. (a) Então a equação vetorial xU + yV + zW = 0̄ tem solução não trivial, em que x, y e z são escalares. (b) Então um dos vetores U, V ou W é combinação linear (soma de múltiplos escalares) dos outros dois. (c) Se V e W são não paralelos, então U é combinação linear de V e W. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 3.2 Produtos de Vetores 197 Demonstração. (a) Seja A a matriz cujas colunas são U, V e W escritos como vetores colunas. A equação xU + yV + zW = 0̄ é equivalente ao sistema AX = 0̄. Se U, V e W são coplanares, então det( A) = det( At ) = (U × V ) · W = 0. Logo a equação xU + yV + zW = 0̄ tem solução não trivial. (b) Pelo item anterior a equação xU + yV + zW = 0̄ possui solução não trivial. Mas, se isto acontece, então um dos escalares x ou y ou z pode ser diferente de zero. Se x 6= 0, então U = (−y/x )V + (−z/x )W, ou seja, o vetor U é combinação linear de V e W. De forma semelhante, se y 6= 0, então V é combinação linear de U e W e se z 6= 0, então W é combinação linear de U e V. (c) Como U, V e W são coplanares, então a equação xU + yV + zW = 0̄ possui solução não trivial com x 6= 0. Pois, caso contrário yV + zW = 0̄ com y ou z não simultaneamente nulos o que implicaria que V e W seriam paralelos (por que?). Logo U = (−y/x )V + (−z/x )W.  Exemplo 3.16. Considere os vetores −→ U = PQ= (1, −1, 1), −→ V = PR= (1, −3, −1) e −→ W = PS = (−2, 1, −3) do Exemplo 3.15 na página 195. A equação xU + yV + zW = 0̄ Julho 2010 Reginaldo J. Santos 198 Vetores no Plano e no Espaço é equivalente ao sistema   x + y − 2z = 0 − x − 3y + z = 0  x − y − 3z = 0 Escalonando a matriz do sistema obtemos    1 1 −2 1 1  −1 −3 1  ∼  0 −2 1 −1 −3 0 −2    −2 1 1 −2 −1  ∼  0 −2 −1  −1 0 0 0 A última matriz corresponde ao sistema  x + y − − 2y − 2z z Assim, = 0 = 0 5α α U − V + αW = 0̄. 2 2 Logo 5 1 W = − U + V. 2 2 Verifique que realmente vale esta relação entre os vetores U, V e W. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 3.2 Produtos de Vetores 199 Exercı́cios Numéricos (respostas na página 515) 3.2.1. Determine a equação da reta no plano que é perpendicular ao vetor N = (2, 3) e passa pelo ponto P0 = (−1, 1). −→ 3.2.2. Seja O = (0, 0, 0). Qual o lugar geométrico dos pontos P = ( x, y, z) tais que || OP ||2 = 4? Qual figura é representada pela equação x2 + y2 = 4? 3.2.3. Sejam V = ~i + 2~j − 3~k e W = 2~i + ~j − 2~k. (a) V + W; (b) V − W; (c) 2V − 3W. Determine vetores unitários paralelos aos vetores 3.2.4. Determine o valor de x para o qual os vetores V = x~i + 3~j + 4~k e W = 3~i + ~j + 2~k são perpendiculares. 3.2.5. Demonstre que não existe x tal que os vetores V = x~i + 2~j + 4~k e W = x~i − 2~j + 3~k são perpendiculares. 3.2.6. Ache o ângulo entre os seguintes pares de vetores: (a) 2~i + ~j e ~j −~k; (b) ~i + ~j +~k e −2~j − 2~k; (c) 3~i + 3~j e 2~i + ~j − 2~k. 3.2.7. Decomponha W = −~i − 3~j + 2~k como a soma de dois vetores W1 e W2 , com W1 paralelo ao vetor ~j + 3~k e W2 ortogonal a este último. (Sugestão: revise o Exemplo 3.10 na página 178) 3.2.8. Ache o vetor unitário da bissetriz do ângulo entre os vetores V = 2~i + 2~j + ~k e W = 6~i + 2~j − 3~k. (Sugestão: observe que a soma de dois vetores está na direção da bissetriz se, e somente se, os dois tiverem o mesmo comprimento. Portanto, tome múltiplos escalares de V e W de forma que eles tenham o mesmo comprimento e tome o vetor unitário na direção da soma deles.) 3.2.9. Verifique se os seguintes pontos pertencem a um mesmo plano: (a) A = (2, 2, 1), B = (3, 1, 2), C = (2, 3, 0) e D = (2, 3, 2); (b) A = (2, 0, 2), B = (3, 2, 0), C = (0, 2, 1) e D = (10, −2, 1); 3.2.10. Calcule o volume do paralelepı́pedo que tem um dos vértices no ponto A = (2, 1, 6) e os três vértices adjacentes nos pontos B = (4, 1, 3), C = (1, 3, 2) e D = (1, 2, 1). Julho 2010 Reginaldo J. Santos 200 Vetores no Plano e no Espaço 3.2.11. Calcule a área do paralelogramo em que três vértices consecutivos são A = (1, 0, 1), B = (2, 1, 3) e C = (3, 2, 4). 3.2.12. Calcule a área do triângulo com vértices A = (1, 2, 1), B = (3, 0, 4) e C = (5, 1, 3). √ 3.2.13. Ache X tal que X × (~i +~k ) = 2(~i + ~j −~k) e || X || = 6. √ 3.2.14. Sabe-se que o vetor X é ortogonal a ~i + ~j e a −~i +~k, tem norma 3 e sendo θ o ângulo entre X e ~j, tem-se cos θ > 0. Ache X. 3.2.15. Mostre que A = (3, 0, 2), B = (4, 3, 0) e C = (8, 1, −1) são vértices de um triângulo retângulo. Em qual dos vértices está o ângulo reto? 3.2.16. Considere dois vetores V e W tais que ||V || = 5, ||W || = 2 e o ângulo entre V e W é 60◦ . Determine, como combinação linear de V e W (xV + yW): (a) Um vetor X tal que X · V = 20 e X · W = 5 (b) Um vetor X tal que X × V = 0̄ e X · W = 12. Exercı́cios usando o M ATLABr >> V=[v1,v2,v3] cria um vetor V, usando as componentes numéricas v1, v2, v3. Por exemplo >> V=[1,2,3] cria o vetor V = (1, 2, 3); >> subs(expr,x,num) substitui x por num na expressão expr; >> solve(expr) determina a solução da equação expr=0; Comandos numéricos do pacote GAAL: >> V=randi(1,3) cria um vetor aleatório com componentes inteiras; >> no(V) calcula a norma do vetor V. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 3.2 Produtos de Vetores 201 >> pe(V,W) calcula o produto escalar do vetor V pelo vetor W. >> pv(V,W) calcula o produto vetorial do vetor V pelo vetor W. Comandos gráficos do pacote GAAL: >> desvet(P,V) desenha o vetor V com origem no ponto P e >> desvet(V) desenha o vetor V com origem no ponto O = (0, 0, 0). >> po([P1;P2;...;Pn]) desenha os pontos P1, P2, ..., Pn. >> lineseg(P1,P2,’cor’) desenha o segmento de reta P1P2. >> eixos desenha os eixos coordenados. >> box desenha uma caixa em volta da figura. >> axiss reescala os eixos com a mesma escala. >> rota faz uma rotação em torno do eixo z. >> zoom3(fator) amplifica a região pelo fator. >> tex(P,’texto’) coloca o texto no ponto P. 3.2.17. Digite no prompt demog21, (sem a vı́rgula!). Esta função demonstra as funções gráficas para vetores. 3.2.18. Coloque em duas variáveis V e W dois vetores bi-dimensionais ou tri-dimensionais a seu critério. (a) Use a função ilvijk(V) para visualizar o vetor V como uma soma de múltiplos escalares (combinação linear) dos vetores ~i, ~j e ~k. (b) Use a função ilpv(V,W) para visualizar o produto vetorial V × W. Julho 2010 Reginaldo J. Santos 202 Vetores no Plano e no Espaço (c) Use a função ilproj(W,V) para visualizar a projeção de V em W. 3.2.19. Use o M ATLABr para resolver os Exercı́cios Numéricos Exercı́cios Teóricos 3.2.20. Mostre que em um triângulo isósceles a mediana relativa à base é perpendicular à base. 3.2.21. Mostre que o ângulo inscrito em uma semicircunferência é reto. −→ −→ Sugestão para os próximos 2 exercı́cios: Considere o paralelogramo ABCD. Seja U = AB e V = AD. Observe que as diagonais do paralelogramo são U + V e U − V. 3.2.22. Mostre que se as diagonais de um paralelogramo são perpendiculares então ele é um losango. 3.2.23. Mostre que se as diagonais de um paralelogramo têm o mesmo comprimento então ele é um retângulo. 3.2.24. Se V · W = V · U e V 6= 0̄, então W = U? 3.2.25. Mostre que se V é ortogonal a W1 e W2 , então V é ortogonal a α1 W1 + α2 W2 . 3.2.26. Demonstre que as diagonais de um losango são perpendiculares. (Sugestão: mostre que −→ −→ −→ −→ −→ −→ AC · BD = 0, usando o fato de que AB= DC e || AB || = || BC ||.) 3.2.27. Sejam V um vetor não nulo no espaço e α, β e γ os ângulos que V forma com os vetores ~i,~j e ~k, respectivamente. Demonstre que cos2 α + cos2 β + cos2 γ = 1 . (Sugestão: cos α = V ·~i , ||V ||||~i || cos β = V ·~j ||V ||||~j|| e cos γ = V ·~k ) ||V ||||~k|| 3.2.28. Demonstre que, se V e W são vetores quaisquer, então:  1 (a) V · W = ||V + W ||2 − ||V − W ||2 ; 4 Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 3.2 Produtos de Vetores (b) ||V ||2 + ||W ||2 = 203  1 ||V + W ||2 + ||V − W ||2 . 2 (Sugestão: desenvolva os segundos membros das igualdades ||V + W ||2 = (V + W ) · (V + W ) e ||V − W ||2 = (V − W ) · (V − W )) acima observando que 3.2.29. Demonstre que se V e W são vetores quaisquer, então: (a) |V · W | ≤ ||V || ||W ||; (b) ||V + W || ≤ ||V || + ||W ||; (Sugestão: mostre que ||V + W ||2 = (V + W ) · (V + W ) ≤ (||V || + ||W ||)2 , usando o item anterior) (c) ||V || − ||W || ≤ ||V − W ||. (Sugestão: defina U = V − W e aplique o item anterior a U e W) 3.2.30. O produto vetorial é associativo? Justifique a sua resposta. (Sugestão: experimente com os vetores ~i, ~j, ~k) 3.2.31. Se V × W = V × U e V 6= 0̄, então W = U? 3.2.32. Demonstre que se V e W são vetores quaisquer no espaço, então ||V × W || ≤ ||V || ||W ||. 3.2.33. Se U, V e W são vetores no espaço, prove que |U · (V × W )| ≤ ||U || ||V || ||W ||. (Sugestão: use o Teorema 3.2 na página 172 e o exercı́cio anterior) 3.2.34. Mostre que U · (V × W ) = V · (W × U ) = W · (U × V ). (Sugestão: use as propriedades do determinante) 3.2.35. Mostre que (a) (αU1 + βU2 ) · (V × W ) = αU1 · (V × W ) + βU2 · (V × W ); (b) U · [(αV1 + βV2 ) × W ] = αU · (V1 × W ) + βU · (V2 × W ); (c) U · [V × (αW1 + βW2 )] = αU · (V × W1 ) + βU · (V × W2). Julho 2010 Reginaldo J. Santos 204 Vetores no Plano e no Espaço (d) U · (V × W ) = U · [(V + αU + βW ) × W ]. (Sugestão: use as propriedades dos produtos escalar e vetorial) 3.2.36. Prove a identidade de Lagrange ||V × W ||2 = ||V ||2 ||W ||2 − (V · W )2 . 3.2.37. Mostre que a área do triângulo com vértices ( xi , yi ), para i = 1, 2, 3 é igual à | det( A)|/2, em que   x1 y1 1 A =  x2 y2 1  . x3 y3 1 (Sugestão: Marque os pontos P1 = ( x1 , y1 , 1), P2 = ( x2 , y2 , 1), P3 = ( x3 , y3 , 1) e P10 = ( x1 , y1 , 0). O volume −→ −→ −→ do paralelepı́pedo determinado por P1 , P2 , P3 e P10 é dado por | P1 P10 · P1 P2 × P1 P3 |. Mas, a altura deste paralelepı́pedo é igual à 1. Assim, o seu volume é igual à área da base que é o paralelogramo −→ −→ −→ determinado por P1 , P2 e P3 . Observe que OP10 , P1 P2 e P1 P3 são paralelos ao plano xy.) 3.2.38. Sejam U1 , U2 e U3 três vetores unitários mutuamente ortogonais. Se A = [ U1 U2 U3 ] é uma matriz 3 × 3 cujas colunas são os vetores U1 , U2 e U3 , então A é invertı́vel e A−1 = At . (Sugestão: mostre que At A = I3 .) 3.2.39. Sejam U = (u1 , u2 , u3 ), V = (v1 , v2 , v3 ) e W = (w1 , w2 , w3 ). Prove a fórmula seguinte para o produto vetorial duplo U × (V × W ) = (U · W )V − (U · V )W, seguindo os seguintes passos: (a) Prove que Um Curso de Geometria Analı́tica e Álgebra Linear U × (~i × ~j) U × (~j ×~k) = (U · ~j)~i − (U ·~i )~j = (U ·~k)~j − (U · ~j)~k U × (~k ×~i ) = (U ·~i )~k − (U ·~k)~i Julho 2010 3.2 Produtos de Vetores 205 (b) Prove usando o item anterior e as propriedades do produto vetorial que U × (V ×~i ) U × (V × ~j) = (U ·~i )V − (U · V )~i = (U · ~j)V − (U · V )~j U × (V ×~k) = (U ·~k)V − (U · V )~k (c) Prove agora o caso geral usando o item anterior e as propriedades do produto vetorial. 3.2.40. (a) Prove que [ A × ( B × C )] + [ B × (C × A)] + [C × ( A × B)] = 0 (Sugestão: use o exercı́cio anterior). (b) Mostre que se ( A × C ) × B = 0̄, então A × ( B × C ) = ( A × B) × C, ou seja, o produto vetorial é, neste caso, associativo. Apêndice III: Demonstração do item (e) do Teorema 3.5 na página 183 Vamos dividir a demonstração da distributividade do produto vetorial em relação a soma V × (W + U ) = V × W + V × U e (V + W ) × U = V × U + W × U da seguinte forma: (a) (V × W ) · U > 0 se, e somente se, V, W e U satisfazem a regra da mão direita, isto é, se o ângulo entre V e W é θ, giramos o vetor V de um ângulo θ até que coincida com W e acompanhamos este movimento com os dedos da mão direita, então o polegar vai apontar no sentido de U. Julho 2010 Reginaldo J. Santos 206 Vetores no Plano e no Espaço (b) (V × W ) · U = V · (W × U ), ou seja, pode-se trocar os sinais × e · em (V × W ) · U. (c) V × (W + U ) = V × W + V × U e (V + W ) × U = V × U + W × U. Provemos, agora, os três itens acima. (a) Como vemos na Figura 3.25 na página 192 V, W e U satisfazem a regra da mão direita se, e somente se, 0 < θ < π/2, ou seja, cos θ > 0, em que θ é o ângulo entre V × W e U. Como, (V × W ) · U = ||V × W ||||U || cos θ, então V, W e U satisfazem a regra da mão direita se, e somente se, (V × W ) · U > 0. (b) Como o produto escalar é comutativo, pelo Teorema 3.8 na página 193, |(V × W ) · U | = |V · (W × U )|. Agora, pelo item (a), temos que (V × W ) · U e V · (W × U ) têm o mesmo sinal, pois V, W e U satisfazem a regra da mão direita se, e somente se, W, U e V também satisfazem. (c) Vamos provar a primeira igualdade e deixamos como exercı́cio para o leitor a demonstração da segunda. Vamos mostrar que o vetor Y = V × (W + U ) − V × W − V × U é o vetor nulo. Para isso, vamos mostrar que para qualquer vetor X no espaço X · Y = 0. Pela distributividade do produto escalar, Teorema 3.3 item (b) na página 175, temos que X · Y = X · V × (W + U ) − X · ( V × W ) − X · ( V × U ) . Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 3.2 Produtos de Vetores 207 Pelo item (b), temos que X·Y = ( X × V ) · (W + U ) − ( X × V ) · W − ( X × V ) · U = ( X × V ) · (W + U ) − ( X × V ) · (W + U ) = 0 Assim, X · Y = 0, para todo vetor X, em particular para X = Y, temos que Y · Y = ||Y ||2 = 0. Portanto, Y = 0̄, ou seja, V × (W + U ) = V × W + V × U. Julho 2010 Reginaldo J. Santos 208 Vetores no Plano e no Espaço Teste do Capı́tulo 1. Mostre que os pontos A = (4, 0, 1), B = (5, 1, 3), C = (3, 2, 5), D = (2, 1, 3) são vértices de um paralelogramo. Calcule a sua área. 2. Dado o triângulo de vértices A = (0, 1, −1), B = (−2, 0, 1) e C = (1, −2, 0), determine a medida da altura relativa ao lado BC. 3. Sejam U e V vetores no espaço, com V 6= 0̄. (a) Determine o número α, tal que U − αV seja ortogonal a V. (b) Mostre que (U + V ) × (U − V ) = 2V × U. 4. Determine x para que A = ( x, 1, 2), B = (2, −2, −3), C = (5, −1, 1) e D = (3, −2, −2) sejam coplanares. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 4 Retas e Planos 4.1 Equações de Retas e Planos 4.1.1 Equações do Plano Equação Geral No plano a equação geral de uma reta é ax + by + c = 0. No espaço um plano é o conjunto dos pontos P = ( x, y, z) que satisfazem a equação ax + by + cz + d = 0, 209 para a, b, c, d ∈ R, 210 Retas e Planos que é chamada equação geral do plano. Existe uma analogia entre uma reta no plano e um plano no espaço. No plano, a equação de uma reta é determinada se forem dados sua inclinação e um de seus pontos. No espaço, a inclinação de um plano é caracterizada por um vetor perpendicular a ele, chamado vetor normal ao plano e a equação de um plano é determinada se são dados um vetor normal e um de seus pontos. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 4.1 Equações de Retas e Planos 211 N = ( a, b, c) P0 = ( x0 , y0 , z0 ) π P = ( x, y, z) Figura 4.1. Plano perpendicular a N = ( a, b, c) e que passa por P0 = ( x0 , y0 , z0 ) Julho 2010 Reginaldo J. Santos 212 Retas e Planos Proposição 4.1. A equação geral de um plano π que passa por um ponto P0 = ( x0 , y0 , z0 ) e tem vetor normal N = ( a, b, c) é ax + by + cz + d = 0 , (4.1) em que d = −( ax0 + by0 + cz0 ). Demonstração. Um ponto P = ( x, y, z) pertence ao plano π se, e somente se, o vetor −→ P0 P for perpendicular ao vetor N, ou seja, −→ N · P0 P= 0 . (4.2) −→ Como, P0 P= ( x − x0 , y − y0 , z − z0 ), a equação (4.2) pode ser reescrita como a( x − x0 ) + b(y − y0 ) + c(z − z0 ) = 0, ou seja, ax + by + cz − ( ax0 + by0 + cz0 ) = 0 .  Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 4.1 Equações de Retas e Planos 213 z z z − dc − da x −d b y x y x y Figura 4.2. Planos ax + d = 0, by + d = 0 e cz + d = 0 Julho 2010 Reginaldo J. Santos 214 Retas e Planos z z − dc − dc − db x z − da y x − da y x − db y Figura 4.3. Planos by + cz + d = 0, ax + cz + d = 0 e ax + by + d = 0 Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 4.1 Equações de Retas e Planos 215 z z z 0  y ax = 0 + , cz = x by = + 0, cz = 0   y ax = 0 + , cz = 0  0, = 0 x = + cz by  y x 0, 0 z = by = ax + z= a x 0, +b y= 0  x y x y Figura 4.4. Planos ax + by + cz = 0 Julho 2010 Reginaldo J. Santos 216 Retas e Planos z z − dc  x by = 0 +c , z= y 0 x x − db y  z=0 , ax +b y =0 − da Figura 4.5. Planos ax + by + cz = 0 e ax + by + cz + d = 0 Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 4.1 Equações de Retas e Planos 217 Exemplo 4.1. Vamos encontrar a equação do plano π que passa pelo ponto P0 = (1, −2, −2) e é perpendicular ao vetor N = (2, −1, 2). Da Proposição 4.1, a equação do plano é da forma ax + by + cz + d = 0 , em que os coeficientes de x, y e z são as componentes do vetor normal, ou seja, a = 2, b = −1 e c = 2. Assim, a equação de π é da forma 2x − y + 2z + d = 0 . Para determinar o coeficiente d, ao invés de usarmos a Proposição 4.1, vamos usar o fato de que P0 = (1, −2, −2) pertence a π. Mas, o ponto P0 pertence a π se, e somente se, as suas coordenadas satisfazem a equação de π, ou seja, 2 · 1 − 1 · (−2) + 2 · (−2) + d = 0 . Logo, d = 2 + 2 − 4 = 0. Substituindo-se d = 0 na equação anterior do plano obtemos que a equação do plano π é 2x − y + 2z = 0 . Julho 2010 Reginaldo J. Santos 218 Retas e Planos z 2 2 4 y x Figura 4.6. Plano 2x − y + 2z = 0 Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 4.1 Equações de Retas e Planos 219 No plano, a equação de uma reta é determinada se forem dados dois pontos da reta. Analogamente, no espaço, a equação de um plano é determinada se são dados três pontos P1 , P2 e P3 não colineares (isto é, não pertencentes a uma mesma reta). Com −→ −→ os três pontos podemos “formar” os vetores P1 P2 e P1 P3 (Figura 4.7). Julho 2010 Reginaldo J. Santos 220 Retas e Planos −→ −→ N = P1 P2 × P1 P3 P3 = ( x3 , y3 , z3 ) P1 = ( x1 , y1 , z1 ) π P2 = ( x2 , y2 , z2 ) P = ( x, y, z) Figura 4.7. Plano que passa por três pontos Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 4.1 Equações de Retas e Planos 221 z 1/4 1/2 1/2 y x Figura 4.8. Plano 2x + 2y + 4z − 1 = 0 Julho 2010 Reginaldo J. Santos 222 Retas e Planos Exemplo 4.2. Vamos encontrar a equação do plano π que passa pelos pontos P1 = ( 21 , 0, 0), P2 = (0, 12 , 0) e P3 = (0, − 21 , 12 ). Com os três pontos podemos “for−→ −→ mar” os vetores P1 P2 e P1 P3 . O vetor −→ −→ 1 1 1 1 1 1 1 1 N = P1 P2 × P1 P3 = (− , , 0) × (− , − , ) = ( , , ) 2 2 2 2 2 4 4 2 é um vetor normal ao plano. Assim, a equação do plano é da forma 1 1 1 x + y + z + d = 0, 4 4 2 em que os coeficientes de x, y e z são as componentes do vetor N. Para determinar o coeficiente d, vamos usar o fato de que o ponto P1 = ( 21 , 0, 0) pertence ao plano π. Mas, o ponto P1 pertence a π se, e somente se, as suas coordenadas satisfazem a equação de π, ou seja, 1 1 1 1 · + ·0+ ·0+ d = 0. 4 2 4 2 Logo, d = 18 . Finalmente, uma equação do plano π é 1 1 1 1 x+ y+ z− = 0 4 4 2 8 ou multiplicando por 8, obtemos 2x + 2y + 4z − 1 = 0. Alternativamente, podemos encontrar a equação do plano da seguinte forma. Como −→ −→ −→ vimos anteriormente (Corolário 3.9 na página 195), três vetores, P1 P P1 P2 e P1 P3 , são coplanares se, e somente se, o produto misto entre eles é zero. Assim, um ponto P = ( x, y, z) pertence a π se, e somente se, −→ −→ −→ P1 P · ( P1 P2 × P1 P3 ) = 0 . Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 4.1 Equações de Retas e Planos 223 Mas, −→ P1 P −→ P1 P2 −→ P1 P3 Então, x − 12  det − 21 − 21  y 1 2 − 21 1 = ( x − , y, z) 2 1 1 = (− , , 0) 2 2 1 1 1 = (− , − , ). 2 2 2  z 1 1 1 1 0  = (x − ) + y + z 4 2 4 2 1 2 e assim a equação do plano é dada por 1 1 1 1 x + y + z − = 0. 4 4 2 8 ou multiplicando por 8, 2x + 2y + 4z − 1 = 0 A equação do plano também é determinada se ao invés de serem dados três pontos, forem dados um ponto P1 do plano e dois vetores paralelos ao plano, V = (v1 , v2 , v3 ) e W = (w1 , w2 , w3 ), desde que eles sejam não paralelos. Ou ainda se forem dados dois pontos P1 e P2 do plano e um vetor paralelo ao plano V = (v1 , v2 , v3 ), já que −→ neste caso podemos formar o vetor W = P1 P2 = (w1 , w2 , w3 ) que é também paralelo ao plano. Nestes casos temos novamente pelo menos duas maneiras de encontrarmos a equação do plano. Uma delas é observando que o vetor N = V × W é um vetor normal ao plano. Desta forma temos um ponto do plano e um vetor normal ao plano. A outra é observando que temos três vetores paralelos ao plano: Julho 2010 Reginaldo J. Santos 224 Retas e Planos −→ P1 P= ( x − x1 , y − y1 , z − z1 ), V e W. Como vimos anteriormente (Corolário 3.9 na página 195), os três vetores são coplanares se, e somente se, o produto misto entre eles é zero, ou seja,   x − x1 y − y1 z − z1 −→ v2 v3  = 0 . P1 P · (V × W ) = det  v1 (4.3) w1 w2 w3 Assim, um ponto P = ( x, y, z) pertence a um plano π que passa pelo ponto P1 = ( x1 , y1 , z1 ) e é paralelo aos vetores V = (v1 , v2 , v3 ) e W = (w1 , w2 , w3 ) (não paralelos) se, e somente se, a equação (4.3) é verdadeira. Observação. Não faz sentido dizer que um vetor pertence a um plano. Pois, por um lado, um plano é um conjunto de pontos e por outro, os vetores são “livres”, podem ser “colocados” em qualquer ponto. O correto é dizer que um vetor é paralelo a um plano. Equações Paramétricas Além da equação geral do plano podemos também caracterizar os pontos de um plano da seguinte forma. Considere um plano π, um ponto P0 = ( x0 , y0 , z0 ) pertencente a π e dois vetores V = (v1 , v2 , v3 ) e W = (w1 , w2 , w3 ) não colineares, paralelos a π. Um ponto P = ( x, y, z) pertence a π se, e somente se, o vetor Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 4.1 Equações de Retas e Planos 225 −→ P0 P= ( x − x0 , y − y0 , z − z0 ) é uma combinação linear de V e W (Corolário 3.10 na página 196), ou seja, se existem escalares t e s tais que −→ P0 P= tV + sW. (4.4) Escrevendo em termos de componentes (4.4) pode ser escrito como ( x − x0 , y − y0 , z − z0 ) = (tv1 + sw1 , tv2 + sw2 , tv3 + sw3 ). Logo um ponto P = ( x, y, z) pertence a π se, e somente se, satisfaz as equações   x = x 0 + v 1 t + w1 s y = y 0 + v 2 t + w2 s para t, s ∈ R.  z = z 0 + v 3 t + w3 s Estas equações são chamadas equações paramétricas do plano. Exemplo 4.3. Podemos obter equações paramétricas do plano do Exemplo 4.2 na página 222 usando o fato de que ele passa pelo ponto P1 = (1/2, 0, 0) e é paralelo −→ −→ aos vetores P1 P2 = (−1/2, 1/2, 0), P1 P3 = (−1/2, −1/2, 1/2). Assim,    x y   z = = = 1 1 1 2 − 2t − 2s 1 1 2t − 2s 1 2s para t, s ∈ R. Exemplo 4.4. Para encontrarmos as equações paramétricas do plano do Exemplo 4.1 na página 217 podemos resolver a equação geral do plano 2x + 2y + 4z − 1 = 0. Julho 2010 Reginaldo J. Santos 226 Retas e Planos Podemos proceder como no caso de sistemas lineares e considerar as variáveis y e z livres: z = t e y = s. Assim, x = 21 − 2 t − s e portanto   x = 12 − 2 t − s para t, s ∈ R. y = s  z = t são equações paramétricas do plano. Destas equações obtemos que os vetores V1 = (−2, 0, 1) e V2 = (−1, 1, 0) são paralelos ao plano. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 4.1 Equações de Retas e Planos 227 P = ( x, y, z) r −→ r OP −→ P0 P V = ( a, b, c) P0 = ( x0 , y0 , z0 ) V = ( a, b, c) −→ OP0 Figura 4.9. Reta paralela ao vetor V = ( a, b, c) Julho 2010 Reginaldo J. Santos 228 Retas e Planos 4.1.2 Equações da Reta Equações Paramétricas Vamos supor que uma reta r seja paralela a um vetor V = ( a, b, c) não nulo e que passe por um ponto P0 = ( x0 , y0 , z0 ). Um ponto P = ( x, y, z) pertence a reta r se, e −→ −→ somente se, o vetor P0 P é paralelo ao vetor V, isto é, se o vetor P0 P é um múltiplo escalar de V, ou seja, −→ P0 P= t V . (4.5) Em termos de componentes, a equação (4.5) pode ser escrita como ( x − x0 , y − y0 , z − z0 ) = (ta, tb, tc). Logo, x − x0 = t a, y − y0 = t b e z − z0 = t c. Ou seja, a reta r pode ser descrita como sendo o conjunto dos pontos P = ( x, y, z) tais que   x y  z = x0 + t a = y0 + t b, = z0 + t c para t ∈ R. (4.6) As equações (4.6), chamadas equações paramétricas da reta, são de uma reta r que passa por um ponto P0 = ( x0 , y0 , z0 ) e é paralela ao vetor V = ( a, b, c), chamado vetor diretor da reta r. O parâmetro t nas equações (4.6) pode ser interpretado como o instante de tempo, se o ponto P = ( x, y, z) descreve o movimento de uma partı́cula em movimento retilı́neo uniforme com vetor velocidade V = ( a, b, c). Observe que para t = 1, P = ( x, y, z) = ( x0 + a, y0 + b, z0 + c), para t = 2, Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 4.1 Equações de Retas e Planos 229 P = ( x, y, z) = ( x0 + 2a, y0 + 2b, z0 + 2c) e assim por diante. As equações (4.6), podem ser reescritas como ( x, y, z) = ( x0 + at, y0 + bt, z0 + ct), que é chamada equação vetorial da reta r. Julho 2010 Reginaldo J. Santos 230 Retas e Planos z z z z0 z0 c a x0 y0 y x x0 b y x y0 y x Figura 4.10. Retas ( x, y, z) = ( x0 + at, y0 , z0 ), ( x, y, z) = ( x0 , y0 + bt, z0 ) e ( x, y, z) = ( x0 , y0 , z0 + ct) z z z z0 x0 x y x y0 y y x Figura 4.11. Retas ( x, y, z)=( x0 + at, y0 + bt, z0 ), ( x, y, z)=( x0 , y0 + bt, z0 + ct) e ( x, y, z)=( x0 + at, y0 , z0 + ct) Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 4.1 Equações de Retas e Planos 231 z z c a b x x y y Figura 4.12. Retas ( x, y, z) = ( at, bt, ct) e ( x, y, z) = ( x0 + at, y0 + bt, z0 + ct) Julho 2010 Reginaldo J. Santos 232 Retas e Planos Observação. Não faz sentido dizer que o vetor está contido na reta. Por um lado, a reta é um conjunto de pontos e por outro um vetor não tem posição fixa. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 4.1 Equações de Retas e Planos 233 Exemplo 4.5. A reta que passa por P0 = (−3, 3/2, 4) e é paralela ao vetor V = (−6, 1, 4) tem equações paramétricas   x = −3 − 6 t r: para t ∈ R y = 23 + t  z = 4 + 4t Podemos encontrar a interseção da reta r com os planos coordenados xy, yz e xz. A equação do plano xy é z = 0, do plano yz é x = 0 e do plano xz é y = 0. Substituindo z = 0 nas equações de r, obtemos t = −1, x = 3 e y = 1/2, ou seja, • o ponto de interseção de r com o plano xy é 1 ( x, y, z) = (3, , 0). 2 De forma análoga obtemos • o ponto de interseção de r com o plano yz é ( x, y, z) = (0, 1, 2), • o ponto de interseção de r com o plano xz ( x, y, z) = (6, 0, −2). Equações na Forma Simétrica Se todas componentes do vetor diretor da reta r são não nulos, podemos resolver cada equação em (4.6) para t e igualar os resultados obtendo o que chamamos de Julho 2010 Reginaldo J. Santos 234 Retas e Planos Figura 4.13. Reta que passa pelo ponto P0 = (−3, 3/2, 4) paralela ao vetor V = (−6, 1, 4) Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 4.1 Equações de Retas e Planos 235 equações na forma simétrica de r: y − y0 z − z0 x − x0 = = . a b c No Exemplo 4.5 as equações de r na forma simétrica são: x+3 y − 3/2 z−4 = = . −6 1 4 Exemplo 4.6. Vamos encontrar as equações paramétricas da reta r que passa pelos pontos P1 = (3, 0, 2) e P2 = (0, 3, 3). O vetor −→ P1 P2 = (0 − 3, 3 − 0, 3 − 2) = (−3, 3, 1) é paralelo a r e o ponto P1 = (3, 0, 2) pertence a r. Portanto, as equações paramétricas de r são   x = 3−3t y = 3t para t ∈ R.  z = 2+t Exemplo 4.7. Vamos encontrar as equações paramétricas da reta r, interseção dos planos π1 : π2 : 2x + y + 4z − 4 2x − y + 2z = 0 = 0. Vetores normais destes planos são N1 = (2, 1, 4) e N2 = (2, −1, 2) . Julho 2010 Reginaldo J. Santos 236 Retas e Planos z 3 P2 2 P1 r 3 x 3 y Figura 4.14. Reta que passa pelos pontos P1 = (3, 0, 2) e P2 = (0, 3, 3) Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 4.1 Equações de Retas e Planos 237 z 1 2 4 y x Figura 4.15. π1 : 2x + y + 4z − 4 = 0 Julho 2010 Reginaldo J. Santos 238 Retas e Planos z 5/2 5/2 5 y x Figura 4.16. π2 : 2x − y + 2z = 0 Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 4.1 Equações de Retas e Planos 239 z 5/2 1 5/2 2 4 5 y x Figura 4.17. π1 , π2 e π1 ∩ π2 Julho 2010 Reginaldo J. Santos 240 Retas e Planos A reta r está contida em ambos os planos, portanto é perpendicular a ambos os vetores normais. Assim, a reta r é paralela ao produto vetorial N1 × N2 (Teorema 3.5 (c) na página 183).        1 4 2 4 2 1 N1 × N2 = det , − det , det = (6, 4, −4) . −1 2 2 2 2 −1 Assim, V = N1 × N2 = (6, 4, −4) é um vetor diretor de r. Agora, precisamos encontrar um ponto da reta r. Este ponto é uma solução particular do sistema  2x + y + 4z − 4 = 0 (4.7) 2x − y + 2z =0 Para encontrar uma solução particular do sistema, atribuı́mos um valor a uma das incógnitas (neste exemplo podemos fazer x = 0) e resolvemos o sistema obtido, que é de duas equações e duas incógnitas  y + 4z − 4 = 0 −y + 2z =0 Obtemos então, y = 4/3 e z = 2/3, ou seja, o ponto P0 = (0, 4/3, 2/3) é um ponto da reta r, pois é uma solução particular do sistema (4.7). Assim, as equações paramétricas de r são  6t  x = y = 4/3 + 4t para todo t ∈ R. (4.8)  z = 2/3 − 4t Alternativamente, podemos encontrar as equações paramétricas de r determinando a solução geral do sistema (4.7). Para isto devemos escalonar a matriz do sistema (4.7):   2 1 4 4 2 −1 2 0 Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 4.1 Equações de Retas e Planos 241 Precisamos “zerar” o outro elemento da 1a. coluna, que é a coluna do pivô, para isto, adicionamos à 2a. linha, menos a 1a. linha.   2 1 4 4 -1a. linha + 2a. linha −→ 2a. linha 0 −2 −2 −4 Agora, já podemos obter facilmente a solução geral do sistema dado, já que ele é equivalente ao sistema  2x + y + 4z = 4 − 2y − 2z = −4 A variável z é uma variável livre. Podemos dar a ela um valor arbitrário, digamos t, para t ∈ R qualquer. Assim, a solução geral do sistema dado é   x = 1 − 23 t para todo t ∈ R. (4.9) y = 2 − t  z = t Estas equações são diferentes das equações (4.8), mas representam a mesma reta, pois os vetores diretores obtidos das duas equações são paralelos e o ponto P0 = (1, 2, 0) satisfaz também as equações (4.9). Poderı́amos dizer também que (4.8) e (4.9) representam retas coincidentes. O próximo exemplo mostra como encontrar a equação da reta que é perpendicular a duas retas. Julho 2010 Reginaldo J. Santos 242 Retas e Planos z z z 3 3 3 3/2 3 3 3 6 x y x 1 3/22 3 6 y x y Figura 4.18. Retas r1 , r2 e r3 do Exemplo 4.8 Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 4.1 Equações de Retas e Planos 243 Exemplo 4.8. Achar as equações da reta r3 que intercepta as retas   x y r1 :  z = −1 + 2t = 1 + t, para todo t ∈ R = 0 e r2 : x − 2 = y−4 2 e z=3 e é perpendicular a ambas. Um ponto qualquer da reta r1 é descrito por Pr1 = (−1 + 2t, 1 + t, 0) e um ponto qualquer da reta r2 é da forma Pr2 = (2 + s, 4 + 2s, 3). Aqui é necessário o uso de um −→ parâmetro diferente para a reta r2 . O vetor Pr1 Pr2 = (3 + s − 2t, 3 + 2s − t, 3) “liga” um ponto qualquer de r1 a um ponto qualquer de r2 . Vamos determinar t e s tais −→ que o vetor Pr1 Pr2 seja perpendicular ao vetor diretor V1 = (2, 1, 0) de r1 e ao vetor diretor V2 = (1, 2, 0) de r2 , ou seja, temos que resolver o sistema ( −→ Pr1 Pr2 ·V1 = 9 + 4s − 5t = 0 ·V2 = 9 + 5s − 4t = 0 −→ Pr1 Pr2 A solução deste sistema é t = 1, s = −1. Logo Pr1 = (1, 2, 0), Pr2 = (1, 2, 3) e −→ V3 = Pr1 Pr2 = (0, 0, 3). Assim, as equações paramétricas da reta procurada são   x = 1 y = 2, para todo t ∈ R. r3 :  z = 3t Esta solução usou o fato de que as retas são reversas, isto é, elas não são paralelas, mas também não se interceptam. Como seria a solução se elas se interceptassem? Julho 2010 Reginaldo J. Santos 244 Retas e Planos Por exemplo se a reta r2 fosse dada por r2 : x − 2 = y−4 2 e z=0? Exercı́cios Numéricos (respostas na página 520) 4.1.1. Faça um esboço dos seguintes planos: (a) (b) (c) (d) 2x + 3y + 5z − 1 = 0 x − 2y + 4z = 0 3y + 2z − 1 = 0 2x + 3z − 1 = 0 (e) (f) (g) (h) 3x + 2y − 1 = 0 5y − 2 = 0 3z − 2 = 0 2x − 1 = 0 (e) (f) (g) (h) ( x, y, z) = (2 + 2t, 3 + t, 3) ( x, y, z) = (1, 2, 2 + 2t) ( x, y, z) = (1, 2 + 2t, 3) ( x, y, z) = (2 + 2t, 2, 3) 4.1.2. Faça um esboço das retas dadas a seguir: 3 1 (a) ( x, y, z) = (−3 + 3t, − t, 4 − 2t) 2 2 3 (b) ( x, y, z) = (2t, t, t) 2 (c) ( x, y, z) = (1 + t, 2, 3 + 2t) (d) ( x, y, z) = (1, 2 + 2t, 52 + 32 t) 4.1.3. Ache a equação do plano paralelo ao plano 2x − y + 5z − 3 = 0 e que passa por P = (1, −2, 1). 4.1.4. Encontre a equação do plano que passa pelo ponto P = (2, 1, 0) e é perpendicular aos planos x + 2y − 3z + 2 = 0 e 2x − y + 4z − 1 = 0. 4.1.5. Encontrar a equação do plano que passa pelos pontos P = (1, 0, 0) e Q = (1, 0, 1) e é perpendicular ao plano y = z. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 4.1 Equações de Retas e Planos 245 4.1.6. Determine a interseção da reta que passa pela origem e tem vetor diretor V = ~i + 2~j + ~k com o plano 2x + y + z = 5. 4.1.7. Verifique se as retas r : ( x, y, z) = (9t, 1 + 6t, −2 + 3t) e s : ( x, y, z) = (1 + 2t, 3 + t, 1) se interceptam e em caso afirmativo determine a interseção. (Sugestão: a questão é se as trajetórias se cortam e não se as partı́culas se chocam, ou seja, elas não precisam estar num ponto no mesmo instante.) 4.1.8. Dadas as retas r: x−2 y = =z 2 2 e s : x−2 = y = z, obtenha uma equação geral para o plano determinado por r e s. 4.1.9. Sejam P = (4, 1, −1) e r : ( x, y, z) = (2 + t, 4 − t, 1 + 2t). (a) Mostre que P 6∈ r; (b) Obtenha uma equação geral do plano determinado por r e P. 4.1.10. Dados os planos π1 : x − y + z + 1 = 0 e π2 : x + y − z − 1 = 0, determine o plano que contém π1 ∩ π2 e é ortogonal ao vetor (−1, 1, −1). 4.1.11. Quais dos seguintes pares de planos se cortam segundo uma reta? (a) x + 2y − 3z − 4 = 0 e x − 4y + 2z + 1 = 0; (b) 2x − y + 4z + 3 = 0 e 4x − 2y + 8z = 0; (c) x − y = 0 e x + z = 0. 4.1.12. Encontre as equações da reta que passa pelo ponto Q = (1, 2, 1) e é perpendicular ao plano x − y + 2z − 1 = 0. 4.1.13. Ache equações da reta que passa pelo ponto P = (1, 0, 1) e é paralela aos planos 2x + 3y + z + 1 = 0 e x − y + z = 0. Julho 2010 Reginaldo J. Santos 246 Retas e Planos 4.1.14. Seja r a reta determinada pela interseção dos planos x + y − z = 0 e 2x − y + 3z − 1 = 0. Ache a equação do plano que passa por A = (1, 0, −1) e contém a reta r. 4.1.15. Sejam r e s retas reversas passando por A = (0, 1, 0) e B = (1, 1, 0) e por C = (−3, 1, −4) e D = (−1, 2, −7), respectivamente. Obtenha uma equação da reta concorrente com r e s e paralela ao vetor V = (1, −5, −1). 4.1.16. (a) Mostre que os planos 2x − y + z = 0 e x + 2y − z = 1 se interceptam segundo uma reta r; (b) Ache equações da reta que passa pelo ponto A = (1, 0, 1) e intercepta a reta r ortogonalmente. 4.1.17. Considere as retas ( x, y, z) = t(1, 2, −3) e ( x, y, z) = (0, 1, 2) + s(2, 4, −6). Encontre a equação geral do plano que contém estas duas retas. 4.1.18. Determine as equações paramétricas da reta interseção dos planos: (a) x + 2y − 3z − 4 = 0 e x − 4y + 2z + 1 = 0; (b) x − y = 0 e x + z = 0. 4.1.19. Considere o plano π : 2x + 2y − z = 0. (a) Determine as retas r, interseção do plano π com o plano yz, s, interseção do plano π com o plano xz e t, interseção do plano π com o plano z = 2. Desenhe um esboço do plano π mostrando as retas r, s e t. (b) Determine o volume do tetraedro determinado pelo plano π, os planos coordenados xz e yz e o plano z = 2. (Sugestão: este volume é igual a 1/6 do volume do paralelepı́pedo determinado por −→ −→ −→ OA, OB e OC, em que O = (0, 0, 0), A é o ponto interseção do eixo z com o plano z = 2, B é a interseção das retas r e t e C é a interseção das retas s e t.) (c) Determine a área da face do tetraedro contida no plano π. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 4.1 Equações de Retas e Planos 247 (d) Determine a altura do tetraedro relativa a face contida no plano π. (Sugestão: a reta ortogonal ao plano π que passa pelo ponto A intercepta o plano π num ponto P de forma que a altura procurada −→ é igual à || AP ||) 4.1.20. Achar as equações da reta que intercepta as retas r1 e r2 e é perpendicular a ambas. (a)   x y r1 :  z = 1+t = 2 + 3t, para t ∈ R = 4t e r2 : x + 1 = z+2 y−1 = . 2 3 (b)   x y r1 :  z = −1 + t = 2 + 3t, para t ∈ R = 4t e r2 : x = z−3 y−4 = . 2 3 Exercı́cios usando o M ATLABr >> V=[v1,v2,v3] cria um vetor V, usando as componentes numéricas v1, v2, v3. Por exemplo >> V=[1,2,3] cria o vetor V = (1, 2, 3); >> V+W é a soma de V e W; >> V-W é a diferença V menos W; >> num*V é o produto do vetor V pelo escalar num; >> subs(expr,x,num,) substitui x por num na expressão expr; Julho 2010 Reginaldo J. Santos 248 Retas e Planos >> solve(expr) determina a solução da equação expr=0; Comandos numéricos do pacote GAAL: >> no(V) calcula a norma do vetor V. >> pe(V,W) calcula o produto escalar do vetor V pelo vetor W. >> pv(V,W) calcula o produto vetorial do vetor V pelo vetor W. >> subst(expr,[x,y,z],[a,b,c]) substitui na expressão expr as variáveis x,y,z por a,b,c, respectivamente. Comandos gráficos do pacote GAAL: >> lin(P,V) desenha a reta que passa por P com direção V. >> lin(P1,V1,P2,V2) desenha retas que passam por P1, P2, direções V1, V2. >> plan(P,N) desenha o plano que passa por P com normal N. >> plan(P1,N1,P2,N2) desenha planos que passam por P1, P2, normais N1, N2. >> plan(P1,N1,P2,N2,P3,N3) desenha planos que passam por P1, P2 e P3 com normais N1, N2 e N3. >> poplan(P1,P2,N2) desenha ponto P1 e plano passando por P2 com normal N2. >> poline(P1,P2,V2) desenha ponto P2 e reta passando por P2 com direção V2. >> lineplan(P1,V1,P2,N2) desenha reta passando por P1 com direção V1 e plano passando por P2 com normal N2. >> axiss reescala os eixos com a mesma escala. >> rota faz uma rotação em torno do eixo z. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 4.1 Equações de Retas e Planos 249 4.1.21. Digite no prompt demog22, (sem a vı́rgula!). Esta função demonstra as funções gráficas para visualização de retas e planos. 4.1.22. Use o M ATLABr para resolver os Exercı́cios Numéricos Exercı́cio Teórico 4.1.23. Seja ax + by + cz + d = 0 a equação de um plano π com abcd 6= 0. (a) Determine a interseção de π com os eixos; (b) Se P1 = ( p1 , 0, 0), P2 = (0, p2 , 0) e P3 = (0, 0, p3 ) são as interseções de π com os eixos, a equação de π pode ser posta sob a forma y z x + + = 1. p1 p2 p3 Julho 2010 Reginaldo J. Santos 250 Retas e Planos 4.2 Ângulos e Distâncias 4.2.1 Ângulos Ângulo entre Retas Com duas retas no espaço pode ocorrer um dos seguintes casos: (a) As retas se interceptam em um ponto, ou seja, são concorrentes; (b) As retas são paralelas (ou coincidentes); (c) As retas são reversas, isto é, não são paralelas mas também não se interceptam. Se as retas se interceptam, então elas determinam quatro ângulos, dois a dois opostos pelo vértice. O ângulo entre elas é definido como sendo o menor destes ângulos. Se as retas r1 e r2 são reversas, então por um ponto P de r1 passa um reta r20 que é paralela a r2 . O ângulo entre r1 e r2 é definido como sendo o ângulo entre r1 e r20 (Figura 4.19). Se as retas são paralelas o ângulo entre elas é igual à zero. Em qualquer dos casos, se V1 e V2 são vetores paralelos a r1 e r2 respectivamente, então o cosseno do ângulo entre elas é cos(r1 , r2 ) = | cos θ | , em que θ é o ângulo entre V1 e V2 . Lembrando que da definição de produto escalar (Definição 3.1 na página 170), podemos encontrar o cosseno do ângulo entre dois vetores, ou seja, cos θ = Um Curso de Geometria Analı́tica e Álgebra Linear V1 · V2 . ||V1 || ||V2 || Julho 2010 4.2 Ângulos e Distâncias 251 z r2 r20 V2 θ x P y V1 r1 Figura 4.19. O Ângulo entre duas retas reversas r1 e r2 Julho 2010 Reginaldo J. Santos 252 Retas e Planos Isto prova o resultado seguinte. Proposição 4.2. Sejam duas retas r1   x y :  z = x1 + t a1 = y1 + t b1 = z1 + t c1 r2   x y :  z = x2 + t a2 = y2 + t b2 para todo t ∈ R. = z2 + t c2 O cosseno do ângulo entre r1 e r2 é cos(r1 , r2 ) = | cos θ | = |V1 · V2 | , ||V1 || ||V2 || em que V1 = ( a1 , b1 , c1 ) e V2 = ( a2 , b2 , c2 ). Exemplo 4.9. Encontrar o ângulo entre a reta  r1 : e a reta r2 x 2x   x y :  z + y − z + 1 = 0 − y + z = 0 = 2t = 1−t para todo t ∈ R. = 2+3t Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 4.2 Ângulos e Distâncias 253 Vamos encontrar vetores paralelos a estas retas. A reta r1 é dada como a interseção de dois planos, portanto o produto vetorial dos vetores normais dos dois planos é paralelo a r1 . N1 = (1, 1, −1),  V1 = N1 × N2 =  det 1 −1 N2 = (2, −1, 1),     −1 1 −1 1 , − det , det 1 2 1 2 1 −1  = (0, −3, −3) é paralelo a r1 e V2 = (2, −1, 3) é paralelo a r2 . Assim, cos(r1 , r2 ) = = |V1 · V2 | |0 · 2 + (−3)(−1) + (−3) · 3| p = p 2 ||V1 || ||V2 || 0 + (−3)2 + (−3)2 · 22 + (−1)2 + 32 | − 6| 1 √ = √ . √ 7 18 · 14 Portanto, o ângulo entre r1 e r2 é 1 arccos ( √ ) ≈ 67o . 7 Ângulo entre Planos Sejam π1 e π2 dois planos com vetores normais N1 = ( a1 , b1 , c1 ) e N2 = ( a2 , b2 , c2 ), respectivamente. O ângulo entre π1 e π2 é definido como o ângulo entre duas retas perpendiculares a eles. Como toda reta perpendicular a π1 tem N1 como vetor diretor e toda reta perpendicular a π2 tem N2 como vetor diretor, então o cosseno do ângulo entre eles é dado por cos(π1 , π2 ) = | cos θ | , Julho 2010 Reginaldo J. Santos 254 Retas e Planos em que θ é o ângulo entre os vetores normais N1 e N2 de π1 e π2 , respectivamente (Figura 4.20). Portanto, o cosseno do ângulo entre π1 e π2 é cos(π1 , π2 ) = prova o resultado seguinte. | N1 · N2 | . O que || N1 || || N2 || Proposição 4.3. Sejam dois planos π1 : a1 x + b1 y + c1 z + d1 π2 : a2 x + b2 y + c2 z + d2 O cosseno do ângulo entre π1 e π2 é cos(π1 , π2 ) = = 0, = 0. | N1 · N2 | , || N1 || || N2 || em que N1 = ( a1 , b1 , c1 ) e N2 = ( a2 , b2 , c2 ) são os vetores normais de π1 e π2 , respectivamente. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 4.2 Ângulos e Distâncias 255 N1 N2 θ π2 θ π1 Figura 4.20. Ângulo entre dois planos Julho 2010 Reginaldo J. Santos 256 Retas e Planos Dois planos π1 e π2 ou são paralelos ou se cortam segundo um reta. Eles são paralelos se, e somente se, os vetores normais de π1 e π2 , são paralelos, ou seja, um vetor é um múltiplo escalar do outro. Assim, π e π2 são paralelos se, e somente se, o ângulo entre eles é igual à zero. Exemplo 4.10. Determinar o ângulo entre os planos cujas equações são π1 : π2 : x+y+z = 0, x − y − z = 0. Os vetores normais a estes planos são os vetores cujas componentes são os coeficientes de x, y e z nas equações dos planos, ou seja, N1 = (1, 1, 1) e N2 = (1, −1, −1) . Assim, o cosseno do ângulo entre π1 e π2 é cos(π1 , π2 ) = | N1 · N2 | 1 1 = √ √ = . || N1 || || N2 || 3 3· 3 Portanto, o ângulo entre eles é 1 arccos ( ) ≈ 70o . 3 4.2.2 Distâncias Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 4.2 Ângulos e Distâncias 257 Distância de Um Ponto a Um Plano Sejam P0 = ( x0 , y0 , z0 ) um ponto qualquer e π : ax + by + cz + d = 0 um plano. A distância de P0 a π é definida como sendo a distância de P0 até o ponto de π mais próximo de P0 . −→ Dado um ponto P1 = ( x1 , y1 , z1 ) de π, podemos decompor o vetor P1 P0 em duas parcelas, uma na direção do vetor normal de π, N = ( a, b, c) e outra perpendicular −→ a ele. A componente na direção do vetor N é a projeção ortogonal de P1 P0 em N. Como vemos na Figura 4.21, a distância de P0 a π é igual à norma da projeção, ou seja, −→ dist( P0 , π ) = ||proj N P1 P0 || . Mas, pela Proposição 3.4 na página 178, temos que  −→  −→ −→ P P ·N | P P ·N| ||proj N P1 P0 || =  1 0 2  N = 1 0 . || N || || N || O que prova o resultado seguinte. Julho 2010 Reginaldo J. Santos 258 Retas e Planos −→ proj N P1 P0 N = ( a, b, c) dist( P0 , π ) P0 = ( x0 , y0 , z0 ) P1 = ( x1 , y1 , z1 ) π Figura 4.21. Distância de um ponto P0 = ( x0 , y0 , z0 ) a um plano π Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 4.2 Ângulos e Distâncias 259 Proposição 4.4. Sejam P0 = ( x0 , y0 , z0 ) um ponto qualquer e π : ax + by + cz + d = 0 um plano. A distância de P0 a π é dada por dist( P0 , π ) = −→ ||proj N P1 P0 −→ | P P ·N| || = 1 0 , || N || em que N = ( a, b, c) e P1 = ( x1 , y1 , z1 ) é um ponto de π (isto é, um ponto que satisfaz a equação de π). Exemplo 4.11. Calcular a distância entre o ponto P0 = (1, 2, 3) ao plano π : x − 2y + z − 1 = 0. Fazendo z = 0 e y = 0 na equação de π, obtemos x = 1. Assim, o ponto P1 = (1, 0, 0) pertence a π. −→ P1 P0 = (1 − 1, 2 − 0, 3 − 0) = (0, 2, 3) e N = (1, −2, 1) . Assim, dist( P0 , π ) = Julho 2010 −→ ||proj N P1 P0 −→ | P P ·N| |0 · 1 + 2(−2) + 3 · 1| | − 1| 1 || = 1 0 = p = √ = √ . 2 2 2 || N || 6 6 1 + (−2) + 1 Reginaldo J. Santos 260 Retas e Planos Distância de Um Ponto a Uma Reta Sejam P0 = ( x0 , y0 , z0 ) um ponto qualquer e r uma reta. A distância de P0 a r é definida como a distância de P0 ao ponto de r mais próximo de P0 . −→ Dado um ponto qualquer P1 = ( x1 , y1 , z1 ) de r podemos decompor o vetor P1 P0 em duas parcelas, uma na direção do vetor diretor V de r e outra perpendicular a ele. −→ A componente na direção do vetor V é a projeção ortogonal de P1 P0 em V. Como vemos na Figura 4.22, −→ −→ (dist( P0 , r ))2 + ||projV P1 P0 ||2 = || P1 P0 ||2 , ou seja, −→ −→ (dist( P0 , r ))2 = || P1 P0 ||2 − ||projV P1 P0 ||2 . Um Curso de Geometria Analı́tica e Álgebra Linear (4.10) Julho 2010 4.2 Ângulos e Distâncias 261 dist( P0 , r ) P0 = ( x0 , y0 , z0 ) r −→ P1 = ( x1 , y1 , z1 ) projV P1 P0 V = ( a, b, c) Figura 4.22. Distância de um ponto P0 = ( x0 , y0 , z0 ) a uma reta r Julho 2010 Reginaldo J. Santos 262 Retas e Planos Mas, pela Proposição 3.4 na página 178, temos que   −→ −→ P P · V ||projV P1 P0 ||2 =  1 0 2  V ||V || 2 −→ ( P P ·V )2 = 1 0 2 . ||V || Substituindo esta expressão em (4.10) e usando a definição do produto escalar na página 170 e da norma do produto vetorial na página 181 obtemos (dist( P0 , r )) 2 = || −→ P1 P0 −→ −→ −→ ( P P ·V )2 || P1 P0 ||2 ||V ||2 − ( P1 P0 ·V )2 || − 1 0 2 = ||V || ||V ||2 2 −→ −→ = || P1 P0 ||2 ||V ||2 − || P1 P0 ||2 ||V ||2 cos2 θ ||V ||2 = || P1 P0 ||2 ||V ||2 sen2 θ || P1 P0 ×V ||2 = . ||V ||2 ||V ||2 −→ −→ Isto prova o resultado seguinte. Proposição 4.5. Sejam P0 = ( x0 , y0 , z0 ) um ponto qualquer e   x y r :  z = x1 + t a = y1 + t b para todo t ∈ R = z1 + t c uma reta. A distância de P0 a r é dada por −→ || P1 P0 ×V || dist( P0 , r ) = . ||V || Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 4.2 Ângulos e Distâncias 263 em que V = ( a, b, c) é um vetor diretor e P1 = ( x1 , y1 , z1 ) é um ponto da reta r. Exemplo 4.12. Calcular a distância do ponto P0 = (1, −1, 2) à reta   x y r :  z = 1+2t = −t para todo t ∈ R. = 2−3t Um vetor diretor da reta r é V = (2, −1, −3) e um ponto de r é P1 = (1, 0, 2). Assim, −→ P1 P0 = (1 − 1, −1 − 0, 2 − 2) = (0, −1, 0) , −→ P1 P0 ×V = (3, 0, 2) , √ √ −→ || P1 P0 ×V || = 13 e ||V || = 14 . Portanto, −→ || P1 P0 ×V || dist( P0 , r ) = = ||V || Julho 2010 r 13 . 14 Reginaldo J. Santos 264 Retas e Planos π2 −→ N1 proj N1 P1 P2 dist(π1 , π2 ) P2 π1 P1 Figura 4.23. Distância entre dois planos Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 4.2 Ângulos e Distâncias 265 Distância entre Dois Planos Sejam dois planos π1 e π2 quaisquer. A distância entre π1 e π2 é definida como a menor distância entre dois pontos, um de π1 e outro de π2 . Se os seus vetores normais não são paralelos, então os planos são concorrentes e neste caso a distância entre eles é igual à zero. Se os seus vetores normais são paralelos, então os planos são paralelos (ou coincidentes) e a distância entre π1 e π2 é igual à distância entre um ponto de um deles, por exemplo P2 de π2 , e o ponto de π1 , mais próximo de P2 (Figura 4.23). Mas, esta distância é igual à distância de P2 a π1 . Vamos ver isto em um exemplo. Exemplo 4.13. Os planos π1 : x + 2y − 2z − 3 = 0 e π2 : 2x + 4y − 4z − 7 = 0 são paralelos, pois os seus vetores normais N1 = (1, 2, −2) e N2 = (2, 4, −4) são paralelos (um é múltiplo escalar do outro). Vamos encontrar a distância entre eles. Vamos encontrar dois pontos quaisquer de cada um deles. Fazendo z = 0 e y = 0 em ambas as equações obtemos x1 = 3 e x2 = 7/2. Assim, P1 = (3, 0, 0) pertence a π1 e P2 = (7/2, 0, 0) pertence a π2 . Portanto, pela Proposição 4.4 temos que −→ ||proj N1 P1 P2 −→ | P P ·N | dist(π1 , π2 ) = dist(π1 , P2 ) = || = 1 2 1 || N1 || |(7/2 − 3, 0 − 0, 0 − 0) · (1, 2, −2)| 1 |(1/2) · 1 + 0 · 2 + 0(−2)| p √ = = = . 6 9 12 + 22 + (−2)2 Julho 2010 Reginaldo J. Santos 266 Retas e Planos Distância entre Duas Retas Sejam r1 e r2 duas retas quaisquer. A distância entre r1 e r2 é definida como a menor distância entre dois pontos, um de r1 e outro de r2 . Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 4.2 Ângulos e Distâncias 267 P2 dist(r1 , r2 ) r2 −→ r1 projV P1 P2 1 V1 P1 Figura 4.24. Distância entre duas retas paralelas Julho 2010 Reginaldo J. Santos 268 Retas e Planos Para calcular a distância entre duas retas, vamos dividir em dois casos: (a) Se os vetores diretores são paralelos, então as retas r1 e r2 são paralelas (ou coincidentes). Neste caso, a distância entre elas é igual à distância entre um ponto de r2 e a reta r1 , ou vice-versa, entre um ponto de r1 e a reta r2 (Figura 4.24). Assim, pela Proposição 4.5 na página 262, temos que −→ || P1 P2 ×V2 || , dist(r1 , r2 ) = dist( P1 , r2 ) = ||V2 || (4.11) em que P1 e P2 são pontos de r1 e r2 e V1 e V2 são vetores diretores de r1 e r2 , respectivamente. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 4.2 Ângulos e Distâncias 269 r2 V2 dist(r1 , r2 ) P2 V1 × V2 V1 r1 P1 Figura 4.25. Distância entre duas retas reversas Julho 2010 Reginaldo J. Santos 270 Retas e Planos (b) Se os vetores diretores não são paralelos, então elas são reversas ou concorrentes. Os dois casos podem ser resolvidos da mesma forma. Estas retas definem dois planos paralelos (que podem ser coincidentes, no caso em que elas são concorrentes). Um é o plano que contém r1 e é paralelo a r2 , vamos chamá-lo de π1 . O outro, contém r2 e é paralelo a r1 , π2 . O vetor N = V1 × V2 , é normal (ou perpendicular) a ambos os planos, em que V1 e V2 são os vetores diretores de r1 e r2 respectivamente. Assim, a distância entre as retas é igual à distância entre estes dois planos (Figura 4.25), ou seja, −→ −→ | P1 P2 · N | | P P · (V1 × V2 )| dist(r1 , r2 ) = dist(π1 , π2 ) = dist(π1 , P2 ) = = 1 2 || N || ||V1 × V2 || (4.12) em que P1 e P2 são pontos de r1 e r2 e V1 e V2 são vetores diretores de r1 e r2 , respectivamente. Observe que se as retas são concorrentes a distância entre −→ −→ elas é zero, pois os vetores P1 P2 , V1 e V2 são coplanares e P1 P2 · (V1 × V2 ) = 0 (Corolário 3.9 na página 195). Exemplo 4.14. Vamos determinar a distância entre as retas r1 : e   x y r2 :  z x−1 y+1 z−2 = = . 4 −2 −6 = 1+2t = −t para todo t ∈ R. = 2−3t As retas são paralelas, pois seus vetores diretores V1 = (4, −2, −6) e V2 = (2, −1, −3) (Exemplo 4.5 na página 233) são paralelos (um é um múltiplo escalar do outro, ou ainda as componentes correspondentes são proporcionais). Além disso, o ponto P1 = (1, −1, 2) pertence à reta r1 . Como dissemos acima, a distância de r1 a r2 é igual Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 4.2 Ângulos e Distâncias 271 à distância entre um ponto de r2 e a reta r1 (Figura 4.24). Assim, pela Proposição 4.5 na página 262, temos que −→ || P1 P2 ×V2 || dist(r1 , r2 ) = dist( P1 , r2 ) = = ||V2 || r 13 . 14 As contas são as mesmas do Exemplo 4.12 na página 263. Exemplo 4.15. Determinar a distância entre as retas r1 : x+1 y−1 = = z. 3 2 e   x y r2 :  z = t = 2t para todo t ∈ R. = 1−t As retas r1 e r2 são paralelas aos vetores V1 = (3, 2, 1) e V2 = (1, 2, −1) e passam pelos pontos P1 = (−1, 1, 0) e P2 = (0, 0, 1), respectivamente. As retas não são paralelas, pois seus vetores diretores não são paralelos (observe que a 1a. componente de V1 é 3 vezes a 1a. componente de V2 , mas as 2a. ’s componentes são iguais). Logo, −→ P1 P2 = (0 − (−1), 0 − 1, 1 − 0) = (1, −1, 1) . Um vetor perpendicular a ambas as retas é N = V1 × V2 = (−4, 4, 4) . Julho 2010 Reginaldo J. Santos 272 Retas e Planos Este vetor é normal aos planos π1 (que contém r1 e é paralelo a r2 ) e π2 (que contém r2 e é paralelo a r1 ) (veja a Figura 4.25). Assim, −→ | P1 P2 · N | dist(r1 , r2 ) = dist(π1 , π2 ) = dist(π1 , P2 ) = || N || |1(−4) + (−1) · 4 + 1 · 4| 1 | − 4| p = = √ = √ . 2 2 2 4 3 3 (−4) + 4 + 4 Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 4.2 Ângulos e Distâncias 273 Exercı́cios Numéricos (respostas na página 533) 4.2.1. Considere os vetores V = ~i + 3~j + 2~k, W = 2~i − ~j + ~k e U = ~i − 2~j. Seja π um plano paralelo aos vetores W e U e r uma reta perpendicular ao plano π. Ache a projeção ortogonal do vetor V sobre a reta r, ou seja, a projeção ortogonal de V sobre o vetor diretor da reta r. 4.2.2. Encontrar o ângulo entre o plano 2x − y + z = 0 e o plano que passa pelo ponto P = (1, 2, 3) e é perpendicular ao vetor ~i − 2~j +~k. 4.2.3. Seja π1 o plano que passa pelos pontos A = (1, 1, 1), B = (1, 0, 1), C = (1, 1, 0) e π2 o plano que passa pelos pontos P = (0, 0, 1) e Q = (0, 0, 0) e é paralelo ao vetor ~i + ~j. Ache o ângulo entre π1 e π2 . 4.2.4. Ache todas as retas que passam pelo ponto (1, −2, 3) e que formam ângulos de 45o e 60o com os eixos x e y respectivamente. 4.2.5. Obtenha os vértices B e C do triângulo equilátero ABC, sendo A = (1, 1, 0) e sabendo que o lado BC está −→ contido na reta r : ( x, y, z) = t (0, 1, −1). (Sugestão: Determine os pontos Pr da reta r tais que Pr A faz ângulo de 60o e 120o com o vetor diretor da reta r) 4.2.6. Seja π o plano que passa pela origem e é perpendicular à reta que une os pontos A = (1, 0, 0) e B = (0, 1, 0). Encontre a distância do ponto C = (1, 0, 1) ao plano π. 4.2.7. Seja r1 a reta que passa pelos pontos A = (1, 0, 0) e B = (0, 2, 0), e r2 a reta y−3 z−4 = . 2 3 (a) Encontre as equações da reta perpendicular às retas r1 e r2 ; x−2 = (b) Calcule a distância entre r1 e r2 . 4.2.8. Dados A = (0, 2, 1), r : X = (0, 2, −2) + t (1, −√ 1, 2), ache os pontos de r que distam do ponto A à reta r é maior, menor ou igual à 3? Por que? √ 3 de A. A distância 4.2.9. Dada a reta r : X = (1, 0, 0) + t (1, 1, 1) e os pontos A = (1, 1, 1) e B = (0, 0, 1), ache o ponto de r equidistante de A e B. Julho 2010 Reginaldo J. Santos 274 Retas e Planos 4.2.10. Encontre a equação do lugar geométrico dos pontos equidistantes de A = (1, −1, 2) e B = (4, 3, 1). Este plano passa pelo ponto médio de AB? Ele é perpendicular ao segmento AB? √ 4.2.11. Ache as equações dos planos que são perpendiculares ao vetor (2, 2, 2) e que distam 3 do ponto (1, 1, 1). 4.2.12. Determine os planos que contém a reta  r : x 3x − 2y + 2z = 0 − 5y + 7z = 0 e formam com o plano π1 : x + z = 0 um ângulo de 60o . 4.2.13. (a) Verifique que a reta r : ( x, y, z) = (1, 0, 1) + t(1, −1, 0) é paralela ao plano π : x + y + z = 0. (b) Calcule a distância de r a π. (c) Existem retas contidas no plano π, que são reversas à reta r e distam 2 desta? 4.2.14. (a) Determine a equação do plano π1 que passa por A = (10/3, 1, −1), B C = (1, −1, 5/6). = (1, 9/2, −1) e (b) Determine a equação do plano π2 que passa por D = (−1, 4, −1), E = (3/2, −1, 10) e é paralelo ao eixo z. (c) Escreva equações paramétricas para a reta r interseção dos planos π1 e π2 . (d) Faça um esboço dos planos π1 , π2 e da reta r no primeiro octante. (e) Qual o ângulo entre os planos π1 e π2 ? −→ (f) Qual o ponto P de π1 que está mais próximo da origem? (Sugestão: este ponto é tal que OP é ortogonal ao plano π1 .) Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 4.2 Ângulos e Distâncias 275 (g) Qual a área do triângulo ABC? Exercı́cios usando o M ATLABr 4.2.15. Use o M ATLABr para resolver os Exercı́cios Numéricos Exercı́cios Teóricos 4.2.16. Prove que o lugar geométrico dos pontos do espaço que equidistam de dois pontos distintos A = ( x1 , y1 , z1 ) e B = ( x2 , y2 , z2 ) é um plano que passa pelo ponto médio do segmento AB e é perpendicular a ele. Esse plano é chamado plano mediador do segmento AB. 4.2.17. Mostre que a distância de um ponto P0 = ( x0 , y0 , z0 ) a um plano π : ax + by + cz + d = 0 é dist( P0 , π ) = | ax0 + by0 + cz0 + d| √ . a2 + b2 + c2 4.2.18. Mostre que a distância entre dois planos paralelos π1 : ax + by + cz + d1 = 0 e π2 : ax + by + cz + d2 = 0 é | d2 − d1 | dist(π1 , π2 ) = √ . a2 + b2 + c2 4.2.19. Mostre que a distância entre duas retas não paralelas r1 : ( x, y, z) = ( x1 + ta1 , y1 + tb1 , z1 + tc1 ) e r2 : ( x, y, z) = ( x2 + ta2 , y2 + tb2 , z2 + tc2 ) é   x2 − x1 y2 − y1 z2 − z1  a1 b1 c1 det  a2 b2 c2 s  2   2   2 b1 c1 a1 c1 a1 b1 + det + det det b2 c2 a2 c2 a2 b2 Julho 2010 Reginaldo J. Santos 276 Retas e Planos r π Figura 4.26. Reta e plano concorrentes Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 4.2 Ângulos e Distâncias 277 4.2.20. O ângulo entre uma reta r que tem vetor diretor V = ( ar , br , cr ) e um plano π que tem vetor normal N = ( aπ , bπ , cπ ) é definido pelo complementar do ângulo entre uma reta perpendicular ao plano π e a reta r. Mostre que |N · V| sen(r, π ) = . || N ||||V || 4.2.21. A distância entre uma reta r que passa por um ponto P0 = ( x0 , y0 , z0 ) e tem vetor diretor V = ( ar , br , cr ) e um plano π : aπ x + bπ y + cπ z + dπ = 0 é definida como a menor distância entre dois pontos um de r e outro de π. Se o vetor diretor da reta r, V = ( ar , br , cr ), não é ortogonal ao vetor normal do plano π, N = ( aπ , bπ , cπ ), então a reta e o plano são concorrentes e a distância entre eles é igual à zero, caso contrário a distância é igual à distância de uma ponto da reta r ao plano π. Mostre que  | a π x 0 + bπ y 0 + c π z 0 + d π |   p , se V · N = 0  2 + b2 + c2 a π π π dist(r, π ) =    0, caso contrário Julho 2010 Reginaldo J. Santos 278 Retas e Planos r π Figura 4.27. Reta e plano paralelos Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 4.2 Ângulos e Distâncias 279 Teste do Capı́tulo 1. Ache os pontos do plano π : y = x que equidistam dos pontos A = (1, 1, 0) e B = (0, 1, 1). 2. Determine m, n ∈ R para que a reta ( x, y, z) = (n, 2, 0) + t(2, m, m) esteja contida no plano π : x − 3y + z = 1. 3. (a) Encontre a equação do plano π que passa pelos pontos A = (0, 0, −1), B = (0, 1, 0) e C = (1, 0, 1). (b) Encontre a distância da origem ao plano π. 4. (a) Mostre que os planos x − y = 0 e y − z = 1 se interceptam segundo uma reta r. (b) Ache a equação do plano que passa pelo ponto A = (1, 0, −1) e é perpendicular à reta r. Julho 2010 Reginaldo J. Santos 5 Espaços Rn 5.1 Independência Linear Já vimos que os vetores no plano são identificados com pares ordenados de números reais e que vetores no espaço são identificados com ternos ordenados de números reais. Muito do que estudamos sobre vetores no plano e no espaço pode ser estendido para n-uplas de números reais, em que n pode ser um número inteiro positivo. 5.1.1 Os Espaços Rn 280 5.1 Independência Linear 281 Definição 5.1. Para cada inteiro positivo n, o espaço (vetorial) Rn é definido pelo conjunto de todas as n-uplas ordenadas X = ( x1 , . . . , xn ) de números reais. O conjunto R1 é simplesmente o conjunto dos números reais. O conjunto R2 é o conjunto dos pares de números reais e o R3 é o conjunto dos ternos de números reais. No R3 o terno de números ( x1 , x2 , x3 ) pode ser interpretado geometricamente de duas maneiras: pode ser visto como um ponto, neste caso x1 , x2 e x3 são as coordenadas do ponto (Figura 5.1), ou como um vetor, neste caso x1 , x2 e x3 são as componentes do vetor (Figura 5.2). Também no Rn uma n-upla pode ser pensada como um vetor ou como um ponto. Por exemplo, a quı́ntupla X = (1, −2, 3, 5, 4) pode ser pensada como um ponto no R5 , quando consideramos X como um elemento do conjunto R5 , ou como um vetor do R5 , quando fazemos operações com X, como as que iremos definir adiante. Vamos chamar os elementos do Rn de pontos ou de vetores dependendo da situação. Dois vetores V = (v1 , . . . , vn ) e W = (w1 , . . . , wn ) no Rn são considerados iguais se v1 = w1 , . . . , vn = wn . As operações de soma de vetores e multiplicação de vetor por escalar no Rn são definidas de maneira análoga ao que fizemos no plano e no espaço. Julho 2010 Reginaldo J. Santos Espaços Rn 282 Definição 5.2. (a) A soma de dois vetores V = (v1 , . . . , vn ) e W = (w1 , . . . , wn ) de Rn é definida por V + W = ( v 1 + w1 , . . . , v n + w n ) ; (5.1) (b) A multiplicação de um vetor V = (v1 , . . . , vn ) do Rn por um escalar α é definida por α V = ( α v1 , . . . , α v n ). (5.2) O vetor nulo de Rn é denotado por 0̄ e é definido por 0̄ = (0, . . . , 0). Se V = (v1 , . . . , vn ) é um vetor do Rn , então o simétrico de V é denotado por −V e é definido por −V = (−v1 , . . . , −vn ). A diferença de dois vetores no Rn é definida por V − W = V + (−W ). Se V e W são vetores do Rn tais que W = αV, para algum escalar α, então dizemos que W é um múltiplo escalar de V. Um vetor V = (v1 , . . . , vn ) de Rn pode também ser escrito na notação matricial como uma matriz linha ou como uma matriz coluna:   v1     V =  ...  ou V = v1 . . . vn . vn Estas notações podem ser justificadas pelo fato de que as operações matriciais           v1 w1 v 1 + w1 v1 αv1        .   .  .. V + W =  ...  +  ...  =   , αV = α  ..  =  ..  . vn wn vn + wn vn αvn Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 5.1 Independência Linear 283 ou V +W =  v1     v n + w1 . . . w n = v 1 + w1 . . .     αV = α v1 . . . vn = αv1 . . . αvn vn + wn ...  , produzem os mesmos resultados que as operações vetoriais V + W = ( v 1 , . . . , v n ) + ( w1 , . . . , w n ) = ( v 1 + w1 , . . . , v n + w n ) αV = α(v1 , . . . , vn ) = (αv1 , . . . , αvn ). No teorema seguinte enunciamos as propriedades mais importantes da soma de vetores e multiplicação de vetores por escalar no Rn . Teorema 5.1. Sejam U = (u1 , . . . , un ), V = (v1 , . . . , vn ) e W = (w1 , . . . , wn ) vetores de Rn e α e β escalares. São válidas as seguintes propriedades: (a) (b) (c) (d) U + V = V + U; (U + V ) + W = U + ( V + W ) ; U + 0̄ = U; U + (−U ) = 0̄; (e) (f) (g) (h) α( βU ) = (αβ)U; α(U + V ) = αU + αV; (α + β)U = αU + βU; 1U = U. Demonstração. Segue diretamente das propriedades da álgebra matricial (Teorema 1.1 na página 9).  O conceito de vetores pode ser generalizado ainda mais. Um conjunto não vazio onde estão definidas as operações de soma e multiplicação por escalar é chamado espaço vetorial se satisfaz as oito propriedades do Teorema 5.1 (ver por exemplo [31]). Julho 2010 Reginaldo J. Santos Espaços Rn 284 5.1.2 Combinação Linear Uma combinação linear de vetores V1 , . . . , Vk , é simplesmente uma soma de múltiplos escalares de V1 , . . . , Vk . Definição 5.3. Um vetor V ∈ Rn é uma combinação linear dos vetores V1 , . . . , Vk ∈ Rn , se existem escalares x1 , . . . , xk que satisfazem a equação x1 V1 + x2 V2 + . . . + xk Vk = V (5.3) ou seja, se a equação vetorial (5.3) possui solução. Neste caso, dizemos também que V pode ser escrito como uma combinação linear de V1 , . . . , Vk . Se k = 1, então a equação (5.3) se reduz a x1 V1 = V, ou seja, V é uma combinação linear de V1 se, e somente se, V é um múltiplo escalar de V1 . Exemplo 5.1. Sejam V1 = (1, 0, 0) e V2 = (1, 1, 0), vetores de R3 . O vetor V = (2, 3, 2) não é uma combinação linear de V1 e V2 , pois a equação x1 V1 + x2 V2 = V, (5.4) que pode ser escrita como x1 (1, 0, 0) + x2 (1, 1, 0) = (2, 3, 2), Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 5.1 Independência Linear 285 ou ainda, ( x1 + x2 , x2 , 0) = (2, 3, 2), é equivalente ao sistema   x1  + x2 = 2 x2 = 3 0 = 2 que não possui solução. Exemplo 5.2. O vetor V = (2, 3, 0) é uma combinação linear de V1 = (1, 0, 0) e V2 = (1, 1, 0), pois a equação x1 V1 + x2 V2 = V (5.5) ou x1 (1, 0, 0) + x2 (1, 1, 0) = (2, 3, 0) ou ainda, ( x1 + x2 , x2 , 0) = (2, 3, 0), é equivalente ao sistema   x1  + x2 = 2 x2 = 3 0 = 0 que possui solução. Exemplo 5.3. O vetor nulo 0̄ é sempre combinação linear de quaisquer vetores V1 , . . . , Vk , pois 0̄ = 0V1 + . . . + 0Vk . Julho 2010 Reginaldo J. Santos Espaços Rn 286 z z z z ( x, y, z) x ( x, y, z) y x x y y x Figura 5.1. Ponto ( x, y, z) ∈ R3 y Figura 5.2. Vetor ( x, y, z) ∈ R3 z z V = (2, 3, 2) V1 = (1, 0, 0) x V1 = (1, 0, 0) V2 = (1, 1, 0) y x V2 = (1, 1, 0) y V = (2, 3, 0) Figura 5.3. O vetor V não é combinação linear de V1 e V2 Um Curso de Geometria Analı́tica e Álgebra Linear Figura 5.4. O vetor V é combinação linear de V1 e V2 Julho 2010 5.1 Independência Linear 287 Exemplo 5.4. Todo vetor V = ( a, b, c) de R3 é uma combinação linear de ~i = (1, 0, 0), ~j = (0, 1, 0) e ~k = (0, 0, 1). Pois, Julho 2010 ( a, b, c) = a(1, 0, 0) + b(0, 1, 0) + c(0, 0, 1) = a~i + b~j + c~k. Reginaldo J. Santos Espaços Rn 288 v3~k V = ( v1 , v2 , v3 ) ~k ~i ~j v1~i Figura 5.5. Vetores ~i, ~j e ~k Um Curso de Geometria Analı́tica e Álgebra Linear v2~j Figura 5.6. V = v1~i + v2~j + v3~k Julho 2010 5.1 Independência Linear 289 Para verificarmos se um vetor B é combinação linear de um conjunto de vetores { A1 , . . . , An }, escrevemos a equação vetorial x1 A1 + x2 A2 + . . . + x n A n = B , (5.6) e verificamos se ela tem solução. Se A1 , . . . , An são vetores de Rm , a equação (5.6), pode ser escrita como       a11 a1n b1       x1  ...  + . . . + xn  ...  =  ...  am1 amn bm que é equivalente ao sistema linear AX = B, em que as colunas de  A são os vetores Ai escritos como matrizes colunas, ou seja, x1  ..  A = [ A1 . . . An ] e X =  . . Isto prova o seguinte resultado. xn Proposição 5.2. Sejam A uma matriz m × n e B uma matriz m × 1. O vetor B é combinação linear das colunas de A se, e somente se, o sistema AX = B tem solução. Julho 2010 Reginaldo J. Santos Espaços Rn 290 5.1.3 Independência Linear Definição 5.4. Dizemos que um conjunto S = {V1 , . . . , Vk } de vetores de Rn é linearmente independente (L.I.) se a equação vetorial x1 V1 + x2 V2 + . . . + xk Vk = 0̄ (5.7) só possui a solução trivial, ou seja, se a única forma de escrever o vetor nulo como combinação linear dos vetores V1 , . . . , Vk é aquela em que todos os escalares são iguais a zero. Caso contrário, isto é, se (5.7) possui solução não trivial, dizemos que o conjunto S é linearmente dependente (L.D.). Exemplo 5.5. Um conjunto finito de vetores de Rn que contém o vetor nulo é L.D., pois se {V1 , . . . , Vk } é tal que Vj = 0̄, para algum j, então 0V1 + . . . + 0Vj−1 + 1Vj + 0Vj+1 + . . . + 0Vk = 0̄. Exemplo 5.6. Um conjunto formado por um único vetor, {V1 }, não nulo é L.I., pois x1 V1 = 0̄ é equivalente a x1 = 0 ou V1 = 0̄. Mas, V1 6= 0̄; portanto x1 = 0. Exemplo 5.7. Se {V1 , . . . , Vk } é um conjunto de vetores L.D., então qualquer conjunto finito de vetores que contenha V1 , . . . , Vk é também L.D., pois a equação x1 V1 + . . . + xk Vk + 0 W1 + . . . + 0 Wm = 0̄ admite solução não trivial. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 5.1 Independência Linear 291 Exemplo 5.8. Um conjunto formado por dois vetores de Rn , {V1 , V2 } é L.D. se, e somente se, a equação x1 V1 + x2 V2 = 0̄ possui solução não trivial. Mas se isto acontece, então um dos escalares x1 ou x2 pode ser diferente de zero. Se x1 6= 0, então V1 = (− x2 /x1 )V2 e se x2 6= 0, então V2 = (− x1 /x2 )V1 . Ou seja, se {V1 , V2 } é L.D., então um dos vetores é múltiplo escalar do outro. Reciprocamente, se um vetor é múltiplo escalar do outro, digamos se V1 = αV2 , então 1 V1 − αV2 = 0̄ e assim eles são L.D. Portanto, podemos dizer que dois vetores são L.D. se, e somente se, um é um múltiplo escalar do outro. Por exemplo, o conjunto S = {V1 , V2 }, em que V1 = (1, 0, 1) e V2 = (0, 1, 1), é L.I., pois um vetor não é múltiplo escalar do outro. Exemplo 5.9. Um conjunto formado por três vetores de Rn , {V1 , V2 , V3 } é L.D. se, e somente se, a equação x1 V1 + x2 V2 + x3 V3 = 0̄ possui solução não trivial. Mas se isto acontece, então um dos escalares x1 ou x2 ou x3 pode ser diferente de zero. Se x1 6= 0, então V1 = (− x2 /x1 )V2 + (− x3 /x1 )V3 , ou seja, o vetor V1 é combinação linear de V2 e V3 . De forma semelhante, se x2 6= 0, então V2 é combinação linear de V1 e V3 e se x3 6= 0, então V3 é combinação linear de V1 e V2 . Assim, se três vetores V1 , V2 e V3 do Rn são L.D., então um deles é uma combinação linear dos outros dois, ou seja, em deles é uma soma de múltiplos escalares dos outros dois. No R3 temos que se três vetores não nulos são L.D., então ou os três são paralelos (Figura 5.9), ou dois deles são paralelos (Figura 5.10) ou os três são coplanares, isto é, são paralelos a um mesmo plano (Figura 5.11). Reciprocamente, se um vetor é uma combinação linear dos outros dois, digamos se V1 = αV2 + βV3 , então 1 V1 − αV2 − βV3 = 0̄ e assim eles são L.D. Portanto, podemos dizer que três vetores são L.D. se, e somente se, um deles é uma combinação linear dos outros dois. No R3 , se três vetores são L.I., então eles não são coplanares (Figura 5.12). Julho 2010 Reginaldo J. Santos Espaços Rn 292 V2 V1 V1 V2 Figura 5.7. Dois vetores linearmente dependentes Figura 5.8. Dois vetores linearmente independentes V2 V1 V3 V3 V2 V1 Figura 5.9. Três vetores linearmente dependentes (paralelos) Um Curso de Geometria Analı́tica e Álgebra Linear Figura 5.10. Três vetores linearmente dependentes (dois paralelos) Julho 2010 5.1 Independência Linear 293 Exemplo 5.10. Vamos mostrar que os vetores E1 = (1, 0, . . . , 0), E2 = (0, 1, 0, . . . , 0), . . . , En = (0, . . . , 0, 1) são L.I. em particular os vetores ~i = (1, 0, 0), ~j = (0, 1, 0) e ~k = (0, 0, 1) são L.I. A equação x1 E1 + . . . + xn En = 0̄ pode ser escrita como x1 (1, 0, . . . , 0) + . . . + xn (0, . . . , 0, 1) = (0, . . . , 0) . Logo, ( x1 , . . . , xn ) = (0, . . . , 0), que é equivalente ao sistema x1 = 0, . . . , xn = 0 . Julho 2010 Reginaldo J. Santos Espaços Rn 294 Para descobrir se um conjunto de vetores { A1 , . . . , An } é L.I. precisamos saber se a equação vetorial x1 A1 + x2 A2 + . . . + xn An = 0̄ (5.8) tem somente a solução trivial. Se A1 , . . . , An são vetores de Rm , a equação (5.8), pode ser escrita como       a11 a1n 0       x1  ...  + . . . + xn  ...  =  ...  am1 amn 0 que é equivalente ao sistema linear homogêneo AX = 0̄, em que as colunas de  A são  x1   os vetores Ai escritos como matrizes colunas, ou seja, A = [ A1 . . . An ] e X =  ... . xn Isto prova o seguinte resultado. Proposição 5.3. Seja A uma matriz m × n. (a) As colunas de A são linearmente independentes se, e somente se, o sistema AX = 0̄ tem somente a solução trivial. (b) Se m = n, então as colunas de A são linearmente independentes se, e somente se, det( A) 6= 0. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 5.1 Independência Linear 295 Três ou mais vetores no R2 , assim como quatro ou mais vetores no R3 e mais de n vetores no Rn são sempre L.D. Pois, nestes casos, o problema de verificar se eles são ou não L.I. leva a um sistema linear homogêneo com mais incógnitas do que equações, que pelo Teorema 1.6 na página 48 tem sempre solução não trivial. Corolário 5.4. Em Rn um conjunto com mais de n vetores é L.D. Exemplo 5.11. Considere os vetores V1 = (1, 0, 1), V2 = (0, 1, 1) e V3 = (1, 1, 1) de R3 . Para sabermos se eles são L.I. ou L.D. escrevemos a equação x1 V1 + x2 V2 + x3 V3 = 0̄. Esta equação vetorial é equivalente ao sistema linear  1 0 A = [ V1 V2 V3 ] =  0 1 1 1 AX = 0̄, em que  1 1 . 1 Escalonando a matriz [ A | 0̄ ] podemos obter a sua forma escalonada reduzida   1 0 0 0 [ R |0̄ ] =  0 1 0 0  . 0 0 1 0 Julho 2010 Reginaldo J. Santos Espaços Rn 296 Concluı́mos, então que o sistema A X = 0̄ possui somente a solução trivial x1 = x2 = x3 = 0. Portanto, os vetores V1 , V2 e V3 são L.I. Exemplo 5.12. Sejam V1 = (1, 2, 5), V2 = (7, −1, 5) e V3 = (1, −1, −1) vetores de R3 . Para sabermos se eles são L.I. ou L.D. escrevemos a equação x1 V1 + x2 V2 + x3 V3 = 0̄. (5.9) Esta equação vetorial é equivalente ao sistema linear AX = 0̄, em que  1 A = [ V1 V2 V3 ] =  2 5 7 −1 5  1 −1  . −1 A matriz [ A | 0̄ ] é equivalente por linhas à matriz escalonada reduzida  1 [ R | 0̄ ] =  0 0 0 1 0  −2/5 0 1/5 0  . 0 0 (5.10) Assim, a variável x3 pode ser uma variável livre que pode, portanto, assumir qualquer valor. Concluı́mos que o sistema A X = 0̄ e a equação vetorial (5.9) têm solução não trivial. Portanto, V1 , V2 e V3 são L.D. A expressão “linearmente dependente” sugere que os vetores dependem uns dos outros em algum sentido. O teorema seguinte mostra que este realmente é o caso. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 5.1 Independência Linear 297 Teorema 5.5. Um conjunto S = {V1 , . . . , Vk } (k > 1) de vetores é linearmente dependente (L.D.) se, e somente se, pelo menos um dos vetores, Vj , for combinação linear dos outros vetores de S . Demonstração. Vamos dividir a demonstração em duas partes: (a) Se Vj é uma combinação linear dos demais vetores do conjunto S , isto é, se existem escalares α1 , . . . , α j−1 , α j+1 , . . . , αk tais que α1 V1 + . . . + α j−1 Vj−1 + α j+1 Vj+1 + . . . + αk Vk = Vj , então somando-se −Vj a ambos os membros ficamos com α1 V1 + . . . + α j−1 Vj−1 − Vj + α j+1 Vj+1 + . . . + αk Vk = 0̄. (5.11) Isto implica que a equação x1 V1 + . . . + xk Vk = 0̄ admite solução não trivial, pois o coeficiente de Vj em (5.11) é −1. Portanto, S é L.D. (b) Se S é L.D., então a equação x1 V1 + x2 V2 + . . . + xk Vk = 0̄ (5.12) admite solução não trivial, o que significa que pelo menos um x j é diferente de zero. Então, multiplicando-se a equação (5.12) por 1/x j e subtraindo-se ( xx1 )V1 + . . . + ( xxk )Vk obtemos j j Vj = − x1 xj ! V1 − . . . − x j −1 xj ! Vj−1 − x j +1 xj ! Vj+1 − . . . − Portanto, um vetor Vj é combinação linear dos outros vetores de S . Julho 2010 xk xj ! Vk .  Reginaldo J. Santos Espaços Rn 298 Observação. Na demonstração da segunda parte, vemos que o vetor, cujo escalar na combinação linear, puder ser diferente de zero, pode ser escrito como combinação linear dos outros. Exemplo 5.13. Sejam V1 = (1, 2, 5), V2 = (7, −1, 5) e V3 = (1, −1, −1) vetores do R3 . Vamos escrever um dos vetores como combinação linear dos outros dois. Vimos no Exemplo 5.12 que estes vetores são L.D. De (5.10) segue-se que x1 V1 + x2 V2 + x3 V3 = 0̄ se, e somente se, x1 = (2/5)α, x2 = −(1/5)α e x3 = α, para todo α ∈ R. Substituindo-se os valores de x1 , x2 e x3 na equação acima, ficamos com (2/5)αV1 − (1/5)αV2 + αV3 = 0̄ Tomando-se α = 1, obtemos (2/5)V1 − (1/5)V2 + V3 = 0̄ multiplicando-se por −5 e somando-se 2V1 + 5V3 , temos que V2 = 2V1 + 5V3 . Observe que, neste exemplo, qualquer dos vetores pode ser escrito como combinação linear dos outros. O próximo exemplo mostra que isto nem sempre acontece. Exemplo 5.14. Sejam V1 = (−2, −2, 2), V2 = (−3, 3/2, 0) e V3 = (−2, 1, 0). {V1 , V2 , V3 } é L.D., mas V1 não é combinação linear de V2 e V3 (Figura 5.10 na página 292). Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 5.1 Independência Linear 299 5.1.4 Posições Relativas de Retas e Planos Posições Relativas de Duas Retas Vamos estudar a posição relativa de duas retas, usando a dependência linear de vetores. Sejam r1 : ( x, y, z) = ( x1 + ta1 , y1 + tb1 , z1 + tc1 ) e r2 : ( x, y, z) = ( x2 + ta2 , y2 + tb2 , z2 + tc2 ) as equações de duas retas. (a) Se os vetores diretores V1 = ( a1 , b1 , c1 ) e V2 = ( a2 , b2 , c2 ) são L.D., então as retas são paralelas ou coincidentes. Além de paralelas, elas são coincidentes, se um ponto de uma delas pertence a outra, por exemplo se P1 = ( x1 , y1 , z1 ) pertence a r2 ou se P2 = ( x2 , y2 , z2 ) pertence a r1 . Ou ainda, −→ −→ (i) Se V1 e P1 P2 ou V2 e P1 P2 são L.D. (com V1 e V2 L.D.), então elas são coincidentes. −→ −→ (ii) Se V1 e P1 P2 ou V2 e P1 P2 são L.I. (com V1 e V2 L.D.), então elas são paralelas distintas. (b) Se os vetores diretores V1 = ( a1 , b1 , c1 ) e V2 = ( a2 , b2 , c2 ) são L.I. então as retas são reversas ou concorrentes. −→ (i) Se P1 P2 , V1 e V2 são L.D. (com V1 e V2 L.I.), então as retas são concorrentes. −→ (ii) Se P1 P2 , V1 e V2 são L.I., então as retas são reversas (Figura 5.13). Julho 2010 Reginaldo J. Santos Espaços Rn 300 V3 V3 V1 V1 V2 V2 Figura 5.11. Três vetores linearmente dependentes (coplanares) r2 Figura 5.12. Três vetores linearmente independentes V2 P2 V1 × V2 V1 r1 P1 Figura 5.13. Duas retas reversas Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 5.1 Independência Linear 301 Posições Relativas de Dois Planos Vamos estudar a posição relativa dos dois planos usando a dependência linear de vetores. Sejam π1 : a1 x + b1 y + c1 z + d1 = 0 e π2 : a2 x + b2 y + c2 z + d2 = 0 as equações de dois planos. (a) Se os vetores normais N1 = ( a1 , b1 , c1 ) e N2 = ( a2 , b2 , c2 ) são L.D., então os planos são paralelos distintos ou coincidentes. Além de paralelos, eles são coincidentes se, e somente se, todo ponto que satisfaz a equação de um deles, satisfaz também a equação do outro. Ou ainda, (i) Se os vetores ( a1 , b1 , c1 , d1 ) e ( a2 , b2 , c2 , d2 ) são L.D., então as equações são proporcionais e os planos são coincidentes. (ii) Se os vetores ( a1 , b1 , c1 , d1 ) e ( a2 , b2 , c2 , d2 ) são L.I. (com N1 e N2 L.D.), então os planos são paralelos distintos (Figura 5.15). (b) Se os vetores normais N1 = ( a1 , b1 , c1 ) e N2 = ( a2 , b2 , c2 ) são L.I., então os planos são concorrentes (Figura 5.14). Julho 2010 Reginaldo J. Santos Espaços Rn 302 Posições Relativas de Reta e Plano Vamos estudar a posição relativa de uma reta e um plano usando a dependência linear de vetores. Sejam r : ( x, y, z) = ( x1 + ta1 , y1 + tb1 , z1 + tc1 ) a equação de uma reta e π um plano que passa pelo ponto P2 = ( x2 , y2 , z2 ) e é paralelo aos vetores V2 = ( a2 , b2 , c2 ) e V3 = ( a3 , b3 , c3 ). (a) Se o vetor diretor da reta r, V1 = ( a1 , b1 , c1 ), os vetores paralelos ao plano π, V2 = ( a2 , b2 , c2 ) e V3 = ( a3 , b3 , c3 ) são L.D., então a reta e o plano são paralelos ou a reta está contida no plano. A reta está contida no plano se além dos vetores V1 , V2 e V3 forem L.D., um ponto da reta pertence ao plano, por exemplo, se P1 = ( x1 , y1 , z1 ) pertence a π. Ou ainda, (i) Se V1 = ( a1 , b1 , c1 ), V2 = ( a2 , b2 , c2 ) e V3 = ( a3 , b3 , c3 ) são L.D. e −→ V2 = ( a2 , b2 , c2 ), V3 = ( a3 , b3 , c3 ) e P1 P2 também são L.D., então a reta está contida no plano. (ii) Se V1 = ( a1 , b1 , c1 ), V2 = ( a2 , b2 , c2 ), V3 = ( a3 , b3 , c3 ) são L.D., mas −→ V2 = ( a2 , b2 , c2 ), V3 = ( a3 , b3 , c3 ) e P1 P2 são L.I., então a reta é paralela ao plano, mas não está contida nele. (b) Se V1 = ( a1 , b1 , c1 ), V2 = ( a2 , b2 , c2 ), V3 = ( a3 , b3 , c3 ) são L.I., então a reta é concorrente ao plano. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 5.1 Independência Linear 303 Exercı́cios Numéricos (respostas na página 539) 5.1.1. Quais dos seguintes vetores são combinação linear de V1 = (5, −3, 1), V2 = (0, 4, 3) e V3 = (−10, 18, 7)? (a) (10, −2, 5); (b) (10, 2, 8); (c) (−2, −1, 1); (d) (−1, 2, 3). 5.1.2. Os vetores V1 = (5, −3, 1), V2 = (0, 4, 3) e V3 = (−10, 18, 7) do exercı́cio anterior são L.D. ou L.I.? Caso sejam L.D. escreva um deles como combinação linear dos outros. 5.1.3. Quais dos seguintes conjuntos de vetores são linearmente dependentes? (a) {(1, 1, 2), (1, 0, 0), (4, 6, 12)}; (b) {(1, −2, 3), (−2, 4, −6)}; (c) {(1, 1, 1), (2, 3, 1), (3, 1, 2)}; (d) {(4, 2, −1), (6, 5, −5), (2, −1, 3)}. 5.1.4. Para quais valores de λ o conjunto de vetores {(3, 1, 0), (λ2 + 2, 2, 0)} é L.D.? 5.1.5. Suponha que {V1 , V2 , V3 } é um conjunto linearmente independente de vetores de Rn . Responda se {W1 , W2 , W3 } é linearmente dependente ou independente nos seguintes casos: (a) W1 = V1 + V2 , W2 = V1 + V3 e W3 = V2 + V3 ; (b) W1 = V1 , W2 = V1 + V3 e W3 = V1 + V2 + V3 . 5.1.6. Sejam r1 : ( x, y, z) = (1 + 2t, t, 2 + 3t) e r2 : ( x, y, z) = (t, 1 + mt, −1 + 2mt) duas retas. (a) Determine m para que as retas sejam coplanares (não sejam reversas). (b) Para o valor de m encontrado, determine a posição relativa entre r1 e r2 . (c) Determine a equação do plano determinado por r1 e r2 . 5.1.7. Sejam a reta r : ( x, y, z) = (1, 1, 1) + (2t, mt, t) e o plano paralelo aos vetores V1 = (1, 2, 0) e V2 = (1, 0, 1) passando pela origem. Determine o valor de m para que a reta seja paralela ao plano. Para o valor de m encontrado a reta está contida no plano? Exercı́cio usando o M ATLABr Julho 2010 Reginaldo J. Santos Espaços Rn 304 5.1.8. (a) Defina os vetores V1=[1;2;3], V2=[3;4;5] e V3=[5;6;7]. Defina o vetor aleatório V=randi(3,1). Verifique se V é combinação linear de V1, V2 e V3. (b) Defina a matriz aleatória M=randi(3,5). Verifique se os vetores definidos pelas colunas de M são combinação linear de V1, V2 e V3. Tente explicar o resultado. (c) Verifique se V1, V2 e V3 são linearmente independentes. Se eles forem linearmente dependentes, escreva um deles como combinação linear dos outros e verifique o resultado. Exercı́cios Teóricos 5.1.9. Seja A uma matriz n × n. Mostre que det( A) = 0 se, e somente se, uma de suas colunas é combinação linear das outras. 5.1.10. Suponha que {V1 , V2 , . . . , Vn } é um conjunto de vetores de Rn linearmente independente. Mostre que se A é uma matriz n × n não singular, então { AV1 , AV2 , . . . , AVn } também é um conjunto linearmente independente. 5.1.11. Se os vetores não nulos U, V e W são L.D., então W é uma combinação linear de U e V? Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 5.1 Independência Linear 305 π1 π1 π2 π2 Figura 5.14. Dois planos que se interceptam segundo uma reta Julho 2010 Figura 5.15. Dois planos paralelos Reginaldo J. Santos Espaços Rn 306 r r π π Figura 5.16. Reta e plano concorrentes Um Curso de Geometria Analı́tica e Álgebra Linear Figura 5.17. Reta e plano paralelos Julho 2010 5.2 Subespaços Base e Dimensão 5.2 307 Subespaços, Base e Dimensão Sejam A uma matriz m × n e W ⊆ Rn o conjunto solução do sistema linear homogêneo AX = 0̄. Já vimos na Proposição 1.7 na página 49 que o conjunto W satisfaz as seguintes propriedades: (a) Se X e Y pertencem a W, então X + Y também pertence a W. (b) Se X pertence a W, então αX também pertence a W para todo escalar α. Revise como foi feita a demonstração dos itens (a) e (b) acima na Proposição 1.7 na página 49. Assim, se X e Y são soluções de um sistema homogêneo, então X + Y e αX também o são. Portanto, combinações lineares de soluções de AX = 0̄ são também soluções de AX = 0̄. O conjunto solução de um sistema homogêneo AX = 0̄ é chamado de espaço solução do sistema homogêneo AX = 0̄. Ele se comporta como se fosse um espaço, no sentido de que fazendo soma de vetores do conjunto ou multiplicando vetores do conjunto por escalar não saı́mos dele. Um subconjunto não vazio de Rn que satisfaz as propriedades (a) e (b) acima é chamado de subespaço de Rn . Com relação as operações de soma e multiplicação por escalar podemos “viver” nele sem termos que sair. Assim, o espaço solução do sistema homogêneo AX = 0̄ é um subespaço de Rn . Vale também a recı́proca, todo subespaço é o espaço solução de um sistema homogêneo (Exercı́cio 5.2.18 na página 324). Exemplo 5.15. Os exemplos triviais de subespaços de Rn são o subespaço formado somente pelo vetor nulo, W = {0̄} e W = Rn . Mas cuidado, o R2 não é subespaço de R3 , pois o R2 (conjunto de pares de números reais) não é um subconjunto do R3 (conjunto de ternos de números reais). O plano W = {( x, y, z) ∈ R3 | z = 0} é um subespaço de R3 mas ele não é o R2 . Julho 2010 Reginaldo J. Santos Espaços Rn 308 X1 + X2 αX X1 X2 Figura 5.18. Soma de vetores do plano ax + by + cz = 0 X Figura 5.19. Multiplicação de vetor por escalar do plano ax + by + cz = 0 X1 + X2 αX X2 X1 X Figura 5.20. Soma de vetores da reta ( x, y, z) = ( at, bt, ct) Um Curso de Geometria Analı́tica e Álgebra Linear Figura 5.21. Multiplicação de vetor por escalar da reta ( x, y, z) = ( at, bt, ct) Julho 2010 5.2 Subespaços Base e Dimensão 309 Exemplo 5.16. Considere o sistema linear   a1 x a x  2 a3 x + b1 y + c1 z = 0 + b2 y + c2 z = 0 + b3 y + c3 z = 0 Cada equação deste sistema é representada por um plano que passa pela origem. O conjunto solução é um subespaço de R3 e é a interseção dos planos definidos pelas equações, podendo ser: (a) Somente um ponto que é a origem. (b) Uma reta que passa pela origem. (c) Um plano que passa pela origem. Vamos escrever toda solução do sistema linear homogêneo AX = 0̄ como uma combinação linear de um número finito de vetores V1 , . . . , Vk que são também solução do sistema. Exemplo 5.17. Considere o sistema linear homogêneo AX = 0̄, em que  1 A =  −2 1 1 −2 1 0 1 −1 Escalonando a matriz aumentada do sistema reduzida  1 1 0 0  0 0 1 −1 0 0 0 0 Julho 2010 0 −1 1  1 −1  . 0 acima, obtemos a matriz escalonada  1 0 1 0 . 0 0 Reginaldo J. Santos Espaços Rn 310 E assim a solução geral do sistema pode ser escrita como x1 = −α − γ, x2 = γ, x3 = −α + β, x4 = β x5 = α para todos os valores de α, β, γ ∈ R, ou seja, o conjunto solução do sistema AX = 0̄ é W = {( x1 , x2 , x3 , x4 , x5 ) = (−α − γ, γ, −α + β, β, α) | α, β, γ ∈ R} . Agora, um elemento qualquer de W pode ser escrito como uma combinação linear de vetores de W: (−α − γ, γ, −α + β, β, α) = (−α, 0, −α, 0, α) + (0, 0, β, β, 0) + (−γ, γ, 0, 0, 0) = α(−1, 0, −1, 0, 1) + β(0, 0, 1, 1, 0) + γ(−1, 1, 0, 0, 0) Assim, todo vetor de W pode ser escrito como combinação linear dos vetores V1 = (−1, 0, −1, 0, 1), V2 = (0, 0, 1, 1, 0) e V3 = (−1, 1, 0, 0, 0) pertencentes a W (V1 é obtido fazendo-se α = 1 e β = γ = 0, V2 fazendo-se α = γ = 0 e β = 1 e V3 fazendo-se α = β = 0 e γ = 1). Neste caso dizemos que V1 = (−1, 0, −1, 0, 1), V2 = (0, 0, 1, 1, 0) e V3 = (−1, 1, 0, 0, 0) geram o subespaço W. Em geral temos a seguinte definição. Definição 5.5. Seja W um subespaço de Rn (por exemplo, o espaço solução de um sistema linear homogêneo AX = 0̄). Dizemos que os vetores V1 , . . . , Vk pertencentes a W, geram W ou que {V1 , . . . , Vk } é um conjunto de geradores de W, se qualquer vetor de W é combinação linear de V1 , . . . , Vk . Dizemos também que W é o subespaço gerado por V1 , . . . , Vk . Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 5.2 Subespaços Base e Dimensão 311 Uma questão importante é encontrar o maior número possı́vel de vetores linearmente independentes em um subespaço. O resultado a seguir responde a esta questão. Teorema 5.6. Seja W subespaço de Rn (por exemplo, o espaço solução de um sistema linear homogêneo AX = 0̄). Seja {V1 , . . . , Vm } um conjunto de vetores de W (a) linearmente independente (L.I.), (b) que gera W (ou seja, todo vetor X de W é combinação linear de V1 , . . . , Vm ). Então, um conjunto com mais de m vetores em W é linearmente dependente (L.D.). Demonstração. Seja {W1 , . . . , Wp } um subconjunto de W, com p > m. Vamos mostrar que {W1 , . . . , Wp } é L.D. Vamos considerar a combinação linear nula de W1 , . . . , Wp x1 W1 + x2 W2 + . . . + x p Wp = 0̄. (5.13) Como qualquer elemento de W pode ser escrito como combinação linear de V1 , . . . , Vm , em particular, m Wj = b1j V1 + b2j V2 + . . . + bmj Vm = ∑ bij Vi , para j = 1, . . . , p . (5.14) i =1 Assim, substituindo (5.14) em (5.13) e agrupando os termos que contém Vi , para i = 1, . . . , m, obtemos (b11 x1 + . . . + b1p x p )V1 + . . . + (bm1 x1 + . . . + bmp x p )Vm = 0̄. Julho 2010 (5.15) Reginaldo J. Santos Espaços Rn 312 Como {V1 , . . . , Vm } é L.I., então os escalares na equação (5.15) são iguais a zero. Isto leva ao sistema linear BX = 0̄, em que B = (bij )m× p . Mas, este é um sistema homogêneo que tem mais incógnitas do que equações, portanto possui solução não trivial, (Teorema 1.6 na página 48), como querı́amos provar.  O resultado anterior mostra que se podemos escrever todo elemento do subespaço W como uma combinação linear de vetores V1 , . . . , Vm L.I. pertencentes a W, então m é o maior número possı́vel de vetores L.I. em W. No Exemplo 5.17 os vetores V1 = (−1, 0, −1, 0, 1), V2 = (0, 0, 1, 1, 0) e V3 = (−1, 1, 0, 0, 0) geram W. Além disso de α(−1, 0, −1, 0, 1) + β(0, 0, 1, 1, 0) + γ(−1, 1, 0, 0, 0) = (−α − γ, γ, −α + β, β, α) segue-se que V1 , V2 e V3 são L.I. (por que?) Assim, pelo Teorema 5.6 não podemos obter um número maior de vetores, em W, L.I. Neste caso dizemos que {V1 , V2 , V3 } é uma base de W. Em geral temos a seguinte definição. Definição 5.6. Seja W um subespaço de Rn (por exemplo, o espaço solução de um sistema linear homogêneo AX = 0̄). Dizemos que um subconjunto {V1 , . . . , Vk } de W é uma base de W, se Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 5.2 Subespaços Base e Dimensão 313 (a) {V1 , . . . , Vk } é um conjunto de geradores de W (ou seja, todo vetor de W é combinação linear de V1 , . . . , Vk ) e (b) {V1 , . . . , Vk } é L.I. Exemplo 5.18. Os vetores E1 = (1, 0, . . . , 0), E2 = (0, 1, 0, . . . , 0), . . . , En = (0, . . . , 0, 1) formam uma base do Rn . Pois, um vetor qualquer do Rn é da forma V = ( a1 , . . . , an ) e pode ser escrito como uma soma de vetores, sendo um vetor para cada parâmetro e cada vetor dependendo apenas de um parâmetro, obtendo V = ( a1 , . . . , a n ) = ( a1 , 0, . . . , 0) + (0, a2 , 0, . . . , 0) + . . . + (0, . . . , 0, an ) = a1 (1, 0, . . . , 0) + a2 (0, 1, 0, . . . , 0) + . . . + an (0, . . . , 0, 1). Assim, os vetores E1 = (1, 0, . . . , 0), E2 = (0, 1, 0, . . . , 0), . . . , En = (0, . . . , 0, 1) geram o Rn . Vimos no Exemplo 5.10 na página 293 que E1 , E2 , . . . En são L.I. Esses vetores formam a chamada base canônica de Rn . No caso do R3 , E1 = ~i, E2 = ~j e E3 = ~k. Exemplo 5.19. Seja W = {( x, y, z) = t( a, b, c) | t ∈ R} uma reta que passa pela origem. Como o vetor diretor V = ( a, b, c) é não nulo e gera a reta, então {V } é uma base de W. Julho 2010 Reginaldo J. Santos Espaços Rn 314 Exemplo 5.20. Seja W = {( x, y, z) ∈ R3 | ax + by + cz = 0} um plano que passa pela origem. Vamos supor que a 6= 0. Um ponto ( x, y, z) satisfaz a equação ax + by + cz = 0 se, e somente se, 1 z = α, y = β, x = − (cα + bβ), a para todos α, β ∈ R. c b Assim, o plano W pode ser descrito como W = {(− α − β, β, α) | α, β ∈ R}. a a Assim, todo vetor de W pode ser escrito como uma soma de vetores, sendo um para cada parâmetro, obtendo c b c b c b (− α − β, β, α) = (− α, 0, α) + (− β, β, 0) = α(− , 0, 1) + β(− , 1, 0). a a a a a a Assim, todo vetor de W pode ser escrito como uma combinação linear dos vetores V1 = (− ac , 0, 1) e V2 = (− ba , 1, 0) pertencentes a W (V1 é obtido fazendo-se α = 1 e β = 0 e V2 , fazendo-se α = 0 e β = 1). Portanto, V1 = (− ac , 0, 1) e V2 = (− ba , 1, 0) geram o plano W. Como V1 e V2 são L.I., pois um não é múltiplo escalar do outro, então {V1 , V2 } é uma base do plano W. Deixamos como exercı́cio para o leitor encontrar uma base de W para o caso em que b 6= 0 e também para o caso em que c 6= 0. Segue do Teorema 5.6 na página 311 que se W 6= {0̄} é um subespaço, então qualquer base de W tem o mesmo número de elementos e este é o maior número de vetores L.I. que podemos ter em W. O número de elementos de qualquer uma das bases de W é chamado de dimensão de W. Se W = {0̄} dizemos que W tem dimensão igual à 0. Exemplo 5.21. A dimensão do Rn é n, pois como foi mostrado no Exemplo 5.18 na página 313, E1 = (1, 0, . . . , 0), E2 = (0, 1, 0, . . . , 0), . . . , En = (0, . . . , 0, 1) Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 5.2 Subespaços Base e Dimensão 315 formam uma base do Rn . Exemplo 5.22. Pelo Exemplo 5.19 na página 313 uma reta que passa pela origem tem dimensão 1 e pelo Exemplo 5.20 na página 313 um plano que passa pela origem tem dimensão 2. Vamos mostrar a seguir que se a dimensão de um subespaço W é m > 0, então basta conseguirmos m vetores L.I. em W, que teremos uma base. Teorema 5.7. Seja W um subespaço de dimensão m > 0. Se m vetores, V1 , . . . , Vm ∈ W, são L.I., então eles geram o subespaço W e portanto formam uma base de W. Demonstração. Sejam V1 , . . . , Vm vetores L.I. e seja V um vetor qualquer do subespaço W. Vamos mostrar que V é combinação linear de V1 , . . . , Vm . Considere a equação vetorial x1 V1 + x2 V2 + . . . + xm Vm + xm+1 V = 0̄ (5.16) Pelo Teorema 5.6 na página 311, V1 , . . . , Vm , V são L.D., pois são m + 1 vetores em um subespaço de dimensão m. Então a equação (5.16) admite solução não trivial, ou seja, pelo menos um xi 6= 0. Mas, xm+1 6= 0, pois caso contrário, V1 , . . . , Vm seriam 1 L.D. Então, multiplicando-se a equação (5.16) por e subtraindo-se x m +1 Julho 2010 Reginaldo J. Santos Espaços Rn 316 obtemos x1 x2 xm V + V2 + . . . + Vm , x m +1 1 x m +1 x m +1     x1 xm V=− V1 − . . . − Vm . x m +1 x m +1  Dos resultados anteriores, vemos que se a dimensão de um subespaço, W, é m > 0, então basta conseguirmos m vetores L.I. em W, que teremos uma base (Teorema 5.7) e não podemos conseguir mais do que m vetores L.I. (Teorema 5.6 na página 311). Exemplo 5.23. Do Teorema 5.7 segue-se que n vetores L.I. do Rn formam uma base de Rn . Por exemplo, 3 vetores L.I. do R3 formam uma base de R3 . Exemplo 5.24. Sejam W o plano x + y + z = 0 e V o plano 4x − 2y + z = 0. Assim, o plano W tem vetor normal N1 = (1, 1, 1) e o plano V tem vetor normal N2 = (4, −2, 1). A interseção W ∩ V é a reta cujo vetor diretor é V = N1 × N2 = (3, 3, −6) (revise o Exemplo 4.7 na página 235) e que passa pela origem. Assim, a reta que é a interseção, V ∩ W, tem equação ( x, y, z) = t(3, 3, −6), para todo t ∈ R. Portanto, o vetor V = (3, 3, −6) gera a interseção V ∩ W. Como um vetor não nulo é L.I. o conjunto {V = (3, 3, −6)} é uma base da reta que é a interseção V ∩ W. Alternativamente, podemos encontrar as equações paramétricas da reta V ∩ W, interseção dos planos determinando a solução geral do sistema (5.17) W : V : x+y+z 4x − 2y + z Um Curso de Geometria Analı́tica e Álgebra Linear = 0, = 0. (5.17) Julho 2010 5.2 Subespaços Base e Dimensão 317 Para isto devemos escalonar a matriz do sistema (5.17):   1 1 1 0 4 −2 1 0 Precisamos “zerar” o outro elemento da 1a. coluna, que é a coluna do pivô, para isto, adicionamos à 2a. linha, −4 vezes a 1a. linha.   1 1 1 0 −4∗1a. linha + 2a. linha −→ 2a. linha 0 −6 −3 0 Agora, já podemos obter facilmente a solução geral do sistema dado, já que ele é equivalente ao sistema  x + y + z = 0 −6y − 3z = 0 A variável z é uma variável livre. Podemos dar a ela um valor arbitrário, digamos t, para t ∈ R qualquer. Assim, a solução geral do sistema (5.17) é   x y  z = − 21 t = − 12 t = t para todo t ∈ R. A reta que é a interseção, V ∩ W, tem equação ( x, y, z) = t(−1/2, −1/2, 1), para todo t ∈ R (revise o Exemplo 4.7 na página 235). Portanto, o vetor V = (−1/2, −1/2, 1) gera a interseção V ∩ W. Como um vetor não nulo é L.I. o conjunto {V = (−1/2, −1/2, 1)} é uma base do subespaço que é a reta interseção de V com W. Julho 2010 Reginaldo J. Santos Espaços Rn 318 Observação. Como no exemplo anterior, em geral, o espaço solução de um sistema linear homogêneo pode ser visto como uma interseção de subespaços que são as soluções de sistemas formados por subconjuntos de equações do sistema inicial. Exemplo 5.25. Considere o subespaço W = {( a + c, b + c, a + b + 2c) | a, b, c ∈ R} de R3 . Vamos encontrar um conjunto de geradores e uma base para W. Qualquer elemento V de W pode ser escrito como uma soma de vetores, sendo um vetor para cada parâmetro e cada vetor dependendo apenas de um parâmetro, obtendo V = ( a + c, b + c, a + b + 2c) = ( a, 0, a) + (0, b, b) + (c, c, 2c) = a(1, 0, 1) + b(0, 1, 1) + c(1, 1, 2). Logo, definindo V1 = (1, 0, 1), V2 = (0, 1, 1) e V3 = (1, 1, 2), temos que {V1 , V2 , V3 } gera W. Para sabermos se {V1 , V2 , V3 } é base de W, precisamos verificar se V1 , V2 e V3 são L.I. Para isto temos que saber se a equação vetorial xV1 + yV2 + zV3 = 0̄ (5.18) ou equivalentemente, A X = 0̄, em que A = [ V1 V2 V3 ] só possui a solução trivial. Escalonando a matriz A, obtemos   1 0 1 R =  0 1 1 . 0 0 0 Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 5.2 Subespaços Base e Dimensão 319 Logo 5.18 tem solução não trivial. Assim, os vetores V1 , V2 e V3 são L.D. A solução de (5.18) é dada por x = −α, y = −α e z = α, para todo α ∈ R. Substituindo-se esta solução em (5.18) obtemos −αV1 − αV2 + αV3 = 0̄ Tomando-se α = 1 obtemos V3 = V2 + V1 . Assim, o vetor V3 pode ser descartado na geração de W, pois ele é combinação linear dos outros dois. Logo, apenas V1 e V2 são suficientes para gerar W. Como além disso, os vetores V1 e V2 são tais que um não é múltiplo escalar do outro, então eles são L.I. e portanto {V1 , V2 } é uma base de W. Observe que a mesma relação que vale entre as colunas de R vale entre as colunas de A (por que?). Exemplo 5.26. Considere os vetores V1 = (−1, 1, 0, −3) e V2 = (−3, 3, 2, −1) linearmente independentes de R4 . Vamos encontrar vetores V3 e V4 tais que {V1 , V2 , V3 , V4 } formam uma base de R4 . Escalonando a matriz cujas linhas são os vetores V1 e V2 ,     −1 1 0 −3 1 −1 0 3 A= , obtemos R = −3 3 2 −1 0 0 1 4 Vamos inserir linhas que são vetores da base canônica na matriz R até conseguir uma matriz 4 × 4 triangular superior com os elementos da diagonal diferentes de zero. Neste caso acrescentando as linhas V3 = [ 0 1 0 0 ] e V4 = [ 0 0 0 1 ] em posições adequadas obtemos a matriz   1 −1 0 3  0 1 0 0   R̄ =   0 0 1 4  0 0 0 1 Vamos verificar que V1 , V2 , V3 e V4 são L.I. x1 V1 + x2 V2 + x3 V3 + x4 V4 = 0̄ Julho 2010 Reginaldo J. Santos Espaços Rn 320 é equivalente ao sistema linear CX = 0̄, em que C = [ V1 V2 V3 V4 ]. Mas como det( R̄) 6= 0, então det(C ) 6= 0, pelo Teorema 2.13 na página 109, pois R̄ pode ser obtida de C t aplicando-se operações elementares. Logo {V1 , V2 , V3 , V4 } é L.I. Como a dimensão do R4 é igual à 4 , então pelo Teorema 5.7 na página 315, {V1 , V2 , V3 , V4 } é uma base de R4 . Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 5.2 Subespaços Base e Dimensão 321 Exercı́cios Numéricos (respostas na página 543) 5.2.1. Encontre um conjunto de geradores para o espaço solução do sistema homogêneo AX = 0̄, em que     1 0 1 0 1 1 2 −1 (a) A =  1 2 3 1  ; (b) A =  2 3 6 −2  . 2 1 3 1 −2 1 2 2 5.2.2. Encontre os valores de λ tais que o sistema homogêneo ( A − λIn ) X = 0̄ tem solução não trivial e para estes valores de λ, encontre uma base para o espaço solução, para as matrizes A dadas:     0 0 1 −1 2 2 0  −1 2 1 0  (a) A =  1 0 −3 ;  (d) A =   −1 1 2 0 . 3   0 1 2 2 3 4  0 0 0 1  0 2 3 2  2 3 0  (b) A =   0 0 1 1 ; (e) A =  0 1 0 ;  0 0 0 1   0 0 2  1 1 −2 2 3 0 1 ; (c) A =  −1 2 (f) A =  0 2 0 ; 0 1 −1 0 0 2 5.2.3. Determine uma base para a reta interseção dos planos x − 7y + 5z = 0 e 3x − y + z = 0. 5.2.4. Sejam V1 = (4, 2, −3), V2 = (2, 1, −2) e V3 = (−2, −1, 0). (a) Mostre que V1 , V2 e V3 são L.D. (b) Mostre que V1 e V2 são L.I. (c) Qual a dimensão do subespaço gerado por V1 , V2 e V3 , ou seja, do conjunto das combinações lineares de V1 , V2 e V3 . (d) Descreva geometricamente o subespaço gerado por V1 , V2 e V3 5.2.5. Dados V1 = (2, 1, 3) e V2 = (2, 6, 4): Julho 2010 Reginaldo J. Santos Espaços Rn 322 (a) Os vetores V1 e V2 geram o R3 ? Justifique. (b) Seja V3 um terceiro vetor do R3 . Quais as condições sobre V3 , para que {V1 , V2 , V3 } seja uma base de R3 ? (c) Encontre um vetor V3 que complete junto com V1 e V2 uma base do R3 . 5.2.6. Seja W o plano x + 2y + 4z = 0. Obtenha uma base {V1 , V2 , V3 } de R3 tal que V1 e V2 pertençam a W. 5.2.7. Considere os seguintes subespaços de R3 : V = [(−1, 2, 3), (1, 3, 4)] e W = [(1, 2, −1), (0, 1, 1)]. Encontre as equações paramétricas da reta V ∩ W e uma base para o subespaço V ∩ W. A notação [V1 , V2 ] significa o subespaço gerado por V1 e V2 , ou seja, o conjunto de todas as combinações lineares de V1 e V2 . 5.2.8. Seja V = {(3a + 4b − 4c, 2a − 4b − 6c, −2a − 4b + 2c) | a, b, c ∈ R} um subespaço de R3 . (a) Determine um conjunto de geradores para V. (b) Determine uma base para V. 5.2.9. Dados V1 = (−3, 5, 2, 1) e V2 = (1, −2, −1, 2): (a) Os vetores V1 e V2 geram o R4 ? Justifique. (b) Sejam V3 e V4 vetores do R4 . Quais as condições sobre V3 e V4 para que {V1 , V2 , V3 , V4 } seja uma base de R4 ? (c) Encontre vetores V3 e V4 que complete junto com V1 e V2 uma base do R4 . 5.2.10. Dê exemplo de: (a) Três vetores: V1 , V2 e V3 , sendo {V1 } L.I., {V2 , V3 } L.I., V2 e V3 não são múltiplos de V1 e {V1 , V2 , V3 } L.D. (b) Quatro vetores: V1 , V2 , V3 e V4 , sendo {V1 , V2 } L.I., {V3 , V4 } L.I., V3 e V4 não são combinação linear de V1 e V2 e {V1 , V2 , V3 , V4 } L.D. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 5.2 Subespaços Base e Dimensão 323 Exercı́cio usando o M ATLABr 5.2.11. Defina a matriz aleatória A=triu(randi(4,4,3)). Encontre os valores de λ tais que o sistema homogêneo ( A − λI4 ) X = 0̄ tem solução não trivial e para estes valores de λ, encontre uma base para o espaço solução. Exercı́cios Teóricos 5.2.12. Seja A uma matriz m × n. Mostre que se o conjunto solução do sistema linear AX = B é um subespaço, então B = 0̄, ou seja, o sistema linear é homogêneo. (Sugestão: se X é solução de AX = B, então Y = 0 X também o é.) 5.2.13. Determine uma base para o plano ax + by + cz = 0 no caso em que b 6= 0 e no caso em que c 6= 0. 5.2.14. Sejam V e W vetores do Rn . Mostre que o conjunto dos vetores da forma αV + βW é um subespaço do Rn . 5.2.15. Mostre que se uma reta em R2 ou em R3 não passa pela origem, então ela não é um subespaço. (Sugestão: se ela fosse um subespaço, então ...) 5 y 4 3 2 1 0 x −1 −2 Julho 2010 −1 0 1 2 3 4 Reginaldo J. Santos Espaços Rn 324 5.2.16. Sejam A uma matriz m × n e B uma matriz m × 1. Mostre que o conjunto dos vetores B para os quais o sistema A X = B tem solução é um subespaço de Rm . Ou seja, mostre que o conjunto I( A) = { B ∈ Rm | B = A X, para algum X ∈ Rn } é um subespaço de Rm . 5.2.17. Sejam W1 e W2 dois subespaços. (a) Mostre que W1 ∩ W2 é um subespaço. (b) Mostre que W1 ∪ W2 é um subespaço se, e somente se, W1 ⊆ W2 ou W2 ⊆ W1 . (c) Definimos a soma dos subespaços W1 e W2 por W1 + W2 = {V1 + V2 | V1 ∈ W1 e V2 ∈ W2 }. Mostre que W1 + W2 é um subespaço que contém W1 e W2 . 5.2.18. Sejam W um subespaço de Rn e {W1 , . . . , Wk } uma base de W. Defina a matriz B = [ W1 . . . Wk ]t , com W1 , . . . , Wk escritos como matrizes colunas. Sejam W⊥ o espaço solução do sistema homogêneo BX = 0̄ e {V1 , . . . , Vp } uma base de W⊥ . Defina a matriz A = [ V1 . . . Vp ]t , com V1 , . . . , Vp escritos como matrizes colunas. Mostre que W é o espaço solução do sistema homogêneo AX = 0̄, ou seja, W = { X ∈ R p | AX = 0̄}. 5.2.19. Sejam A uma matriz m × n e B uma matriz m × 1. Seja X0 uma solução (particular) do sistema linear A X = B. Mostre que se {V1 , . . . , Vk } é uma base para o espaço solução do sistema homogêneo AX = 0̄, então toda solução de A X = B pode ser escrita na forma X = X0 + α1 V1 + . . . + αk Vk , em que α1 , . . . , αk são escalares. (Sugestão: use o Exercı́cio 1.2.21 na página 66) 5.2.20. Mostre que a dimensão do subespaço gerado pelas linhas de uma matriz escalonada reduzida é igual à dimensão do subespaço gerado pelas suas colunas. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 5.2 Subespaços Base e Dimensão 325 5.2.21. Mostre que a dimensão do subespaço gerado pelas linhas de uma matriz é igual à dimensão do subespaço gerado pelas suas colunas. (Sugestão: Considere a forma escalonada reduzida da matriz A e use o exercı́cio anterior.) Julho 2010 Reginaldo J. Santos Espaços Rn 326 Apêndice IV: Outros Resultados Teorema 5.8. Um subconjunto {V1 , V2 , . . . , Vm } de um subespaço W é uma base para W se, e somente se, todo vetor X de W é escrito de maneira única como combinação linear de V1 , V2 , . . . , Vm . Demonstração. Em primeiro lugar, suponha que todo vetor X de W é escrito de maneira única como combinação linear de V1 , . . . , Vm . Vamos mostrar que {V1 , V2 , . . . , Vm } é uma base de W. Como todo vetor é escrito como combinação linear de V1 , . . . , Vm , basta mostrarmos que V1 , . . . , Vm são L.I. Considere a equação x1 V1 + . . . + xm Vm = 0̄. Como todo vetor é escrito de maneira única como combinação linear de V1 , . . . , Vm , em particular temos que para X = 0̄, x1 V1 + . . . + xm Vm = 0̄ = 0V1 + . . . + 0Vm , o que implica que x1 = 0, . . . , xm = 0, ou seja, V1 , . . . , Vm são linearmente independentes. Portanto, {V1 , V2 , . . . , Vm } é base de W. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 5.2 Subespaços Base e Dimensão 327 Suponha, agora, que {V1 , V2 , . . . , Vm } é base de W. Seja X um vetor qualquer de W. Se x1 V1 + . . . + xm Vm = X = y1 V1 + . . . + ym Vm , então ( x1 − y1 )V1 + . . . + ( xm − ym )Vm = 0̄. Como V1 , . . . , Vm formam uma base de W, então eles são L.I., o que implica que x1 = y1 , . . . , xm = ym . Portanto, todo vetor X de W é escrito de maneira única como combinação linear de V1 , . . . , Vm .  Teorema 5.9. Se S = {V1 , . . . , Vk } é um conjunto de vetores que gera um subespaço W, ou seja, W = [S] = [V1 , . . . , Vk ], então existe um subconjunto de S que é base de W. Demonstração. Se S é L.I., então S é uma base de W. Caso contrário, S é L.D. e pelo Teorema 5.5 na página 297, um dos vetores de S é combinação linear dos outros. Assim, o subconjunto de S obtido retirando-se este vetor continua gerando W. Se esse subconjunto for L.I., temos uma base para W, caso contrário, continuamos retirando vetores do subconjunto até obtermos um subconjunto L.I. e aı́ neste caso temos uma base para W.  Julho 2010 Reginaldo J. Santos Espaços Rn 328 Vamos mostrar que se a dimensão de um subespaço W é m, então m vetores que geram o subespaço, W, formam uma base (Corolário 5.10) e que não podemos ter menos que m vetores gerando o subespaço (Corolário 5.11). São simples as demonstrações dos seguintes corolários, as quais deixamos como exercı́cio. Corolário 5.10. Em um subespaço, W, de dimensão m > 0, m vetores que geram o subespaço, são L.I. e portanto formam uma base. Corolário 5.11. Em um subespaço, W, de dimensão m > 0, um conjunto com menos de m vetores não gera o subespaço. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 5.2 Subespaços Base e Dimensão 329 Teorema 5.12. Se R = {V1 , . . . , Vk } é um conjunto de vetores L.I. em um subespaço W de Rn , então o conjunto R pode ser completado até formar uma base de W, ou seja, existe um conjunto S = {V1 , . . . , Vk , Vk+1 . . . , Vm } (R ⊆ S ), que é uma base de W. Demonstração. Se {V1 , . . . , Vk } gera W, então {V1 , . . . , Vk } é uma base de W. Caso contrário, seja Vk+1 um vetor que pertence a W, mas não pertence ao subespaço gerado por {V1 , . . . , Vk }. Então, o conjunto {V1 , . . . , Vk , Vk+1 } é L.I., pois caso contrário x1 V1 + . . . + xk+1 Vk+1 = 0̄, implicaria que xk+1 6= 0 (por que?) e assim, Vk+1 seria combinação linear de V1 , . . . , Vk , ou seja, Vk+1 pertenceria ao subespaço Wk . Se {V1 , . . . , Vk+1 } gera W, então {V1 , . . . , Vk+1 } é uma base de W. Caso contrário, o mesmo argumento é repetido para o subespaço gerado por {V1 , . . . , Vk , Vk+1 }. Pelo Corolário 5.4 na página 295 este processo tem que parar, ou seja, existe um inteiro positivo m ≤ n tal que {V1 , . . . , Vk , Vk+1 , . . . , Vm } é L.I., mas {V1 , . . . , Vk , Vk+1 , . . . , Vm , V } é L.D. para qualquer vetor V de W. O que implica que V é combinação linear de {V1 , . . . , Vk , Vk+1 , . . . , Vm } (por que?). Portanto, {V1 , . . . , Vk , Vk+1 , . . . , Vm } é uma base de W.  Julho 2010 Reginaldo J. Santos Espaços Rn 330 Corolário 5.13. Todo subespaço de Rn diferente do subespaço trivial {0̄} tem uma base e a sua dimensão é menor ou igual à n. Os próximos resultados são aplicações às matrizes. Proposição 5.14. Sejam A e B matrizes m × n equivalentes por linhas. Sejam A1 , . . . , An as colunas 1, . . . , n, respectivamente, da matriz A e B1 , . . . , Bn as colunas 1, . . . , n, respectivamente, da matriz B. (a) Bj1 , . . . , Bjk são L.I. se, e somente se, A j1 , . . . , A jk também o são. (b) Se existem escalares α j1 , . . . , α jk tais que Ak = α j1 A j1 + · · · + α jk A jk , então Bk = α j1 Bj1 + · · · + α jk Bjk , (c) O subespaço gerado pelas linhas de A é igual ao subespaço gerado pelas linhas de B. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 5.2 Subespaços Base e Dimensão 331 Demonstração. Se B é equivalente por linhas a A, então B pode ser obtida de A aplicando-se uma sequência de operações elementares. Aplicar uma operação elementar a uma matriz corresponde a multiplicar a matriz à esquerda por uma matriz invertı́vel (Teorema 1.8 na página 54). Seja M o produto das matrizes invertı́veis correspondentes às operações elementares aplicadas na matriz A para se obter a matriz B. Então M é invertı́vel e B = MA. (a) Vamos supor que Bj1 , . . . , Bjk são L.I. e vamos mostrar que A j1 , . . . , A jk também o são. Se x j1 A j1 + · · · + x jk A jk = 0̄, então multiplicando-se à esquerda pela matriz M obtemos x j1 MA j1 + · · · + x jk MA jk = 0̄. Como MA j = Bj , para j = 1, . . . , n (Exercı́cio 1.1.18 (a) na página 25), então x j1 Bj1 + · · · + x jk Bjk = 0̄. Assim, se Bj1 , . . . , Bjk são L.I., então x j1 = . . . = x jk = 0. O que implica que A j1 , . . . , A jk também são L.I. Trocando-se B por A o argumento acima mostra que se A j1 , . . . , A jk são L.I., então Bj1 , . . . , Bjk também o são. (b) Sejam α j1 , . . . , α jk escalares tais que Ak = α j1 A j1 + · · · + α jk A jk , então multiplicando-se à esquerda pela matriz M obtemos MAk = α j1 MA j1 + · · · + α jk MA jk . Como MA j = Bj , para j = 1, . . . , n (Exercı́cio 1.1.18 (a) na página 25), então Bk = α j1 Bj1 + · · · + α jk Bjk . Julho 2010 Reginaldo J. Santos Espaços Rn 332 (c) A matriz B é obtida de A aplicando-se uma sequência de operações elementares às linhas de A. Assim, toda linha de B é uma combinação linear das linhas de A. Logo, o espaço gerado pelas linhas de B está contido no espaço gerado pelas linhas de A. Como toda operação elementar tem uma operação elementar inversa, o argumento anterior também mostra que o espaço gerado pelas linhas de A está contido no espaço gerado pelas linhas de B. Portanto, eles são iguais.  Vamos agora provar a unicidade da forma escalonada reduzida. Teorema 5.15. Se R = (rij )m×n e S = (sij )m×n são matrizes escalonadas reduzidas equivalentes por linhas a uma matriz A = ( aij )m×n , então R = S. Demonstração. Sejam S e R matrizes escalonadas reduzidas equivalentes a A. Sejam R1 , . . . , Rn as colunas de R e S1 , . . . , Sn as colunas de S. Seja r o número de linhas não nulas de R. Sejam j1 , . . . , jr as colunas onde ocorrem os pivôs das linhas 1, . . . , r, respectivamente, da matriz R. Então R e S são equivalentes por linha, ou seja, existe uma sequência de operações elementares que podemos aplicar em R para chegar a S e uma outra sequência de operações elementares que podemos aplicar a S e chegar a R. Assim, como as colunas 1, . . . , j1 − 1 de R são nulas o mesmo vale para as colunas 1, . . . , j1 − 1 de S. Logo o pivô da 1a. linha de S ocorre numa coluna maior ou igual à Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 5.2 Subespaços Base e Dimensão 333 j1 . Trocando-se R por S e usando este argumento chegamos a conclusão que R j1 = S j1 e assim R1 = S1 , . . . , R j1 = S j1 . Vamos supor que R1 = S1 , . . . , R jk = S jk e vamos mostrar que R jk +1 = S jk +1 , . . . , R jk+1 = S jk+1 , R jr +1 = S jr +1 , . . . , Rn = Sn , se k < r ou se k = r. Observe que para j = jk + 1, . . . , jk+1 − 1, se k < r, ou para j = jr + 1, . . . , n, se k = r, temos que R j = (r1j , . . . , rkj , 0, . . . , 0) = r1j R j1 + . . . + rkj R jk , o que implica pela Proposição 5.14 (b) na página 330 que S j = r1j S j1 + . . . + rkj S jk . Mas por hipótese R j1 = S j1 , . . . , R jk = S jk , então, S j = r1j R j1 + . . . + rkj R jk = R j , para j = jk + 1, . . . , jk+1 − 1, se k < r ou para j = jr + 1, . . . , n, se k = r. Logo, se k < r, o pivô da (k + 1)-ésima linha de S ocorre numa coluna maior ou igual à jk+1 . Trocando-se R por S e usando o argumento anterior chegamos a conclusão que R jk+1 = S jk+1 e assim R1 = S1 , . . . , R jr = S jr . E se k = r, então R 1 = S1 , . . . , R n = S n . Portanto, R = S. Julho 2010  Reginaldo J. Santos Espaços Rn 334 V1 V = ( a, b, c) V2 Figura 5.22. V1 e V2 que formam uma base para o plano Um Curso de Geometria Analı́tica e Álgebra Linear Figura 5.23. Vetor V = ( a, b, c) que é base para a reta ( x, y, z) = t( a, b, c) Julho 2010 5.2 Subespaços Base e Dimensão 335 Figura 5.24. O subespaço W do Exemplo 5.24 Julho 2010 Reginaldo J. Santos Espaços Rn 336 Figura 5.25. O subespaço V do Exemplo 5.24 Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 5.2 Subespaços Base e Dimensão 337 Figura 5.26. Os subespaços W, V e V ∩ W do Exemplo 5.24 Julho 2010 Reginaldo J. Santos Espaços Rn 338 5.3 Produto Escalar em Rn 5.3.1 Produto Interno Vimos que podemos estender a soma e a multiplicação de vetores por escalar para o Rn . Podemos estender também os conceitos de produto escalar e ortogonalidade. Definição 5.7. (a) Definimos o produto escalar ou interno de dois vetores X Y = (y1 , . . . , yn ) ∈ Rn por = ( x1 , . . . , x n ) ∈ Rn e n X · Y = x1 y1 + x2 y2 + . . . + x n y n = ∑ xi yi . i =1 (b) Definimos a norma de um vetor X = ( x1 , . . . , xn ) ∈ Rn por || X || = Um Curso de Geometria Analı́tica e Álgebra Linear √ X·X = q s x12 + . . . + xn2 = n ∑ xi2 . i =1 Julho 2010 5.3 Produto Escalar em Rn 339 Escrevendo os vetores como matrizes colunas, o produto interno de dois vetores     x1 y1     X =  ...  e Y =  ...  xn yn pode ser escrito em termos do produto de matrizes como X · Y = X t Y. Exemplo 5.27. Sejam V = (1, −2, 4, 3, 5) e W = (5, 3, −1, −2, 1) vetores do R5 . O produto escalar entre V e W é dado por V · W = (1)(5) + (−2)(3) + (4)(−1) + (3)(−2) + (5)(1) = −6. As normas de V e W são dadas por q √ ||V || = 12 + (−2)2 + 42 + 32 + 52 = 55, ||W || = q 52 + 32 + (−1)2 + (−2)2 + 12 = √ 40. São válidas as seguintes propriedades para o produto escalar e a norma de vetores de Rn . Julho 2010 Reginaldo J. Santos 340 Espaços Rn Proposição 5.16. Se X, Y e Z são vetores de Rn e α é um escalar, então (a) X · Y = Y · X (comutatividade); (b) X · (Y + Z ) = X · Y + X · Z (distributividade em relação à soma); (c) (αX ) · Y = α( X · Y ) = X · (αY ); (d) X · X = || X ||2 ≥ 0 e || X || = 0 se, e somente se, X = 0̄; (e) ||αX || = |α| || X ||; (f) | X · Y | ≤ || X ||||Y || (desigualdade de Cauchy-Schwarz); (g) || X + Y || ≤ || X || + ||Y || (desigualdade triangular). Demonstração. Sejam X, Y, Z ∈ Rn e α ∈ R. Usando o fato de que se os vetores são escritos como matrizes colunas, então o produto escalar pode ser escrito como o produto de matrizes, X · Y = X t Y, e as propriedades da álgebra matricial (Teorema 1.1 na página 9), temos que (a) X · Y = x1 y1 + · · · + xn yn = y1 x1 + · · · + yn xn = Y · X. (b) X · (Y + Z ) = X t (Y + Z ) = X t Y + X t Z = X · Y + X · Z. (c) α( X · Y ) = α( X t Y ) = (αX t )Y = (αX )t Y = (αX ) · Y. A outra igualdade é inteiramente análoga. (d) X · X é uma soma de quadrados, por isso é sempre maior ou igual à zero e é zero se, e somente se, todas as parcelas são iguais a zero. (e) ||αX ||2 = (αx1 )2 + · · · + (αxn )2 = α2 ( x12 + · · · + xn2 ) = α2 || X ||2 . Tomando a raiz quadrada, segue-se o resultado. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 5.3 Produto Escalar em Rn 341 (f) A norma de λX + Y é maior ou igual à zero, para qualquer λ real. Assim, 0 ≤ ||λX + Y ||2 = (λX + Y ) · (λX + Y ) = (|| X ||2 )λ2 + (2X · Y )λ + ||Y ||2 , para qualquer λ real. Logo, o discriminante deste trinômio tem que ser menor ou igual à zero. Ou seja, ∆ = 4( X · Y )2 − 4|| X ||2 ||Y ||2 ≤ 0. Logo, | X · Y | ≤ || X || ||Y ||. (g) Pelo item anterior temos que || X + Y ||2 = ( X + Y ) · ( X + Y ) = || X ||2 + 2X · Y + ||Y ||2 ≤ || X ||2 + 2| X · Y | + ||Y ||2 ≤ || X ||2 + 2|| X ||||Y || + ||Y ||2 = (|| X || + ||Y ||)2 . Tomando a raiz quadrada, segue-se o resultado.  Dizemos que dois vetores X e Y são ortogonais se X · Y = 0. As propriedades do produto escalar permitem introduzir o conceito de bases ortogonais no Rn . Antes temos o seguinte resultado. Proposição 5.17. Se V1 , . . . , Vk são vetores não nulos de Rn ortogonais, isto é, Vi · Vj = 0, para i 6= j, então (a) O conjunto {V1 , . . . , Vk } é L.I. k (b) Se V = ∑ αi Vi , então αi = i =1 Julho 2010 V · Vi . ||Vi ||2 Reginaldo J. Santos Espaços Rn 342 Demonstração. (a) Considere a equação vetorial x1 V1 + . . . + xk Vk = 0̄ . (5.19) Fazendo o produto escalar de ambos os membros de (5.19) com Vi , i = 1, . . . , k e aplicando as propriedades do produto escalar, obtemos x1 (V1 · Vi ) + . . . + xi (Vi · Vi ) + . . . + xk (Vk · Vi ) = 0 . (5.20) Mas, Vi · Vj = 0, se i 6= j. Assim, de (5.20) obtemos que xi ||Vi ||2 = 0 . Mas, como Vi 6= 0̄, então ||Vi || 6= 0 e xi = 0, para i = 1 . . . , k. (b) Seja k V= ∑ αi Vi . (5.21) i =1 Fazendo o produto escalar de V com Vj , para j = 1, . . . , k, obtemos que k V · Vj = ∑ αi Vi ! k · Vj = i =1 Assim, αj = V · Vj , ||Vj ||2 ∑  αi Vi · Vj = α j ||Vj ||2 . i =1 para j = 1, . . . , k.  Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 5.3 Produto Escalar em Rn 343 Observe que o item (a) é uma consequência imediata do item (b). Definimos a projeção ortogonal de um vetor V sobre um vetor não nulo W, por  projW V = V ·W ||W ||2  W. Observe que a projeção ortogonal de um vetor V sobre um vetor não nulo W é um múltiplo escalar do vetor W. Além disso temos o seguinte resultado. Julho 2010 Reginaldo J. Santos Espaços Rn 344 Proposição 5.18. Seja W ∈ Rn um vetor não nulo. Então, V − projW V é ortogonal a W, para qualquer vetor V ∈ Rn . Demonstração. Precisamos calcular o produto escalar de W com V − projW V:  (V − projW V ) · W = V · W − V ·W ||W ||2  W · W = 0. Portanto, V − projW V é ortogonal a W.  O próximo resultado é uma generalização da Proposição 5.18. Proposição 5.19. Sejam W1 , W2 , . . . , Wk vetores não nulos de Rn , ortogonais entre si, então para qualquer vetor V, V − projW1 V − . . . − projWk V é ortogonal a Wi , para i = 1, . . . , k. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 5.3 Produto Escalar em Rn 345 Demonstração. Vamos calcular o produto interno de V − projW1 V − . . . − projWk V com Wj , para j = 1, . . . , k. k V − ∑ projWi V i =1 ! k · Wj = V · Wj − ∑ i =1  V · Wi ||Wi ||2  Wi · Wj = V · Wj − V · Wj ||Wj ||2 ! Wj · Wj = 0, pois Wi · Wj = 0, se i 6= j e Wj · Wj = ||Wj ||2 .  Julho 2010 Reginaldo J. Santos Espaços Rn V V − projW V V − projW V 346 V projW V W projW V W 1 2 V V − projW V − projW V Figura 5.27. Projeção ortogonal do vetor V sobre o vetor W W1 W2 projW V 1 projW V 2 projW V + projW V 1 2 Figura 5.28. V − projW1 V − projW2 V é ortogonal a W1 e a W2 Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 5.3 Produto Escalar em Rn 347 Vamos mostrar no próximo exemplo como encontrar no conjunto solução do sistema linear homogêneo AX = 0̄ um conjunto com o maior número possı́vel de vetores unitários (com norma igual à 1) ortogonais. Exemplo 5.28. Considere o sistema linear homogêneo AX = 0̄, em que  1 A =  −2 1 1 −2 1 0 1 −1 Escalonando a matriz aumentada do sistema reduzida  1 1 0 0  0 0 1 −1 0 0 0 0 0 −1 1  1 −1  . 0 acima, obtemos a matriz escalonada  1 0 1 0 . 0 0 E assim a solução geral do sistema pode ser escrita como x1 = −α − γ, x2 = γ, x3 = −α + β, x4 = β x5 = α para todos os valores de α, β, γ ∈ R, ou seja, o conjunto solução do sistema AX = 0̄ é W = {( x1 , x2 , x3 , x4 , x5 ) = (−α − γ, γ, −α + β, β, α) | α, β, γ ∈ R} . Agora, um elemento qualquer de W pode ser escrito como uma combinação linear de vetores de W: (−α − γ, γ, −α + β, β, α) = (−α, 0, −α, 0, α) + (0, 0, β, β, 0) + (−γ, γ, 0, 0, 0) = α(−1, 0, −1, 0, 1) + β(0, 0, 1, 1, 0) + γ(−1, 1, 0, 0, 0) Julho 2010 Reginaldo J. Santos Espaços Rn 348 Assim, todo vetor de W pode ser escrito como combinação linear dos vetores V1 = (−1, 0, −1, 0, 1), V2 = (0, 0, 1, 1, 0) e V3 = (−1, 1, 0, 0, 0) pertencentes a W (V1 é obtido fazendo-se α = 1 e β = γ = 0, V2 fazendo-se α = γ = 0 e β = 1 e V3 fazendo-se α = β = 0 e γ = 1). Além disso segue da equação anterior que V1 , V2 e V3 são L.I. Logo {V1 , V2 , V3 } é uma base de W. Vamos, agora, encontrar uma base ortonormal para W. Para isso vamos aplicar a Proposição 5.18 na página 344. W1 W2 W3 = V1 = (−1, 0, −1, 0, 1); 1 1 = V2 − projW1 V2 = (0, 0, 1, 1, 0) + (−1, 0, −1, 0, 1) = (−1, 0, 2, 3, 1) 3 3 1 1 = V3 − projW1 V3 − projW2 V3 = (−1, 1, 0, 0, 0) − (−1, 0, −1, 0, 1) − (−1, 0, 2, 3, 1) 3 15 1 = (−3, 5, 1, −1, −2) 5 Agora, vamos “dividir” cada vetor pela sua norma para obtermos vetores de norma igual à 1 (unitários).   1 1 1 1 U1 = W1 = (− √ , 0, − √ , 0, √ ) ||W1 || 3 3 3   1 1 2 3 1 U2 = W2 = (− √ , 0, √ , √ , √ ) ||W2 || 15 15 15 15   3 1 5 1 1 1 W3 = (− √ , √ , √ , − √ , − √ ) U3 = ||W3 || 2 10 2 10 2 10 2 10 10 5.3.2 Bases Ortogonais e Ortonormais Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 5.3 Produto Escalar em Rn 349 Definição 5.8. Seja {V1 , . . . , Vk } uma base de um subespaço de Rn . (a) Dizemos que {V1 , . . . , Vk } é uma base ortogonal, se Vi · Vj = 0, para i 6= j, ou seja, se quaisquer dois vetores da base são ortogonais; (b) Dizemos que {V1 , . . . , Vk } é uma base ortonormal, se além de ser uma base ortogonal, ||Vi || = 1, ou seja, o vetor Vi é unitário, para i = 1, . . . m. Exemplo 5.29. A base canônica de Rn , que é formada pelos vetores E1 = (1, 0, . . . , 0), E2 = (0, 1, 0, . . . , 0), ... En = (0, . . . , 0, 1) é uma base ortonormal de Rn . Exemplo 5.30. No Exemplo 5.28, {W1 , W2 , W3 } é uma base ortogonal de W e {U1 , U2 , U3 } é uma base ortonormal de W. O resultado a seguir mostra que o procedimento usado no Exemplo 5.28 conhecido como processo de ortogonalização de Gram-Schmidt pode ser aplicado a qualquer subespaço de Rn . Nas Figuras 5.29 e 5.30 vemos como isto é possı́vel no caso em que o subespaço é o R3 , já que o R3 é subespaço dele mesmo. Julho 2010 Reginaldo J. Santos Espaços Rn 350 Teorema 5.20 (Gram-Schmidt). Seja {V1 , . . . , Vk } uma base de um subespaço W de Rn . Então, existe uma base {U1 , . . . , Uk } de W que é ortonormal e tal que o subespaço gerado por U1 , . . . , Uj é igual ao subespaço gerado por V1 , . . . , Vj para j = 1, . . . , k. Demonstração. (a) Sejam W1 W2 W3 Wk = = = ... = V1 , V2 − projW1 V2 , V3 − projW1 V3 − projW2 V3 , Vk − projW1 Vk − projW2 Vk . . . − projWk−1 Vk . Pela Proposição 5.18, segue-se que W2 é ortogonal a W1 e W2 6= 0̄, pois V1 e V2 são L.I. Assim, W1 e W2 formam uma base ortogonal do subespaço gerado por V1 e V2 . Agora, supondo que W1 , . . . , Wk−1 seja uma base ortogonal do subespaço gerado por V1 , . . . , Vk−1 , segue-se da Proposição 5.19, que Wk é ortogonal a W1 , . . . , Wk−1 . Wk 6= 0̄, pois caso contrário, Vk pertenceria ao subespaço gerado por W1 , . . . , Wk−1 que é igual ao subespaço gerado por V1 , . . . , Vk−1 e assim V1 , . . . , Vk seriam L.D. Como W1 , . . . , Wk são ortogonais não nulos, pela Proposição 5.17 na página 341, eles são L.I. e portanto formam uma base do subespaço W. (b) Sejam, agora   1 W1 , U1 = ||W1 ||  U2 = 1 ||W2 || Um Curso de Geometria Analı́tica e Álgebra Linear   W2 , ..., Uk = 1 ||Wk ||  Wk . Julho 2010 5.3 Produto Escalar em Rn 351 Assim, {U1 , . . . , Uk } é uma base ortonormal para o subespaço W.  Julho 2010 Reginaldo J. Santos Espaços Rn 352 Exercı́cios Numéricos (respostas na página 556) 5.3.1. Sejam X = (1, 1, −2) e Y = ( a, −1, 2). Para quais valores de a, X e Y são ortogonais? √ √ √ 5.3.2. Sejam X = (1/ 2, 0, 1/ 2) e Y = ( a, 1/ 2, −b). Para quais valores de a e b, o conjunto { X, Y } é ortonormal? 5.3.3. Encontre uma base ortonormal para o plano x + y + z = 0. 5.3.4. Encontre um subconjunto com o maior número possı́vel de vetores ortonormais no subespaço dos vetores ( a, b, c, d) ∈ R4 tais que a − b − 2c + d = 0. 5.3.5. Encontre um subconjunto com o maior número possı́vel de vetores ortonormais no conjunto solução do sistema homogêneo  x + y − z = 0 2x + y + 2z = 0. 5.3.6. Considere as retas ( x, y, z) = t(1, 2, −3) e ( x, y, z) = (0, 1, 2) + s(2, 4, −6) em R3 . Encontre a equação geral do plano que contém estas duas retas e ache um subconjunto com o maior número possı́vel de vetores ortonormais neste plano. 5.3.7. Use o processo de ortogonalização de Gram-Schmidt para encontrar uma base ortonormal para o subespaço de R4 que tem como base {(1, 1, −1, 0), (0, 2, 0, 1), (−1, 0, 0, 1)}. 5.3.8. Aplique o processo de ortogonalização de Gram-Schmidt para obter uma base ortonormal de R3 a partir da base {(1, 1, 1), (0, 1, 1), (1, 2, 3)}. √ 5.3.9. Ache as equações dos planos em R3 ortogonais ao vetor (2, 2, 2), que distam 3 do ponto (1, 1, 1). Estes planos são subespaços de R3 ? Caso afirmativo, encontre base(s) ortonormal(is) para ele(s). Exercı́cios Teóricos 5.3.10. Mostre que se V é ortogonal a W, então V é ortogonal a αW, para todo escalar α. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 5.3 Produto Escalar em Rn 353 5.3.11. Mostre que se V é ortogonal a W1 , . . . , Wk , então V é ortogonal a qualquer combinação linear de W1 , . . . , Wk . 5.3.12. Sejam X, Y e Z vetores de Rn . Prove que se X · Y = X · Z, então Y − Z é ortogonal a X. 5.3.13. Mostre que se W1 , . . . , Wk são vetores não nulos ortogonais entre si e X = α1 W1 + . . . + αk Wk , então X = projW1 X + . . . + projWk X. 5.3.14. Sejam V1 , . . . , Vk vetores linearmente dependentes. Mostre que, aplicando-se o processo de ortogonalização de Gram-Schmidt aos vetores V1 , . . . , Vk , se obtém um vetor Wi que é nulo, para algum i = 1, . . . , k. (Sugestão: Seja Vi o primeiro vetor tal que Vi ∈ [V1 , . . . , Vi−1 ] = [W1 , . . . , Wi−1 ] e use o exercı́cio anterior.) 5.3.15. Seja S = {W1 , . . . , Wk } uma base ortogonal de um subespaço W de Rn . Mostre que um todo vetor V de W pode ser escrito como V= V · W1 V · W2 V · Wk W1 + W2 + . . . + W. 2 2 ||W1 || ||W2 || ||Wk ||2 k (Sugestão: escreva V = x1 W1 + . . . + xk Wk , faça o produto escalar de V com Wi e conclua que xi = para i = 1, . . . , k.) V ·Wi , ||Wi ||2 5.3.16. Mostre que o conjunto de todos os vetores do Rn ortogonais a um dado vetor V = ( a1 , . . . , an ), W = { X = ( x1 , . . . , xn ) ∈ Rn | X · V = 0} é um subespaço de Rn . 5.3.17. Demonstre que, se V e W são vetores quaisquer de Rn , então: (a) V · W = 14 [||V + W ||2 − ||V − W ||2 ] (identidade polar); (b) ||V + W ||2 + ||V − W ||2 = 2(||V ||2 + ||W ||2 ) (lei do paralelogramo). (Sugestão: desenvolva os segundos membros das igualdades ||V + W ||2 = (V + W ) · (V + W ) e ||V − W ||2 = (V − W ) · (V − W )) Julho 2010 acima observando que Reginaldo J. Santos Espaços Rn 354 5.3.18. Seja {U1 , . . . , Un } uma base ortonormal de Rn . Se A = [ U1 . . . Un ] é uma matriz n × n cujas colunas são os vetores U1 , . . . , Un , então A é invertı́vel e A−1 = At . (Sugestão: mostre que At A = In .) 5.3.19. Mostre que o ângulo entre dois vetores não nulos X = ( x1 , . . . , xn ) e Y = (y1 , . . . , yn ) de Rn , que é definido como sendo o número real θ entre 0 e π tal que cos θ = X·Y , || X || ||Y || está bem definido, ou seja, que existe um tal número real θ e é único. (Sugestão: mostre, usando a desigualdade de Cauchy-Schwarz, que X·Y −1 ≤ ≤ 1.) || X || ||Y || 5.3.20. Seja W um subespaço de Rn . Mostre que o conjunto de todos os vetores ortogonais a todos os vetores de W é um subespaço de Rn . Este subespaço é chamado de complemento ortogonal de W e denotado por W⊥ , ou seja, W⊥ = { X ∈ Rn | X · Y = 0, para todo Y ∈ W}. 5.3.21. Mostre que todo subespaço W de Rn é o espaço solução de um sistema linear homogêneo. (Sugestão: seja {W1 , . . . , Wk } uma base de W⊥ tome A = [ W1 . . . Wk ]t .) 5.3.22. Embora não exista o produto vetorial de dois vetores em Rn , para n > 3, podemos definir o produto vetorial de n − 1 vetores, V1 = (v11 , . . . , v1n ), . . . , Vn−1 = (v(n−1)1 , . . . , v(n−1)n ) como   V1 × V2 × · · · × Vn−1 = (−1)n+1 det(vij ) j6=1 , (−1)n+2 det(vij ) j6=2 , . . . , (−1)2n det(vij ) j6=n . Mostre que: (a) V1 × V2 × · · · × Vn−1 é ortogonal a V1 , . . . , Vn−1 . (b) α(V1 × V2 × · · · × Vn−1 ) = V1 × · · · αVi × · · · × Vn−1 Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 5.3 Produto Escalar em Rn 355 W3 = V3 − projW V3 1 −projW V3 2 V3 V3 W2 = W1 = V1 W1 W2 V2 − projW V2 1 projW V2 1 V2 Figura 5.29. W1 = V1 e W2 = V2 − projW1 V2 Julho 2010 projW V3 projW V3 2 1 proj V + proj V Figura 5.30. W3 = VW3 1−3 projWW2 13V3 − projW2 V3 Reginaldo J. Santos Espaços Rn 356 5.4 Mudança de Coordenadas Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 5.4 Mudança de Coordenadas 357 z~k P = ( x, y, z) U3 U1 y~j x~i −→ Figura 5.31. OP= x~i + y~j + z~k Julho 2010 O0 U2 Figura 5.32. Dois sistemas de coordenadas ortogonais {O,~i,~j,~k} e {O0 , U1 , U2 , U3 } Reginaldo J. Santos Espaços Rn 358 Se as coordenadas de um ponto P no espaço são ( x, y, z), então as componentes do −→ vetor OP também são ( x, y, z) e então podemos escrever −→ OP = ( x, y, z) = ( x, 0, 0) + (0, y, 0) + (0, 0, z) = x (1, 0, 0) + y(0, y, 0) + z(0, 0, 1) = x~i + y~j + z~k, em que ~i = (1, 0, 0), ~j = (0, 1, 0) e ~k = (0, 0, 1). Ou seja, as coordenadas de um ponto −→ P são iguais aos escalares que aparecem ao escrevermos OP como uma combinação linear dos vetores canônicos. Assim, o ponto O = (0, 0, 0) e os vetores ~i, ~j e ~k determinam um sistema de coordenadas ortogonal, {O,~i,~j,~k }. Para resolver alguns problemas geométricos é necessário usarmos um segundo sistema de coordenadas ortogonal determinado por uma origem O0 e por 3√vetores U1 , U2 e U3 ortonormais de √ R3 .∗ Por exemplo, se O0 = (2, 3/2, 3/2), U1 = ( 3/2, 1/2, 0), U2 = (−1/2, 3/2, 0) e U3 = (0, 0, 1) = ~k, então {O0 , U1 , U2 , U3 } determina um novo sistema de coordenadas: aquele com origem no ponto O0 , cujos eixos x 0 , y0 e z0 são retas que passam por O0 orientadas com os sentidos e direções de U1 , U2 e U3 , respectivamente (Figura 5.32). As coordenadas de um ponto P no sistema de coordenadas {O0 , U1 , U2 , U3 } é defi−→ nido como sendo os escalares que aparecem ao escrevermos O0 P como combinação linear dos vetores U1 , U2 e U3 , ou seja, se −→ O0 P= x 0 U1 + y0 U2 + z0 U3 , então as coordenadas de P no sistema {O0 , U1 , U2 , U3 } são dadas por  0  x [ P]{O0 ,U1 ,U2 ,U3 } =  y0  . z0 ∗ Em geral, um sistema de coordenadas (não necessariamente ortogonal) é definido por um ponto O0 e três vetores V , V e V L.I. de 3 1 2 R3 (não necessariamente ortonormais) (veja o Exercı́cio 5.4.9 na página 377). Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 5.4 Mudança de Coordenadas 359 −→ Vamos considerar inicialmente o caso em que O = O0 . Assim, se OP= ( x, y, z), então −→ x 0 U1 + y0 U2 + z0 U3 =OP é equivalente ao sistema linear  QX 0 = X, em que    x0 x Q = [ U1 U2 U3 ], X 0 =  y0  , X =  y  . z0 z Como a matriz Q é invertı́vel (por que?) a solução é dada por X 0 = Q−1 X. Mas, como U1 , U2 e U3 formam uma base ortonormal de R3 , então  t    U1t U1 U1 U1t U2 U1t U3 U1 · U1 U1 · U2 U1 · U3 Qt Q =  U2t  [ U1 U2 U3 ] =  U2t U1 U2t U2 U2t U3  =  U2 · U1 U2 · U2 U2 · U3  = I3 U3 · U1 U3 · U2 U3 · U3 U3t U3t U1 U3t U2 U3t U3   Assim, a matriz Q = [ U1 U2 U3 ] é invertı́vel e Q−1 = Qt . Desta forma as coordenadas de um ponto P no espaço em relação ao sistema {O, U1 , U2 , U3 }, x 0 , y0 e z0 estão unicamente determinados e    0  x x [ P]{O,U1 ,U2 ,U3 } = Qt [ P]{O,~i,~j,~k} ou  y0  = Qt  y  . z0 z Também no plano temos o mesmo tipo de situação que é tratada de forma inteiramente análoga. As coordenadas de um ponto P no plano em relação a um sistema de coordenadas {O0 , U1 , U2 }, em que U1 e U2 são vetores que formam uma base ortonormal do R2 , é definido como sendo os escalares que aparecem ao escrevermos −→ O0 P como combinação linear de U1 e U2 , ou seja, se −→ O0 P= x 0 U1 + y0 U2 , Julho 2010 Reginaldo J. Santos Espaços Rn 360 então as coordenadas de P no sistema {O0 , U1 , U2 } são dadas por  0  x . [ P]{O0 ,U1 ,U2 } = y0 As coordenadas de um ponto P no plano em relação ao sistema {O, U1 , U2 , U3 } estão bem definidas, ou seja, x 0 e y0 estão unicamente determinados e são dados por  0    x x t t [ P]{O,U1 ,U2 } = Q [ P]{O,E1 ,E2 } ou =Q , y0 y em que E1 = (1, 0) e E2 = (0, 1). Observe que, tanto no caso do plano quanto no caso do espaço, a matriz Q satisfaz, Q−1 = Qt . Uma matriz que satisfaz esta propriedade é chamada matriz ortogonal. 0 Exemplo√5.31. Considere o sistema de √ coordenadas no plano em que O = O e U1 = ( 3/2, 1/2) e U2 = (−1/2, 3/2). Se P = (2, 4), vamos determinar as coordenadas de P em relação ao novo sistema de coordenadas.  √ Q = [ U1 U2 ] = 3/2 1/2 −1/2 √ 3/2  . Assim, as coordenadas de P em relação ao novo sistema de coordenadas são dadas por √    √       t  2 U1 2 3/2 √1/2 2 2√ + 3 = = . [ P]{O,U1 ,U2} = Qt = 4 4 4 U2t −1/2 3/2 2 3−1 Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 5.4 Mudança de Coordenadas 361 y y‘ P y x‘ 0 0 y x E2 U2 U1 E1 x x Figura 5.33. Coordenadas de um ponto P em dois sistemas Julho 2010 Reginaldo J. Santos Espaços Rn 362 Exemplo 5.32. Considere o mesmo sistema de coordenadas do exemplo anterior, mas agora seja P = ( x, y) um ponto qualquer do plano. Vamos determinar as coordenadas de P em relação ao novo sistema de coordenadas. As coordenadas de P em relação ao novo sistema de coordenadas são dadas por [ P]{O,U1 ,U2} = Q t  x y   = U1t U2t  x y  √  3/2 −1/2 = √1/2 3/2  x y   = √  + y)/2 ( 3 x√ . (− x + 3 y)/2 Exemplo 5.33. Vamos agora considerar um problema inverso àqueles apresentados nos exemplos anteriores. Suponha que sejam válidas as seguintes equações ( x= y= √1 x 0 5 √2 x 0 5 + − √2 y0 5 √1 y0 5 , ou equivalentemente   x0 y0 x y "  = √1 5 √2 5 √2 5 − √1 5 # x0 y0   de um ponto P em relação a um sistema de coordenadas   x {O, U1 , U2 } e as coordenadas de P, , em relação ao sistema de coordenadas y original {O, E1 = (1, 0), E2 = (0, 1)}. entre as coordenadas Queremos determinar quais são os vetores U1 e U2 . Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 5.4 Mudança de Coordenadas 363     1 0 e , respectiva0 1 mente, em relação ao novo sistema de coordenadas, {O, U1 , U2 }. Pois, U1 = 1 U1 + 0 U2 e U2 = 0 U1 + 1 U2 . Queremos saber quais as coordenadas destes vetores em relação ao sistema de coordenadas original, {O, E1 = (1, 0), E2 = (0, 1)}. Logo, " 1 #  " √1 # √ √2 1 5 5 5 U1 = = √2 √2 0 − √1 5 5 5 " 1 #  " √2 # √ √2 0 5 5 5 U2 = = √2 1 − √1 − √1 Os vetores U1 e U2 da nova base possuem coordenadas 5 5 5 " Ou seja, U1 e U2 são as colunas da matriz Q = Julho 2010 √1 5 √2 5 √2 5 − √1 5 # . Reginaldo J. Santos Espaços Rn 364 y y‘ E2 x‘ cos θ U2 U1 θ senθ cos θ −sen θ θ E1 x Figura 5.34. Rotação de um ângulo θ Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 5.4 Mudança de Coordenadas 5.4.1 365 Rotação Suponha que o novo sistema de coordenadas {O, U1 , U2 } seja obtido do sistema original {O, E1 = (1, 0), E2 = (0, 1)} por uma rotação de um ângulo θ. Observando a Figura 5.34, obtemos U1 = (cos θ, sen θ ) U2 = (−sen θ, cos θ ) seja P = ( x, y) um ponto qualquer do plano. Vamos determinar as coordenadas de P em relação ao novo sistema de coordenadas. A matriz  Q = [ U1 U2 ] = cos θ sen θ −sen θ cos θ  = Rθ é chamada matriz de rotação. As coordenadas de P em relação ao novo sistema de coordenadas são dadas por  x0 y0  = Rtθ  x y   = cos θ −sen θ sen θ cos θ  x y  . O sistema de coordenadas que aparece nos dois primeiros exemplos desta seção podem ser obtidos por uma rotação de um ângulo θ = π/6 em relação ao sistema original. 5.4.2 Translação Vamos considerar, agora, o caso em que O0 6= O, ou seja, em que ocorre uma translação dos eixos coordenados. Julho 2010 Reginaldo J. Santos Espaços Rn 366 y‘ y y P y0 x‘ x0 O0 O x x Figura 5.35. Coordenadas de um ponto P em dois sistemas (translação) Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 5.4 Mudança de Coordenadas 367 Observando a Figura 5.35, obtemos −→ −→ −→ O0 P=OP − OO0 . (5.22) −→ Assim, se OO0 = (h, k), então −→ O0 P= ( x 0 , y0 ) = ( x, y) − (h, k) = ( x − h, y − k ) Logo, as coordenadas de P em relação ao novo sistema são dadas por  0    x x−h = . [ P]{O0 ,E1 ,E2 } = y0 y−k (5.23) O eixo x0 tem equação y0 = 0, ou seja, y = k e o eixo y0 , x 0 = 0, ou seja, x = h. Julho 2010 Reginaldo J. Santos Espaços Rn 368 5.4.3 Aplicação: Computação Gráfica - Projeção Ortográfica Esta projeção é usada para fazer desenhos de objetos tridimensionais no papel ou na tela do computador. Com esta projeção os pontos no espaço são projetados ortogonalmente ao plano do desenho. Para encontrar a projeção de um ponto P podemos encontrar as coordenadas de P em relação ao sistema S 0 = {O0 , U1 , U2 , U3 } e tomar as duas primeiras coordenadas. Como a projeção em qualquer plano paralelo ao plano do desenho fornece as mesmas coordenadas podemos supor que O0 = O, ou seja, que os dois sistemas têm a mesma origem. A relação entre as coordenadas de um ponto nos dois sistemas S 0 = {O, U1 , U2 , U3 } e S = {O,~i,~j,~k} é dada por X 0 = Qt X, em que Q = [ U1 U2 U3 ] Vamos encontrar os vetores U1 , U2 e U3 em função dos ângulos θ e φ. O vetor U1 é paralelo ao plano xy e é perpendicular ao vetor (cos θ, sen θ, 0), ou seja, U1 = (− sen θ, cos θ, 0). Os vetores U2 e U3 estão no plano definido por ~k e (cos θ, sen θ, 0). U2 U3 = − cos φ(cos θ, sen θ, 0) + sen φ~k = (− cos φ cos θ, − cos φ sen θ, sen φ) = cos φ~k + sen φ(cos θ, sen θ, 0) = (sen φ cos θ, sen φ sen θ, cos φ) Assim, a relação entre as coordenadas de um ponto nos dois sistemas S 0 = {O, U1 , U2 , U3 } e S = {O,~i,~j,~k} Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 5.4 Mudança de Coordenadas 369 y0 x0 Figura 5.36. Projeção ortográfica de um cubo Julho 2010 Reginaldo J. Santos Espaços Rn 370 U2 U1 ~k O0 U3 φ ~j ~i θ Figura 5.37. sistemas de coordenadas relacionados à projeção ortográfica Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 5.4 Mudança de Coordenadas 371 U2 ~k U1 φ U3 θ ~j (cos θ, sen θ, 0) ~i Figura 5.38. Bases relacionadas à projeção ortográfica Julho 2010 Reginaldo J. Santos Espaços Rn 372 ~k ~j U2 (cos θ, sen θ, 0) U3 U1 φ θ ~i (cos θ, sen θ, 0) Figura 5.39. Relação entre os vetores das bases {U1 , U2 , U3 } e {~i,~j,~k} Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 5.4 Mudança de Coordenadas 373 é dada por   x0 − sen θ  y0  =  − cos φ cos θ z0 sen φ cos θ    0 x sen φ   y  cos φ z cos θ − cos φ sen θ sen φ sen θ e a projeção é dada por  x0 y0   = − sen θ − cos φ cos θ cos θ − cos φ sen θ 0 sen φ Por exemplo para θ = 30◦ e φ = 60◦ temos que  " # √  0   x 3 1 x 0 − −0.50 2 2   √ √ y = ≈ 3 3 1 y0 −0.43 − 4 −4 z 2    x  y . z 0.87 −0.25 0 0.87    x  y . z Usando esta projeção os vetores ~i, ~j e ~k são desenhados como na figura abaixo. Experimente desenhar o cubo que tem a origem O = (0, 0, 0) como um dos vértices e como vértices adjacentes à origem (1, 0, 0), (0, 1, 0) e (0, 0, 1). Observe que não é necessário calcular a projeção dos outros pontos (por que?) Julho 2010 Reginaldo J. Santos Espaços Rn 374 1 0.8 0.6 0.4 0.2 0 −0.2 −0.4 −0.6 −0.8 −1 −1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1 Figura 5.40. Vetores ~i, ~j e ~k desenhados usando projeção ortográfica Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 5.4 Mudança de Coordenadas 375 Exercı́cios Numéricos (respostas na página 559) 5.4.1. Encontre as coordenadas do ponto P com relação ao sistema de coordenadas S , nos seguintes casos: √ √ √ √ (a) S = {O, (1/ 2, −1/ 2), (1/ 2, 1/ 2)} e P = (1, 3); √ √ √ √ (b) S = {O, (1/ 2, −1/ 2, 0), (0, 0, 1), (1/ 2, 1/ 2, 0)} e P = (2, −1, 2); 5.4.2. Encontre o ponto P, se as coordenadas de P em relação ao sistema de coordenadas S , [ P]S , são:  (a) [ P]S = 2 1  √ √ √ √ , em que S = {O, (−1/ 2, 1/ 2), (1/ 2, 1/ 2)}.   −1 √ √ √ √ (b) [ P]S =  1 , em que S = {O, (0, 1/ 2, −1/ 2), (1, 0, 0), (0, 1/ 2, 1/ 2)}. 2   x 5.4.3. Sejam [ P]R =  y  as coordenadas de um ponto P em relação ao sistema de coordenadas z  0  x R = {O,~i,~j,~k} e [ P]S =  y0 , em relação ao sistema de coordenadas S = {O, U1 , U2 , U3 }. Suponha z0 que temos a seguinte relação:    1 x  y = 0 z 0 0 √1/2 3/2  0  0 x − 3/2   y0  . z0 1/2 √ Quais são os vetores U1 , U2 e U3 ? √  √  5.4.4. Determine qual a rotação do plano em que as coordenadas do ponto P = ( 3, 1) são 3 −1 Julho 2010 Reginaldo J. Santos . Espaços Rn 376 5.4.5. Considere o plano π : 3x − √ 3y + 2z = 0. (a) Determine uma base ortonormal para o plano em que o primeiro vetor esteja no plano xy. (b) Complete a base encontrada para se obter uma base ortonormal {U1 , U2 , U3 } de R3 . (c) Determine as coordenadas dos vetores ~i, ~j e ~k no sistema {O, U1 , U2 , U3 }. 5.4.6. Considere dois sistemas de coordenadas R = {O,~i,~j,~k } e S = {O,~i, U2 , U3 }, em que o sistema S é obtido do sistema R por uma rotação do ângulo θ em torno do eixo x. Determine a relação entre as coordenadas, ( x 0 , y0 , z0 ), em relação ao sistema S e ( x, y, z), em relação ao sistema R Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 5.4 Mudança de Coordenadas 377 Exercı́cios Teóricos 5.4.7. Mostre que (a) Rθ1 Rθ2 = Rθ1 +θ2 . 1 (b) R− θ = R−θ . 5.4.8. Seja B uma matriz quadrada 2 × 2. (a) Verifique que Rθ B é a matriz obtida girando as colunas de B de θ. (b) Verifique que BRθ é a matriz obtida girando as linhas de B de −θ. (c) Quais as condições sobre B e θ para que Rθ B = BRθ . Dê um exemplo. 5.4.9. Definimos coordenadas de pontos no espaço em relação a um sistema de coordenadas determinado por um ponto O0 e três vetores V1 , V2 e V3 L.I. não necessariamente ortonormais do R3 da mesma forma como fizemos quando os vetores formam uma base ortonormal. As coordenadas de um ponto P no sistema de −→ coordenadas {O0 , V1 , V2 , V3 } é definido como sendo os escalares que aparecem ao escrevermos O0 P como combinação linear dos vetores V1 , V2 e V3 , ou seja, se −→ O0 P= x 0 V1 + y0 V2 + z0 V3 , então as coordenadas de P no sistema {O0 , V1 , V2 , V3 } são dadas por  0  x [ P]{O0 ,V1 ,V2 ,V3 } =  y0  . z0 −→ −→ Assim, se O0 P= ( x, y, z), então x 0 V1 + y0 V2 + z0 V3 =O0 P pode ser escrito como  0    x x [ V1 V2 V3 ]  y0  =  y  z0 z Julho 2010 Reginaldo J. Santos Espaços Rn 378 (a) Mostre que a matriz Q = [ V1 V2 V3 ] é invertı́vel. (b) Mostre que as coordenadas de um ponto P no espaço em relação ao sistema {O0 , V1 , V2 , V3 } estão bem definidas, ou seja, x 0 , y0 e z0 estão unicamente determinados e são dados por  0    x x [ P]{O0 ,V1 ,V2 ,V3 } =  y0  = Q−1  y  = Q−1 [ P]{O0 ,~i,~j,~k} . z0 z Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 5.4 Mudança de Coordenadas 379 Teste do Capı́tulo 1. Sejam S1 e S2 subconjuntos finitos do Rn tais que S1 seja um subconjunto de S2 (S1 6= S2 ). Se S2 é linearmente dependente, então: (a) S1 pode ser linearmente dependente? Em caso afirmativo dê um exemplo. (b) S1 pode ser linearmente independente? Em caso afirmativo dê um exemplo. 2. Encontre os valores de λ tais que o sistema homogêneo ( A − λI3 ) X = 0̄ tem solução não trivial e para estes valores de λ, encontre um subconjunto de vetores ortonormais no conjunto solução, para a matriz   0 0 0 A= 0 2 2  0 2 2 3. Considere o vetor f 1 = ( 21 , √ 3 2 ). (a) Escolha f 2 de forma que S = { f 1 , f 2 } seja base ortonormal do R2 . Mostre que S é base. √ (b) Considere P = ( 3, 3). Escreva P como combinação linear dos elementos de S . (c) Determine [ P]{O,S} , as coordenadas de P em relação ao sistema de coordenadas determinado pela origem O e pela base S . Julho 2010 Reginaldo J. Santos 6 Diagonalização 6.1 Diagonalização de Matrizes 6.1.1 Motivação Certos processos são descritos em cada estágio por uma matriz A quadrada e em k estágios pela potência k da matriz A, Ak , em que k é um número inteiro positivo. Suponha que desejamos saber a matriz que corresponde a k estágios, para k um 380 6.1 Diagonalização de Matrizes 381 inteiro positivo qualquer. Se a matriz A é diagonal,   λ1 0 . . . 0  0 λ2 . . . 0    k A= . ..  , então A = . . .  . . .  0 . . . 0 λn      λ1k 0 .. . 0 λ2k ... ... .. . 0 0 .. . 0 ... 0 λkn Se a matriz A não é diagonal, mas existe uma matriz P tal que  λ1 0 . . .  0 λ2 . . .  A = PDP−1 , em que D =  . ..  .. . 0 então ... 0 0 0 .. .    .     ,  λn A2 = ( PDP−1 )( PDP−1 ) = PD ( P−1 P) DP−1 = PD2 P−1 . Agora, supondo que Ak−1 = PD k−1 P−1 , temos que Ak = Ak−1 A = ( PDP−1 )k−1 ( PDP−1 ) = ( PD k−1 P−1 )( PDP−1 ) =  k λ1 0  0 λk 2  = PD k P−1 = P  . .  . 0 ... PD k−1 ( P−1 P) DP−1  ... 0 ... 0   −1 ..  P . .. . .  0 λkn Assim, podemos facilmente encontrar a k-ésima potência de A. Exemplo 6.1. Seja  A= Julho 2010 1 −4 −1 1  . Reginaldo J. Santos 382 Diagonalização mostraremos no Exemplo 6.6 na página 398 que    1 1 3 P= e D= −2 2 0 0 −1  são tais que A = PDP−1 . Assim, A k = = =  k  1 3 0 1 PD P = 2 −2 0 (−1)k     3k (−1)k 1 2 −1 1 −2 3k 2(−1)k 4 2   k k k 1 2(3 + (−1) ) (−1) − 3k 4 4((−1)k − 3k ) 2(3k + (−1)k ) k −1  1 −2 1 2  −1 Vamos descobrir, a seguir, como podemos determinar matrizes P e D, quando elas existem, tais que A = PDP−1 , ou multiplicando à esquerda por P−1 e à direita por P, D = P−1 AP, com D sendo uma matriz diagonal. Chamamos diagonalização ao processo de encontrar as matrizes P e D. 6.1.2 Autovalores e Autovetores Definição 6.1. Dizemos que uma matriz A, n × n, é diagonalizável, se existem matrizes P e D tais que A = PDP−1 , ou equivalentemente, D = P−1 AP, em que D é uma matriz diagonal. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 6.1 Diagonalização de Matrizes 383 Exemplo 6.2. Toda matriz diagonal    A=  λ1 0 .. . 0 λ2 ... ... .. . 0 0 .. . 0 ... 0 λn      é diagonalizável, pois A = ( In )−1 AIn . Vamos supor inicialmente que a matriz A seja diagonalizável. Então existe uma matriz P tal que P−1 AP = D , (6.1) em que D é uma matriz diagonal. Vamos procurar tirar conclusões sobre as matrizes P e D. Multiplicando à esquerda por P ambos os membros da equação anterior, obtemos AP = PD . (6.2) Sejam    D=  Julho 2010 λ1 0 .. . 0 λ2 ... ... .. . 0 0 .. . 0 ... 0 λn      e P = V1  V2 ... Vn  , Reginaldo J. Santos 384 Diagonalização em que Vj é a coluna j de P. Por um lado    AP = A V1 V2 . . . Vn = AV1 (Exercı́cio 1.1.18 na página 25) e por outro lado  λ1 0 . . . 0    0 λ2 . . . 0 PD = V1 V2 . . . Vn  . .. ..  .. . . 0 ... 0 AV2 ... AVn       = λ1 V1  λ2 V2 ... λn Vn  λn (Exercı́cio 1.1.17 na página 25) Assim, (6.2) pode ser reescrita como,     AV1 AV2 . . . AVn = λ1 V1 λ2 V2 . . . λn Vn . Logo, AVj = λ j Vj , para j = 1, . . . n. Ou seja, as colunas de P, Vj , e os elementos da diagonal de D, λ j , satisfazem a equação AX = λX, em que λ e X são incógnitas. Isto motiva a seguinte definição. Definição 6.2. Seja A uma matriz n × n. Um número real λ é chamado autovalor (real) de A, se existe um v1  ..  vetor não nulo V =  .  de Rn , tal que vn AV = λV . (6.3) Um vetor não nulo que satisfaça (6.3), é chamado de autovetor de A. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 6.1 Diagonalização de Matrizes AV = λV *  *  q V O λ>1 385 *V   *   q  *V   q  AV = λV O   AV = λV O 0<λ<1 Observe que, usando o fato de que a matriz identidade  1 0  0 1  In =  .  .. 0 ... λ<0 ... ... .. . 0 0 .. . 0 1      é tal que In V = V, a equação (6.3) pode ser escrita como AV = λIn V ou ( A − λIn )V = 0̄ . (6.4) Como os autovetores são vetores não nulos, os autovalores são os valores de λ, para os quais o sistema ( A − λIn ) X = 0̄ tem solução não trivial. Mas, este sistema homogêneo tem solução não trivial se, e somente se, det( A − λIn ) = 0 (Teorema 2.15 na página 115). Assim, temos um método para encontrar os autovalores e os autovetores de uma matriz A. Julho 2010 Reginaldo J. Santos 386 Diagonalização Proposição 6.1. Seja A uma matriz n × n. (a) Os autovalores (reais) de A são as raı́zes reais do polinômio p(t) = det( A − t In ) (6.5) (b) Para cada autovalor λ, os autovetores associados a λ são os vetores não nulos da solução do sistema ( A − λIn ) X = 0̄ . (6.6) Definição 6.3. Seja A uma matriz n × n. O polinômio p(t) = det( A − t In ) (6.7) é chamado polinômio caracterı́stico de A. Exemplo 6.3. Vamos determinar os autovalores e autovetores da matriz  A= 1 −4 Um Curso de Geometria Analı́tica e Álgebra Linear −1 1  Julho 2010 6.1 Diagonalização de Matrizes 387 Para esta matriz o polinômio caracterı́stico é  p(t) = det( A − tI2 ) = det 1−t −4 −1 1−t  = (1 − t)2 − 4 = t2 − 2t − 3 . Como os autovalores de A são as raı́zes de p(t), então os autovalores de A são λ1 = 3 e λ2 = −1. Agora, vamos determinar os autovetores associados aos autovalores λ1 = 3 e λ2 = −1. Para isto vamos resolver os sistemas ( A − λ1 I2 ) X = 0̄ e ( A − λ2 I2 ) X = 0̄. ( A − λ1 I2 ) X = 0̄ é  −2 −1 −4 −2  x y   = 0 0   ou −2x − y = 0 −4x − 2y = 0 cuja solução geral é W1 = {(α, −2α) | α ∈ R}. que é o conjunto de todos os autovetores associados a λ1 = 3 acrescentado o vetor nulo. Agora, ( A − λ2 I2 ) X = 0̄ é  2 −4 −1 2  x y   = 0 0  cuja solução geral é W2 = {(α, 2α) | α ∈ R}, que é o conjunto de todos os autovetores associados a λ2 = −1 acrescentado o vetor nulo. Julho 2010 Reginaldo J. Santos 388 Diagonalização Para determinarmos os autovalores de uma matriz A precisamos determinar as raı́zes reais do seu polinômio caracterı́stico, que tem a forma p(t) = (−1)n tn + an−1 tn−1 + . . . + a1 t + a0 . (por que?) Um resultado sobre polinômios que muitas vezes é útil, é o seguinte Proposição 6.2. Se a0 , a1 , . . . , an−1 são inteiros, então as raı́zes racionais (se existirem) de p(t) = (−1)n tn + an−1 tn−1 + . . . + a1 t + a0 . são números inteiros e divisores do coeficiente do termo de grau zero a0 . Demonstração. Seja p raiz de p(t), com p e q primos entre si, então q (−1)n pn p n −1 p + a n −1 n −1 + · · · + a 1 + a 0 = 0 n q q q (6.8) multiplicando-se por qn obtemos (−1)n pn = − an−1 pn−1 q − · · · − a1 pqn−1 − a0 qn = −q( an−1 pn−1 + · · · + a1 pqn−2 + a0 qn−1 ). Como p e q são primos entre si, então q = 1. Substituindo-se q = 1 na equação (6.8) obtemos (−1)n pn + an−1 pn−1 + · · · + a1 p = − a0 Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 6.1 Diagonalização de Matrizes 389 colocando-se p em evidência obtemos p[(−1)n pn−1 + an−1 pn−2 + · · · + a1 ] = − a0 ,  o que prova o que querı́amos. Por exemplo, se p(t) = −t3 + 6t2 − 11t + 6, então as possı́veis raı́zes racionais são ±1, ±2, ±3 e ±6. Substituindo estes valores de t em p(t), vemos que p(1) = 0, ou seja, 1 é uma raiz de p(t). Dividindo p(t) por t − 1, obtemos p(t) = −t2 + 5t − 6, t−1 ou seja, p(t) = (t − 1)(−t2 + 5t − 6). Como as raı́zes de −t2 + 5t − 6 são 2 e 3, então as raı́zes de p(t), são 1, 2 e 3. Exemplo 6.4. Vamos determinar os autovalores e autovetores da matriz  4 A= 2 2 2 4 2  2 2  4 Para esta matriz o polinômio caracterı́stico é   4−t 2 2 4−t 2  p(t) = det( A − t I3 ) = det  2 2 2 4−t      4−t 2 2 2 2 = (4 − t) det − 2 det + 2 det 2 4−t 2 4−t 2     4−t 2 2 2 = (4 − t) det − 4 det 2 4−t 2 4−t 4−t 2  = (4 − t)[(4 − t)2 − 4] − 8(2 − t) = −t3 + 12t2 − 36t + 32 Julho 2010 Reginaldo J. Santos 390 Diagonalização Como não fatoramos o polinômio caracterı́stico (neste caso até é possı́vel!), sabemos que se ele tem raı́zes racionais, então elas são números inteiros e são divisores de 32, ou seja, podem ser ±1, ±2, ±4, ±8, ±16, ±32. Substituindo-se t = ±1 obtemos p(1) = −1 + 12 − 36 + 32 > 0, p(−1) = 1 + 12 + 36 + 32 > 0. Substituindo-se t = 2 obtemos p(2) = 0. Dividindo-se p(t) por t − 2 obtemos p(t) = −t2 + 10t − 16 t−2 ou seja, p(t) = (t − 2)(−t2 + 10t − 16) = (t − 2)2 (8 − t). Portanto, os autovalores de A são λ1 = 2 e λ2 = 8. Agora, vamos determinar os autovetores associados aos autovalores λ1 e λ2 . Para isto vamos resolver os sistemas ( A − λ1 I3 ) X = 0̄ e ( A − λ2 I3 ) X = 0̄. Como      2 2 2 x 0 ( A − λ1 I3 ) X = 0̄ é  2 2 2   y  =  0  2 2 2 z 0 A forma escalonada reduzida da matriz aumentada do sistema é   1 1 1 0  0 0 0 0  0 0 0 0 Assim, a solução geral do sistema ( A − λ1 I3 ) X = 0̄ é W1 = {(−α − β, β, α) | α, β ∈ R} , que é o conjunto de todos os autovetores associados a λ1 = 2 acrescentado o vetor nulo. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 6.1 Diagonalização de Matrizes 391 Com relação ao autovalor λ2 = 8, o sistema ( A − λ2 I3 ) X = 0̄ é      −4 2 2 x 0  2 −4 2  y  =  0  2 2 −4 z 0 A forma escalonada reduzida da matriz aumentada do sistema é   1 0 −1 0  0 1 −1 0  0 0 0 0 Assim, a solução geral do sistema ( A − λ2 I3 ) X = 0̄ é W2 = {(α, α, α) | α ∈ R}. Para cada autovalor λ, o conjunto dos autovetores associados a ele acrescentado o vetor nulo é o conjunto solução do sistema linear homogêneo ( A − λIn ) X = 0̄ e é chamado de autoespaço associado ao autovalor λ. 6.1.3 Diagonalização Vamos enunciar e demonstrar o resultado principal deste capı́tulo. Já vimos que se uma matriz A é diagonalizável, então as colunas da matriz P, que faz a diagonalização, são autovetores associados a autovalores, que por sua vez são elementos da matriz diagonal D. Como a matriz P é invertı́vel, estes n autovetores são L.I. Vamos mostrar, a seguir, que se a matriz A tem n autovetores L.I., então ela é diagonalizável. Julho 2010 Reginaldo J. Santos 392 Diagonalização 6 6 y W2 4 y 4 2 W = (1, 2) 2 0 0 x x −2 V = (1, −2) −2 AW −4 −4 W1 AV −6 −6 −4 −2 0 2 4 −6 −6 6 −4 −2 0 2 4 6 Figura 6.1. Autovetores associados a λ1 = 3 e a λ2 = −1 da matriz do Exemplo 6.3 W2 z y 4 4 4 x -4 W1 Figura 6.2. Autoespaços do Exemplo 6.4 Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 6.1 Diagonalização de Matrizes 393 Teorema 6.3. Seja A uma matriz n × n que tem n autovetores L.I. V1 , . . . , Vn associados a λ1 , . . . , λn , respectivamente. Então as matrizes  P=  V1 V2 Vn ...  e   D=   λ1 0 .. . 0 λ2 ... ... .. . 0 0 .. . 0 ... 0 λn   .  são tais que A = PDP−1 , ou seja, A é diagonalizável. Reciprocamente, se A é diagonalizável, então ela possui n autovetores linearmente independentes. Demonstração. Suponha que V1 , . . . , Vn são n autovetores linearmente independentes associados a λ1 , . . . , λn , respectivamente. Vamos definir as matrizes   λ1 0 . . . 0  0 λ2 . . . 0      P = V1 V2 . . . Vn e D= . ..  . ..  .. . .  0 . . . 0 λn Como AVj = λ j Vj , para j = 1, . . . , n, então    AP = A V1 V2 . . . Vn = AV1 AV2 ... AVn   = Julho 2010  λ1 V1 λ2 V2 ... λn Vn  =  V1 V2 ... Vn     λ1 0 .. . 0 λ2 ... ... .. . 0 0 .. . 0 ... 0 λn     = PD.  Reginaldo J. Santos 394 Diagonalização Como V1 , . . . , Vn são L.I., a matriz P é invertı́vel. Assim, multiplicando a equação anterior por P−1 à direita obtemos A = PDP−1 . Ou seja, a matriz A é diagonalizável. Vamos, agora, provar que se A é diagonalizável, então ela possui n autovetores L.I. Se a matriz A é diagonalizável, então existe uma matriz P tal que A = PDP−1 , (6.9) em que D é uma matriz diagonal. Multiplicando à direita por P ambos os membros da equação anterior, obtemos AP = PD . (6.10) Sejam    D=  λ1 0 .. . 0 λ2 ... ... .. . 0 0 .. . 0 ... 0 λn      e P = V1  V2 ... Vn  , em que Vj é a coluna j de P. Usando as definições de P e D temos que     AP = A V1 V2 . . . Vn = AV1 AV2 . . . AVn   λ1 0 . . . 0     0 λ2 . . . 0   PD = V1 V2 . . . Vn  . ..  = λ1 V1 λ2 V2 . . . ..  .. . .  0 . . . 0 λn λn Vn  Assim, de (6.10) segue-se que AVj = λ j Vj , Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 6.1 Diagonalização de Matrizes 395 para j = 1, . . . n. Como a matriz P é invertı́vel, pela Proposição 5.3 na página 294, os autovetores V1 , . . . , Vn são L.I.  Assim, se uma matriz A é diagonalizável e A = PDP−1 , então os autovalores de A formam a diagonal de D e n autovetores linearmente independentes associados aos autovalores formam as colunas de P. O resultado que vem a seguir, garante que se conseguirmos para cada autovalor, autovetores L.I., então ao juntarmos todos os autovetores obtidos, eles continuarão sendo L.I. Proposição 6.4. Seja A uma matriz n × n. Se V1(1) , . . . , Vn(11) são autovetores L.I. associados a λ1 , V1(2) , . . . , Vn(22) são (k) (k) autovetores L.I. associados a λ2 , . . ., V1 , . . . , Vnk são autovetores L.I. associados a λk , com λ1 , . . . , λk distintos, então (1) (1) (k) (k) {V1 , . . . , Vn1 , . . . , V1 , . . . , Vnk } é um conjunto L.I. Demonstração. Vamos demonstrar apenas para o caso em que temos dois autovalo(1) (1) res diferentes. O caso geral é inteiramente análogo. Sejam V1 , . . . , Vn1 autovetores Julho 2010 Reginaldo J. Santos 396 Diagonalização (2) (2) L.I. associados a λ1 e V1 , . . . , Vn2 autovetores L.I. associados a λ2 . Precisamos mostrar que a única solução da equação (1) (1) x1 V1 (1) (2) (1) (2) + . . . + xk Vn1 + x1 V1 1 (2) (2) + . . . + xk2 Vn2 = 0̄ (6.11) é a solução trivial. Multiplicando a equação (6.11) por A e usando o fato de que os ( j) Vi são autovetores, obtemos (1) (1) x1 λ1 V1 (2) (1) (1) (2) + . . . + xn1 λ1 Vn1 + x1 λ2 V1 (2) (2) (6.12) (2) (2) (6.13) + . . . + xn2 λ2 Vn2 = 0̄ Multiplicando a equação (6.11) por λ1 , obtemos (1) (1) x1 λ1 V1 (1) (1) (2) (2) + . . . + xn1 λ1 Vn1 + x1 λ1 V1 + . . . + xn2 λ1 Vn2 = 0̄ . Subtraindo a equação (6.12) da equação (6.13), obtemos (2) (2) x1 (λ2 − λ1 )V1 (2) (2) (2) + . . . + xn2 (λ2 − λ1 )Vn2 = 0̄ . (2) (2) (2) Como V1 , . . . , Vn2 são L.I., temos que x1 = . . . = xn2 = 0. Agora, multiplicando a equação (6.11) por λ2 e subtraindo da equação (6.13) obtemos (1) (1) x1 (λ2 − λ1 )V1 (1) (1) (1) + . . . + xn1 (λ2 − λ1 )Vn1 = 0̄ . (1) (1) Como V1 , . . . , Vn1 são L.I., temos que x1 os autovetores juntos são L.I. (1) = . . . = xn1 = 0. O que prova que todos  Exemplo 6.5. Considere a matriz  4 A= 2 2 Um Curso de Geometria Analı́tica e Álgebra Linear 2 4 2  2 2  4 Julho 2010 6.1 Diagonalização de Matrizes 397 Já vimos no Exemplo 6.4 na página 389 que seu polinômio caracterı́stico é p(t) = (t − 2)(−t2 + 10t − 16) = (t − 2)2 (8 − t), os seus autovalores são λ1 = 2 e λ2 = 8 e os autoespaços correspondentes são W1 = {(−α − β, β, α) | α, β ∈ R}, W2 = {(α, α, α) | α ∈ R}, respectivamente. Vamos encontrar, para cada autoespaço, o maior número possı́vel de autovetores L.I., ou seja, vamos encontrar uma base para cada autoespaço. E o teorema anterior garante que se juntarmos todos estes autovetores eles vão continuar sendo L.I. Para W1 , temos que (−α − β, β, α) = α(−1, 0, 1) + β(−1, 1, 0). Assim, os vetores V1 = (−1, 0, 1) e V2 = (−1, 1, 0) geram W1 . Como além disso, eles são L.I. (um não é múltiplo escalar do outro), então eles formam uma base para W1 . Assim, não podemos ter um número maior de autovetores L.I. associados a λ1 = 2 (Teorema 5.6 na página 311). Para W2 , temos que o conjunto {V3 = (1, 1, 1)} é uma base para W2 , pois como (α, α, α) = α(1, 1, 1), V3 gera W2 e um vetor não nulo é L.I. Assim, não podemos ter um número maior de autovetores L.I. associados a λ2 = 8 (Teorema 5.6 na página 311). Como V1 e V2 são autovetores L.I. associados a λ1 e V3 é um autovetor L.I. associado a λ2 , então pela Proposição 6.4 na página 395 os autovetores juntos V1 , V2 e V3 são L.I. Assim, a matriz A é diagonalizável e as matrizes       λ1 0 0 2 0 0 −1 −1 1 1 1  D =  0 λ1 0  =  0 2 0  e P = [ V1 V2 V3 ] =  0 0 0 λ2 0 0 8 1 0 1 Julho 2010 Reginaldo J. Santos 398 Diagonalização são tais que A = PDP−1 . Exemplo 6.6. Considere a matriz  A= 1 −4 −1 1  Já vimos no Exemplo 6.3 na página 386 que o seu polinômio caracterı́stico é p(t) = det( A − t I2 ) = t2 − 2t − 3, que os seus autovalores são λ1 = 3 e λ2 = −1 e que os autoespaços correspondentes são W1 = {(α, −2α) | α ∈ R} e W2 = {(α, 2α) | α ∈ R}, respectivamente. Para λ1 = 3, temos que {V1 = (1, −2)} é uma base de W1 . Assim, não podemos ter mais autovetores L.I. associados a λ1 . De forma análoga para λ2 = −1, {V2 = (1, 2)} é um conjunto com o maior número possı́vel de autovetores L.I. associados a λ2 . Assim, a matriz A é diagonalizável e as matrizes       1 1 λ1 0 3 0 P = [ V1 V2 ] = e D= = −2 2 0 λ2 0 −1 são tais que D = P−1 AP. Exemplo 6.7. Considere a matriz  A= Um Curso de Geometria Analı́tica e Álgebra Linear 0 0 1 0  Julho 2010 6.1 Diagonalização de Matrizes 399 O seu polinômio caracterı́stico é p(t) = det( A − t I2 ) = t2 , assim A possui um único autovalor: λ1 = 0. Agora, vamos determinar os autovetores associados ao autovalor λ1 = 0. Para isto vamos resolver o sistema ( A − λ1 I2 ) X = 0̄. Como  A − λ1 I2 = A = 0 0 1 0  0 0  , então ( A − λ1 I2 ) X = 0̄ é  ou 0 0 1 0   x y y 0   = = 0 = 0 cuja solução geral é W1 = {(α, 0) | α ∈ R} = {α(1, 0) | α ∈ R} . que é o autoespaço correspondente a λ1 = 0. Assim, para λ1 = 0, temos que {V1 = (1, 0)} é um subconjunto L.I. de V1 . Pelo Teorema 5.6 na página 311 não podemos ter um número maior de autovetores L.I. associados a λ1 e como só temos um autovalor não podemos ter mais autovetores L.I. Portanto, pelo Teorema 6.3 na página 393, a matriz A não é diagonalizável, ou seja, não existem matrizes P e D tais que A = PDP−1 . Exemplo 6.8. Vamos retomar a cadeia de Markov do Exemplo 1.9 na página 16. Vamos supor que uma população é dividida em três estados (por exemplo: ricos, classe média e pobres) e que em cada unidade de tempo a probabilidade de mudança de um estado para outro seja constante no tempo, só dependa dos estados. Julho 2010 Reginaldo J. Santos 400 Diagonalização Seja tij a probabilidade de mudança do estado j para o estado i em uma unidade de tempo (geração). A matriz de transição é dada por T =  1 t11  t21 t31 2 t12 t22 t32 3  1 t13 t23  2 3 t33 1 2 1 2 1 2 1 4 1 2 1 4 3  0 1 1  2 2  3 1 Vamos considerar a matriz de transição  T  =  0 2 Vamos calcular potências k de T, para k um inteiro positivo qualquer. Para isto vamos diagonalizar a matriz T. Para isso precisamos determinar seus os autovalores e autovetores. Para esta matriz o polinômio caracterı́stico é  p(t) 1 2 −t 1 2  = det( T − t I3 ) = det  1 2 0  −t 1 2   1 4 0 1 2 −t  1 1 1 1 −t 2 2 = ( − t) det − det 1 1 0 21 − t 2 4 4 2 −t   1 1 1 1 1 = ( − t ) ( − t )2 − − ( − t) 2 2 8 8 2 3 1 3 1 1 = −t3 + t2 − t = t(−t2 + t − ) = −t(t − 1)(t − ) 2 2 2 2 2  1 2 Um Curso de Geometria Analı́tica e Álgebra Linear 1 2 1 4   Julho 2010 6.1 Diagonalização de Matrizes 401 Portanto, os autovalores de T são λ1 = 0, λ2 = 1/2 e λ3 = 1. Agora, vamos determinar os autovetores associados aos autovalores λ1 , λ2 e λ3 . Para isto vamos resolver os sistemas ( T − λ1 I3 ) X = 0̄, ( T − λ2 I3 ) X = 0̄ e ( T − λ3 I3 ) X = 0̄. Como  1 1  0  x   0  2 4   ( T − λ1 I3 ) X = TX = 0̄ é  12 21 12   y  =  0  z 0 0 1 1 4 2 A forma escalonada reduzida da matriz aumentada do sistema é   1 0 −1 0  0 1 2 0  0 0 0 0 Assim, a solução geral do sistema ( T − λ1 I3 ) X = 0̄ é W1 = {(α, −2α, α) | α ∈ R} , que é o conjunto de todos os autovetores associados a λ1 = 0 acrescentado o vetor nulo. O conjunto {V1 = (1, −2, 1)} é uma base para W1 , pois como (α, −2α, α) = α(1, −2, 1), V1 gera W1 e um vetor não nulo é L.I. Com relação ao autovalor λ2 = 1/2, o sistema ( T − λ2 I3 ) X = 0̄ é   0 14 0  x   0   1   2 0 21   y  =  0  z 0 0 1 0 4 A forma escalonada reduzida da matriz aumentada do sistema é   1 0 1 0  0 1 0 0  0 0 0 0 Julho 2010 Reginaldo J. Santos 402 Diagonalização Assim, a solução geral do sistema ( T − λ2 I3 ) X = 0̄ é W2 = {(α, 0, α) | α ∈ R}. O conjunto {V2 = (1, 0, 1)} é uma base para W2 , pois como (α, 0, α) = α(1, 0, 1), V3 gera W2 e um vetor não nulo é L.I. Com relação ao autovalor λ3 = 1, o sistema ( T − λ3 I3 ) X = 0̄ é   1 1 0  x   0  −2 4  1 1  y  =  0   2 − 21 2  z 0 1 0 −1 4 2 A forma escalonada reduzida da matriz aumentada do sistema é   1 0 −1 0  0 1 −2 0  0 0 0 0 Assim, a solução geral do sistema ( T − λ3 I3 ) X = 0̄ é W3 = {(α, 2α, α) | α ∈ R} , que é o conjunto de todos os autovetores associados a λ3 = 1 acrescentado o vetor nulo. O conjunto {V1 = (1, 2, 1)} é uma base para W1 , pois como (α, 2α, α) = α(1, 2, 1), V1 gera W1 e um vetor não nulo é L.I. Como V1 , V2 e V3 são autovetores associados a λ1 , λ2 e λ3 , respectivamente, então pela Proposição 6.4 na página 395 os autovetores juntos V1 , V2 e V3 são L.I. Assim, a matriz A é diagonalizável e as matrizes       0 0 0 1 −1 1 λ1 0 0 0 2  D =  0 λ2 0  =  0 21 0  e Q = [ V1 V2 V3 ] =  −2 1 1 1 0 0 λ3 0 0 1 Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 6.1 Diagonalização de Matrizes 403 são tais que D = Q−1 TQ ou  1 T = QDQ−1 . Assim, Tk = QD k Q−1 = −1  0 =  −2 1 1  1 4   1 2 1 k +1 1 4 − (2) + ( 12 )k+1 1 1 4 1 2 1 4 1 4 1 4  0  2  0 1 0  − ( 12 )k+1  1  2 0 ( 21 )k 0 0   0  1 1 4 − 12 1 4 − 14 0 1 4 1 4 1 2 1 4    + ( 12 )k+1 Esta é a matriz que dá a transição entre k unidades de tempo (gerações). Julho 2010 Reginaldo J. Santos 404 Diagonalização Exercı́cios Numéricos (respostas na página 563) 6.1.1. Ache o polinômio caracterı́stico, os autovalores e os autovetores de cada matriz:     1 1 1 −1 (a) (b) 1 1 2 4     0 1 2 1 0 0 0  (c)  0 0 3  (d)  −1 3 0 0 0 3 2 −2     2 −2 3 2 2 3 3 −2  2 1  (e)  0 (f)  1 0 −1 2 2 −2 1 6.1.2. Ache bases para os auto-espaços associados a cada autovalor   2 0 0 (a)  3 −1 0  (b) 0 4 3   1 2 3 4  0 −1 3 2   (c)  (d)  0 0 3 3  0 0 0 2 6.1.3. Verifique quais das matrizes são diagonalizáveis:   1 4 (a)  1 −2  1 1 −2 0 4  (c)  4 1 −1 4       2 0 0 2 0 0 0 3 1 0 2 2 0 0 0 0 2 3 3 1 0    4 2   1  1   1 0 (b)  −2 1  1 2 3 (d)  0 −1 2  0 0 2 6.1.4. Ache para cada matriz A, se possı́vel, uma matriz não-singular P tal que P−1 AP seja diagonal: Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 6.1 Diagonalização de Matrizes 405  1 1 2 (a)  0 1 0   0 1 3  1 2 3 (c)  0 1 0  2 1 2   4 2 1 (b)  2 − 1 − 2  3 −2 1 2 0 (d)  0 0 0 0  3 2  0   6.1.5. Sabendo-se que V1 = (−4, −4, −1), V2 = (5, 4, 1) e V3 = (5, 3, 1) são autovetores da matriz  1  − 3 − 56 20 3   A =  − 32 − 16 16 3  − 61 − 16 11 6 (a) Sem obter o polinômio caracterı́stico determine os autovalores correspondentes a estes autovetores. (b) A matriz é diagonalizável? Justifique? 6.1.6. Dê exemplo de: (a) Uma matriz que não tem autovalor (real) (Sugestão: use o Exercı́cio 27 na página 408). (b) Uma matriz que tem um autovalor e não é diagonalizável (em Rn ). (c) Uma matriz que tem dois autovalores e não é diagonalizável (em Rn ). Exercı́cios usando o M ATLABr >> syms x y z diz ao M ATLABr que as variáveis x, y e z são simbólicas; >> A=[a11,a12,...,a1n;a21,a22,...; ...,amn] cria uma matriz, m por n, usando os elementos a11, a12, ..., amn e a armazena numa variável A; >> A=[A1,...,An] cria uma matriz A formada pelas matrizes, definidas anteriormente, A1, ..., An colocadas uma ao lado da outra; Julho 2010 Reginaldo J. Santos 406 Diagonalização >> solve(expr) determina a solução da equação >> solve(x^2-4) determina as soluções da equação x2 − 4 = 0; expr=0. Por exemplo, >> subs(expr,x,num) substitui na expressão expr a variável x por num. >> [P,D]=eig(A) determina matrizes P e D (diagonal) tais que AP=PD. inv(A) calcula a inversa da matriz A. A=sym(A) converte a matriz A numa matriz em que os elementos são armazenados no formato simbólico. A função numeric faz o processo inverso. Comandos do pacote GAAL: >> A=randi(n) ou >> A=randi(m,n) cria uma matriz n por n ou m por n, respectivamente, com elementos inteiros aleatórios. >> escalona(A) calcula passo a passo a forma reduzida escalonada da matriz A. 6.1.7. Defina as matrizes B=sym(randi(2)) e A=[B-B’,zeros(2,1);zeros(1,2),randi]. A matriz A é diagonalizável? Por que? 6.1.8. Defina as matrizes L=[eye(2),zeros(2,1);randi(1,2),0] e A=sym(L*L’). Determine o polinômio caracterı́stico de A, os autovalores e um conjunto de autovetores linearmente independentes com o maior número possı́vel de vetores. Encontre matrizes P e D (diagonal) tais que inv(P)*A*P=D, se possı́vel. Verifique o resultado. Use o comando [P,D]=eig(A) e compare com as matrizes que você encontrou. 6.1.9. Defina a=randi,b=randi e A=sym([2*a,a-b,a-b;0,a+b,b-a;0,b-a,a+b]). Determine o polinômio caracterı́stico de A, os autovalores e um conjunto de autovetores linearmente independentes com o maior número possı́vel de vetores. Encontre matrizes P e D (diagonal) tais que inv(P)*A*P=D, se possı́vel. Verifique o resultado. Use o comando [P,D]=eig(A) e compare com as matrizes que você encontrou. 6.1.10. Defina a=randi,b=randi e A=sym([a,0,b;2*b,a-b,2*b;b,0,a]). Determine o polinômio caracterı́stico de A, os autovalores e um conjunto de autovetores linearmente independentes com o maior número possı́vel de vetores. Encontre matrizes P e D (diagonal) tais que A=P*D*inv(P), se possı́vel. Verifique o resultado. Use o comando [P,D]=eig(A) e compare com as matrizes que você encontrou. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 6.1 Diagonalização de Matrizes 407 Exercı́cios Teóricos 6.1.11. Dizemos que uma matriz B, n × n, é semelhante a uma matriz A, n × n, se existir uma matriz P não singular tal que B = P−1 AP. Demonstre: (a) A é semelhante a A; (b) Se A é semelhante a B, então B é semelhante a A; (c) Se A é semelhante a B e B é semelhante a C, então A é semelhante a C. 6.1.12. Seja λ um autovalor (fixo) de A. Demonstre que o conjunto formado por todos os autovetores de A associados a λ, juntamente com o vetor nulo, é um subespaço de Rn . Este subespaço é chamado de autoespaço associado a λ. Em outras palavras, combinação linear de autovetores associados a um mesmo autovalor é um autovetor associado a esse mesmo autovalor. 6.1.13. Demonstre que se A e B são semelhantes, então possuem os mesmos polinômios caracterı́sticos e portanto os mesmos autovalores. 6.1.14. Demonstre que se A é uma matriz triangular superior, então os autovalores de A são os elementos da diagonal principal de A. 6.1.15. Demonstre que A e At possuem os mesmos autovalores. O que podemos dizer sobre os autovetores de A e At ? 6.1.16. Seja λ um autovalor de A com autovetor associado X. Demonstre que λk é um autovalor de Ak = A . . . A associado a X, em que k é um inteiro positivo. 6.1.17. Uma matriz A é chamada nilpotente se Ak = 0̄, para algum inteiro positivo k. Reveja o Exercı́cio 1.1.29 na página 27. Demonstre que se A é nilpotente, então o único autovalor de A é 0. (Sugestão: use o exercı́cio anterior) 6.1.18. Seja A uma matriz n × n. (a) Mostre que o determinante de A é o produto de todas as raı́zes do polinômio caracterı́stico de A; (Sugestão: p(t) = det( A − t In ) = (−1)n (t − λ1 ) . . . (t − λn ).) Julho 2010 Reginaldo J. Santos 408 Diagonalização (b) Mostre que A é singular se, e somente se, 0 for um autovalor de A. 6.1.19. Seja λ um autovalor da matriz não-singular A com autovetor associado X. Mostre que 1/λ é um autovalor de A−1 com autovetor associado X.   a b 6.1.20. Seja A = . Ache condições necessárias e suficientes para que A seja diagonalizável. c d 6.1.21. Se V e W são autovetores associados a um autovalor λ, então W − projV W é também um autovetor associado a λ? E se V e W forem autovetores associados a autovalores diferentes? 6.1.22. Sejam A e B matrizes n × n. Mostre que AB e BA possuem os mesmos autovalores. (Sugestão: Separe em dois casos: λ = 0 e λ 6= 0. No segundo caso, mostre que se V é autovetor de AB, então BV é autovetor de BA.) 6.1.23. Seja A uma matriz n × n diagonalizável. Mostre que o traço de A é igual à soma das raı́zes do seu polinômio caracterı́stico, incluindo as multiplicidades. (Sugestão: use o fato de que tr( AB) = tr( BA).) 6.1.24. Suponha que duas matrizes n × n A e B são tais que B = αA, para um escalar α 6= 0. Mostre que se λ é autovalor de uma matriz A, então αλ é autovalor de B. 6.1.25. Seja A uma matriz n × n com n autovalores diferentes. Mostre que A é diagonalizável. 6.1.26. (a) Mostre que se V é autovetor de A, então V é autovetor de Ak . Com qual autovalor? (b) E se V é autovetor de Ak , então V é autovetor de A? (Sugestão: veja o que acontece com uma matriz nilpotente) 6.1.27. Dado um polinômio p(t) = (−1)n (tn + an−1 tn−1 + · · · + a0 ) Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 6.1 Diagonalização de Matrizes 409 Verifique que a matriz     A=   ··· ··· .. . 0 0 .. . 0 0 0 ··· − a0 − a1 − a2 · · · − a n −1 0 0 .. . 1 0 .. . 0 1 .. .       1  , n×n é tal que o seu polinômio caracterı́stico é p(t). Esta matriz é chamada matriz companheira do polinômio p(t). (Sugestão: verifique para n = 2 e depois supondo que seja verdade para matrizes (n − 1) × (n − 1) mostre que é verdade para matrizes n × n expandindo em cofatores em relação a primeira coluna) Julho 2010 Reginaldo J. Santos 410 Diagonalização 6.2 Diagonalização de Matrizes Simétricas 6.2.1 Motivação O problema da identificação de uma cônica (curva no plano descrita por uma equação de 2o. grau em x e y) através da sua equação é facilmente resolvido se a equação não possui um termo em que aparece o produto xy. Mas, ao contrário, se aparece este termo misto, temos que fazer uma mudança de coordenadas de forma que nas novas coordenadas ele não apareça. Vejamos o exemplo seguinte. Exemplo 6.9. Considere o problema de identificar uma cônica representada pela equação 3x2 + 2xy + 3y2 = 4 . (6.14) Usando matrizes, esta equação pode ser escrita como   x [3x + y x + 3y] =4 y ou  [ x y] ou ainda, 3 1 1 3  x y  =4 X t AX = 4 , (6.15) em que  A= 3 1 1 3   e X= x y  . Como veremos adiante (Exemplo 6.11 na página 418), podemos escrever A = PDPt Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 6.2 Diagonalização de Matrizes Simétricas 411 em que " P= √1 2 √1 2 √1 2 − √1 2 #  eD= 2 0 0 4  . Assim, a equação (6.15) pode ser escrita como ( X t P) D ( Pt X ) = ( Pt X )t D ( Pt X ) = 4 . Se fazemos a mudança de variáveis (ou de coordenadas) X = PX 0 , então como Pt P = I2 , a equação (6.15) se transforma em X 0t DX 0 = 4 ou [x 0 0 y]  2 0 0 4  x0 y0  =4 que pode ser reescrita como, 2x 02 + 4y02 = 4 , ou dividindo por 4, como y 02 x 02 + =1 2 1 que é a equação da elipse mostrada na Figura 6.3. Veremos na próxima seção como traçar esta elipse. A matriz P, tem a propriedade de que a sua inversa é simplesmente a sua transposta, P−1 = Pt . Uma matriz que satisfaz esta propriedade é chamada de matriz ortogonal. O que possibilitou a identificação da cônica, no exemplo anterior, foi o fato de que a matriz A é diagonalizável através de uma matriz ortogonal P. Ou seja, existe uma matriz P tal que A = PDP−1 e P−1 = Pt . Julho 2010 Reginaldo J. Santos 412 Diagonalização y y‘ E2 W2 x E1 W1 x‘ Figura 6.3. Elipse do Exemplo 6.9 Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 6.2 Diagonalização de Matrizes Simétricas 413 Já vimos que nem toda matriz é diagonalizável (Exemplo 6.7 na página 398). Vamos ver que se uma matriz A é simétrica, então ela é diagonalizável, isto é, existe uma matriz diagonal D e uma matriz invertı́vel P tal que A = PDP−1 . Além disso, para matrizes simétricas, existe uma matriz P tal que A = PDPt . Isto porque existe uma matriz ortogonal P que faz a diagonalização, ou seja, que tem a propriedade P−1 = Pt . Em algumas aplicações a diagonalização com uma tal matriz é necessária, como por exemplo na identificação de cônicas. Vamos em primeiro lugar, caracterizar as matrizes ortogonais. 6.2.2 Matrizes Ortogonais Uma matriz P tal que P−1 = Pt é chamada de matriz ortogonal. Proposição 6.5. Uma matriz P é ortogonal se, e somente se, as suas colunas formam um conjunto ortonormal de vetores. Demonstração. Vamos escrever P = [U1 . . . Un ]. Ou seja, U1 , . . . , Un são as colunas de P. A inversa de P é Pt se, e somente se, Pt P = In . Mas,  t  t  U1 U1 U1t U2 . . . U1  U t U1 U t U2 . . . 2    2 Pt P =  ...  [U1 . . . Un ] =  .. ..  . . Unt t t Un U1 Un U2 . . . Julho 2010 U1t Un U2t Un .. . Unt Un      Reginaldo J. Santos 414 Diagonalização Logo, Pt P = In se, e somente se, Uit Uj = Ui · Uj = 0 para i 6= j e Uit Ui = Ui · Ui = 1 para i = 1, . . . n. Ou seja, Pt P = In se, e somente se, U1 , . . . , Un são ortonormais.  Vamos supor que uma matriz A é diagonalizável através de uma matriz ortogonal, ou seja, que existe uma matriz P tal que D = Pt AP é uma matriz diagonal. Como a matriz P é uma matriz cujas colunas são autovetores de A, deduzimos da proposição anterior que uma matriz A é diagonalizável através de uma matriz ortogonal se, e somente se, ela possui um conjunto ortonormal de autovetores. Como veremos, as matrizes simétricas possuem esta caracterı́stica. Proposição 6.6. Para uma matriz A simétrica, os autovetores associados a autovalores diferentes são ortogonais. Demonstração. Sejam V1 e V2 autovetores de A associados aos autovalores λ1 e λ2 , respectivamente, com λ1 6= λ2 . Então, AV1 = λ1 V1 e AV2 = λ2 V2 . Agora, se escrevemos os vetores como matrizes colunas, o produto escalar é simplesmente o produto matricial da transposta da primeira matriz pela segunda. Assim, AV1 · V2 = ( AV1 )t V2 = V1t At V2 = V1 · At V2 . (6.16) Como A é simétrica At = A e como V1 e V2 são autovetores de A, temos de (6.16) que λ1 V1 · V2 = λ2 V1 · V2 Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 6.2 Diagonalização de Matrizes Simétricas 415 ou (λ1 − λ2 )V1 · V2 = 0 . Como λ1 6= λ2 , concluı́mos que V1 · V2 = 0, ou seja, V1 , V2 são ortogonais.  Como autovetores associados a autovalores diferentes já são ortogonais, para diagonalizarmos uma matriz simétrica A através de uma matriz P ortogonal, precisamos encontrar, para cada autovalor, autovetores ortonormais associados a eles. Para isso, podemos aplicar a Proposição 5.18 ou a Proposição 5.19 na página 344 a cada conjunto de autovetores L.I. associados a cada um dos autovalores. Exemplo 6.10. Considere a matriz  4 A= 2 2 2 4 2  2 2  4 Esta é a matriz do Exemplo 6.5 na página 396. Para esta matriz o polinômio caracterı́stico é p(t) = det( A − t I3 ) = (t − 2)2 (8 − t) Portanto, os autovalores de A (raı́zes reais do polinômio caracterı́stico) são λ1 = 2 e λ2 = 8. Os autovetores associados aos autovalores λ1 = 2 e λ2 = 8 são as soluções de ( A − λ1 I3 ) X = 0̄ e ( A − λ2 I3 ) X = 0̄ respectivamente. A forma escalonada reduzida de  2 A − 2I3 =  2 2 Julho 2010 2 2 2  2 2  2  é 1  0 0 1 0 0  1 0 . 0 Reginaldo J. Santos 416 Diagonalização W2 W1 Figura 6.4. Autoespaços do Exemplo 6.10 Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 6.2 Diagonalização de Matrizes Simétricas 417 Portanto, o autoespaço associado a λ1 = 2 é W1 = {(−α − β, β, α) | α, β ∈ R} , Agora, (−α − β, β, α) = α(−1, 0, 1) + β(−1, 1, 0). Assim, os vetores V1 = (−1, 0, 1) e V2 = (−1, 1, 0) geram W1 . Como além disso, eles são L.I. (um não é múltiplo escalar do outro), então eles formam uma base para W1 . Vamos encontrar dois autovetores ortonormais associados a λ1 = 2. Para isso vamos usar a Proposição 5.18 na página 344. W1 = V1 = (−1, 0, 1); W2 = V2 − projW1 V2 = (−1/2, 1, −1/2)   √ √ 1 U1 = W1 = (−1/ 2, 0, 1/ 2) ||W1 ||   √ √ √ 1 U2 = W2 = (−1/ 6, 2/ 6, −1/ 6) ||W2 || Com relação ao autovalor λ2 = 8, temos que a forma escalonada reduzida da matriz     −4 2 2 1 0 −1 2  é  0 1 −1  . A − 8I3 =  2 −4 2 2 −4 0 0 0 Assim, o autoespaço associado a λ2 = 8 é W2 = {(α, α, α) | α ∈ R}. O conjunto {V3 = (1, 1, 1)} é uma base para W2 , pois como (α, α, α) = α(1, 1, 1), V3 gera W2 e um vetor não nulo é L.I. Assim, o vetor   √ √ √ 1 V3 = (1/ 3, 1/ 3, 1/ 3) U3 = ||V3 || Julho 2010 Reginaldo J. Santos 418 Diagonalização forma uma base ortonormal para W2 . Como a matriz A é simétrica, autovetores associados a autovalores diferentes são ortogonais. Portanto, U1 , U2 e U3 são ortonormais e assim a matriz   √1 − √1 − √1 6 3  2  √2 √1  0 P = [U1 U2 U3 ] =   6 3  √1 √1 − √1 6 2 3 satisfaz A = PDPt , em que  2 D= 0 0  0 0  8 0 2 0 Exemplo 6.11. Considere a matriz  A= 3 1 1 3  . O seu polinômio caracterı́stico é p(t) = det( A − t I2 ) = t2 − 6t + 8 = (t − 2)(t − 4). Portanto, os autovalores de A são λ1 = 2 e λ2 = 4. Os autovetores associados aos autovalores λ1 = 2 e λ2 = 4 são as soluções de ( A − λ1 I2 ) X = 0̄ e ( A − λ2 I2 ) X = 0̄ respectivamente. A solução geral do sistema ( A − 2I2 ) X = 0̄ é o autoespaço W1 = {(α, −α) | α ∈ R}. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 6.2 Diagonalização de Matrizes Simétricas 419 Como (α, −α) = α(1, −1), então V1 = (1, −1) gera W1 e como um vetor não nulo é L.I., {V1 } é uma base de W1 . Assim,     1 1 1 = √ ,−√ U1 = ||W1 || 2 2 é uma base ortonormal de W1 . Para determinar os autovetores associados a autovalor λ2 = 4 não precisamos resolver outro sistema linear. Como a matriz A é simétrica, pela Proposição 6.6 na página 414, autovetores associados a autovalores distintos são ortogonais. Logo o autoespaço associado a λ2 = 4 é dado por W2 = {α(1, 1) | α ∈ R}. O vetor V2 = (1, 1) gera W2 e como um vetor não nulo é L.I., {V2 } é uma base de W2 .     1 1 1 U2 = = √ ,√ ||W2 || 2 2 é uma base ortonormal de W2 . Como a matriz A é simétrica, autovetores associados a autovalores diferentes são ortogonais. Portanto, # "   √1 √1 2 0 2 2 e D = . P= √1 0 4 − √1 2 2 são tais que A = PDPt . Observe que se uma matriz A é diagonalizável com uma matriz ortogonal, ou seja, se A = PDPt , com D diagonal e P ortogonal, então At = ( PDPt )t = ( Pt )t D t Pt = PDPt = A, Julho 2010 Reginaldo J. Santos 420 Diagonalização ou seja, a matriz A tem que ser simétrica. O próximo resultado, que está demonstrado no Apêndice V na página 424, garante que toda matriz simétrica é diagonalizável através de uma matriz ortogonal, ou seja, o procedimento seguido nos dois exemplos anteriores sempre funciona para matrizes simétricas e somente para elas. Teorema 6.7. Se A é uma matriz simétrica, então ela é diagonalizável com uma matriz ortogonal, ou seja, existe uma matriz ortogonal P e uma matriz diagonal D tal que A = PDPt . Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 6.2 Diagonalização de Matrizes Simétricas 421 Exercı́cios Numéricos (respostas na página 573) 6.2.1. Diagonalize cada matriz dada A por meio de uma matriz ortogonal, ou seja, ache uma matriz ortogonal P tal que Pt AP seja diagonal:     2 2 2 1 (a) (b) 2 2  1 2  0 0 1 0 0 0 (c)  0 0 0  (d)  0 2 2   1 0 0   0 2 2  1 1 0 2 1 1 (e)  1 1 0  (f)  1 2 1  0 0 1 1 1 2     0 0 0 0 1 2 0 0  0 0 0 0   2 1 0 0     (h) (g)   0 0 0 1   0 0 1 2  0 0 1 0 0 0 2 1 6.2.2. Seja A uma matriz simétrica. Sabendo-se que V1 = (0, 2, −2, 1) e V2 = (2, 1, −2, 3) são autovetores de A associados a λ1 = 2 e V3 = (−2, 0, 1, 2) e V4 = (−3, −2, −1, 2) são autovetores associados a λ2 = 4 determine, se possı́vel, uma matriz P e uma matriz diagonal D tais que A = PDPt . Exercı́cios Teóricos 6.2.3. Mostre que se A é uma matriz ortogonal, então det( A) = ±1. 6.2.4. Mostre que se A e B são matrizes ortogonais, então AB é ortogonal. Julho 2010 Reginaldo J. Santos 422 Diagonalização  6.2.5. (a) Verifique se a matriz cos θ sen θ − sen θ cos θ  é ortogonal; (b) Mostre que X = ( x, y) é ortogonal a V = ( a, b) 6= 0̄ com || X || = ||V || se, e somente se, X = (−b, a) ou X = (b, − a). (c) Mostre que se A é uma matriz ortogonal 2 × 2, então existe um número real θ tal que  A= cos θ sen θ − sen θ cos θ   ou A= cos θ sen θ sen θ − cos θ  . A primeira matriz, tem determinante igual à 1, é a matriz de rotação (veja a Subseção 5.4.1 na página 365). Observe que a segunda matriz além de ortogonal é simétrica. (Sugestão: Comece com uma matriz ( aij )2×2 e use o fato de que as colunas são ortonormais. Uma das equações será a211 + a221 = 1. Faça a11 = cos θ e a21 = sen θ. Use o item anterior.) 6.2.6. Mostre que se uma matriz A é diagonalizável por uma matriz ortogonal (isto é, existem P e D, com P−1 = Pt e D diagonal, tais que A = PDPt ), então A é uma matriz simétrica. 6.2.7. Dizemos que uma matriz simétrica A, n × n, é (definida) positiva se X t AX > 0, para todo X ∈ Rn , X 6= 0̄, X escrito como matriz coluna. Mostre que são equivalentes as seguintes afirmações: (a) A matriz A é definida positiva. (b) A é simétrica e todos os autovalores de A são positivos. (c) Existe uma matriz definida positiva B tal que A = B2 . A matriz B é chamada a raiz quadrada de A. (Sugestão: Mostre que (a)⇒(b)⇒(c)⇒(a). Na parte (b)⇒(c) faça primeiro o caso em que A é uma matriz diagonal) 6.2.8. Seja A uma matriz invertı́vel n × n. Mostre que existe uma matriz simétrica definida positiva P e uma matriz ortogonal U, tal que A = PU. Esta decomposição é única chamada de decomposição polar de A. (Sugestão: Sejam P = ( AAt )1/2 e U = P−1 A. Mostre que UU t = In .) Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 6.2 Diagonalização de Matrizes Simétricas 423 6.2.9. Seja A uma matriz n × n. Para k = 1, . . . , n, seja Ak a submatriz obtida de A eliminando-se as últimas n − k linhas e colunas. Ak é chamada submatriz principal de A de ordem k. Mostre que se A é uma matriz simétrica definida positiva n × n, então (a) A é não singular; (b) det( A) > 0; (c) as submatrizes principais A1 , . . . , An são todas definidas positivas. (Sugestão: considere vetores Xk tais que os últimos n − k elementos são nulos.) Julho 2010 Reginaldo J. Santos 424 Diagonalização Apêndice V: Autovalores Complexos Vamos provar que toda matriz simétrica é diagonalizável através de uma matriz ortogonal. Para isto, precisamos trabalhar com matrizes cujas entradas são números complexos. Vamos chamar o conjunto das matrizes m × n cujas entradas são números complexos de Mmn (C). Para uma matriz A = ( aij ) ∈ Mmn (C), definimos o conjugado da matriz A, denotado por A como sendo a matriz B = (bij ) ∈ Mmn (C) dada por bij = āij , em que, se aij = αij + iβ ij , então āij = αij − iβ ij . Para as matrizes de Mmn (C) além das propriedades que já foram demonstradas no Teorema 1.1 na página 9 são válidas as seguintes propriedades, cuja demonstração deixamos a cargo do leitor: (p) Se A ∈ Mmp (C) e B ∈ M pn (C), então AB = A B. (q) Se A ∈ Mmn (C) e α ∈ C, então αA = ᾱB. Proposição 6.8. Seja A uma matriz n × n com entradas reais. Se Z ∈ Mn1 (C), é um autovetor de A associado a um autovalor complexo λ = α + iβ com β 6= 0, ou seja, se AZ = λZ, então Z também é um autovetor de A associado a λ = α − iβ. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 6.2 Diagonalização de Matrizes Simétricas 425 Demonstração. AZ = A Z = ( AZ ) = λZ = λ̄ Z.  Teorema 6.9. Toda matriz simétrica, cujas entradas são números reais, possui autovalor real. Demonstração. Seja A uma matriz simétrica, cujas entradas são números reais. Vamos mostrar que as raı́zes do seu polinômio caracterı́stico são reais. Seja λ uma raiz do polinômio caracterı́stico de A. Então o sistema linear ( A − λIn ) Z = 0̄ tem solução não trivial Z ∈ Mn1 (C). O que implica que AZ = λZ. Como A é uma matriz cujas entradas são números reais, pela Proposição 6.8 temos que AZ = λ̄ Z. Por um lado, t t n t Z AZ = Z λZ = λZ Z = λ ∑ |zi |2 . i =1 Por outro lado t t t n Z AZ = Z At Z = ( AZ )t Z = λ̄ Z Z = λ̄ ∑ |zi |2 . i =1 Logo, λ = λ, ou seja, λ é um número real. Julho 2010  Reginaldo J. Santos 426 Diagonalização Demonstração do Teorema 6.7 na página 420. O resultado é obvio se n = 1. Vamos supor que o resultado seja verdadeiro para matrizes (n − 1) × (n − 1) e vamos provar que ele é verdadeiro para matrizes n × n. Pelo Teorema 6.9 a matriz A tem um autovalor λ1 . Isto significa que existem autovetores associados a λ1 . Seja V1 um autovetor de norma igual à 1 associado a λ1 . Sejam V2 , . . . , Vn vetores tais que {V1 , . . . , Vn } é uma base ortonormal de Rn (isto pode ser conseguido aplicando-se o processo de ortogonalização de Gram-Schmidt a uma base de Rn que contenha V1 .) Seja P1 = [ V1 . . . Vn ]. Como AV1 = λ1 V1 e AV2 , . . . , AVn são combinações lineares de V1 , . . . , Vn , temos que    em que M =   AP1 = [ AV1 . . . AVn ] = [ V1 . . . Vn ] M = P1 M, (6.17)  λ1 ∗ ... ∗   0. . Multiplicando-se à esquerda (6.17) por P1t ..  B 0 obtemos M = P1t AP1 . Mas, Mt = ( P1t AP1 )t = P1t At P1 = P1t AP1 = M, ou seja, a matriz M é simétrica. Portanto,   λ1 0 ... 0     0 M= .    .. B 0 com B uma matriz simétrica (n − 1) × (n − 1). Como estamos supondo o resultado verdadeiro para matrizes (n − 1) × (n − 1), então existe uma  matriz ortogonal P̃2 , (n − 1) × (n − 1), tal que D2 = P̃2t B P̃2   é diagonal. Seja P2 =   Um Curso de Geometria Analı́tica e Álgebra Linear 1 0. .. 0 0 ... P̃2 0   .  Julho 2010 6.2 Diagonalização de Matrizes Simétricas 427 Seja P = P1 P2 . P é ortogonal (verifique!) e pela equação (6.17)    AP = ( AP1 ) P2 = P1 MP2 = P1   0 λ1 0 .. . 0 ... B P̃2 0      Mas, B P̃2 = P̃2 D2 e assim,    AP = P1 P2      em que D =   resultado. Julho 2010 λ1 0. .. 0 0 ... D2 0 λ1 0 .. . 0 0 ... D2 0     = PD,     . Multiplicando-se à direita por Pt obtemos o   Reginaldo J. Santos 428 Diagonalização 6.3 Aplicação: Identificação de Cônicas Uma cônica no plano é definida como o conjunto dos pontos P = ( x, y) que satisfazem a equação ax2 + bxy + cy2 + dx + ey + f = 0, em que a, b, c, d, e e f são números reais, com a, b e c não simultaneamente nulos. Vamos estudar a elipse, a hipérbole e a parábola, que são chamadas cônicas não degeneradas. As outras que incluem um único ponto e um par de retas são chamadas cônicas degeneradas. Como veremos adiante as cônicas não degeneradas podem ser obtidas da interseção de um cone circular com um plano. Dizemos que a equação de uma cônica não degenerada está na forma padrão se ela tem uma das formas dadas na Figura 6.19 na página 454. Nesta seção veremos como a diagonalização de matrizes simétricas pode ser usada na identificação das cônicas cujas equações não estão na forma padrão. Antes, porem, vamos definir as cônicas como conjunto de pontos que satisfazem certas propriedades e determinar as equações na forma padrão. 6.3.1 Elipse Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 6.3 Aplicação: Identificação de Cônicas 429 P F1 F2 Figura 6.5. Elipse que é o conjunto dos pontos P tais que dist( P, F1 ) + dist( P, F2 ) = 2a Julho 2010 Reginaldo J. Santos 430 Diagonalização Definição 6.4. A elipse é o conjunto dos pontos P no plano tais que a soma das distâncias de P a dois pontos fixos F1 e F2 (focos) é constante, ou seja, se dist( F1 , F2 ) = 2c, então a elipse é o conjunto dos pontos P tais que dist( P, F1 ) + dist( P, F2 ) = 2a, em que a > c. Uma elipse pode ser desenhada se fixarmos as extremidades de um barbante de comprimento 2a nos focos e esticarmos o barbante com uma caneta. Movimentandose a caneta, mantendo o barbante esticado, a elipse será traçada (Figura 6.5). Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 6.3 Aplicação: Identificação de Cônicas Proposição 6.10. 431 (a) A equação da elipse cujos focos são F1 = (−c, 0) e F2 = (c, 0) é x2 y2 + 2 = 1, 2 a b (6.18) (b) A equação da elipse cujos focos são F1 = (0, −c) e F2 = (0, c) é y2 x2 + 2 = 1. 2 b a Em ambos os casos b = Julho 2010 √ (6.19) a2 − c2 . Reginaldo J. Santos 432 Diagonalização y y A2 F2 B2 a c a b A1 A2 F1 c F2 B1 B2 x x b B1 A1 = (− a, 0) B1 = (−b, 0) F1 = (−c, 0) A2 = ( a, 0) B2 = (b, 0) F2 = (c, 0) Figura 6.6. Elipse com focos nos pontos F1 = (−c, 0) e F2 = (c, 0) Um Curso de Geometria Analı́tica e Álgebra Linear A1 = (0, − a) B1 = (−b, 0) F1 = (0, −c) F1 A1 A2 = (0, a) B2 = (b, 0) F2 = (0, c) Figura 6.7. Elipse com focos nos pontos F1 = (0, −c) e F2 = (0, c) Julho 2010 6.3 Aplicação: Identificação de Cônicas 433 Demonstração. (a) Vamos provar que se P = ( x, y) pertence a elipse, então ele satisfaz (6.18) e deixamos para o leitor, como exercı́cio, a demonstração da recı́proca. A elipse é o conjunto dos pontos P = ( x, y) tais que dist( P, F1 ) + dist( P, F2 ) = 2a, ou seja, −→ −→ || F1 P || + || F1 P || = 2a, que neste caso é q ou q ( x + c )2 + y2 + q ( x − c)2 + y2 = 2a ( x + c)2 + y2 = 2a − q ( x − c )2 + y2 . Elevando ao quadrado e simplificando, temos q a ( x − c)2 + y2 = a2 − cx. Elevando novamente ao quadrado e simplificando, temos ( a2 − c2 ) x 2 + a2 y2 = a2 ( a2 − c2 ) Como a > c, então a2 − c2 > 0. Assim, podemos definir b = e equação acima por a2 b2 = a2 ( a2 − c2 ), obtendo (6.18). √ a2 − c2 e dividir (b) Trocando-se x por y no item anterior obtemos o resultado.  Julho 2010 Reginaldo J. Santos 434 Diagonalização Figura 6.8. Elipse obtida seccionando-se um cone com um plano Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 6.3 Aplicação: Identificação de Cônicas 435 Nas Figuras 6.6 e 6.7, os pontos A1 , A2 , B1 e B2 são chamados vértices da elipse. Os segmentos A1 A2 e B1 B2 são chamados eixos da elipse. c A excentricidade da elipse é o número e = . Como, c < a, a excentricidade de uma a elipse é um número real não negativo menor que 1. Observe que se F1 = F2 , então a elipse reduz-se ao cı́rculo de raio a. Além disso, como c = 0, então e = 0. Assim, um cı́rculo é uma elipse de excentricidade nula. A elipse é a curva que se obtém seccionando-se um cone com um plano que não passa pelo vértice, não é paralelo a uma reta geratriz (reta que gira em torno do eixo do cone de forma a gerá-lo) e que corta apenas uma das folhas da superfı́cie (a demonstração deste fato está no Exercı́cio 6.3.18 na página 476). A elipse tem a propriedade de refletir os raios vindos de um dos focos na direção do outro foco (a demonstração deste fato está no Exercı́cio 6.3.16 na página 469). Este fato é usado na construção de espelhos para dentistas e para escaneres. Os planetas possuem órbitas elı́pticas em torno do Sol, assim como os satélites em torno dos planetas. A excentricidade da órbita da Terra em torno do Sol é 0,017. Da Lua em volta da Terra é 0,055. Netuno é o planeta, cuja órbita, tem a menor excentricidade do sistema solar, que é 0,005. Mercúrio tem a órbita de maior, e é 0,206. Triton, que é a maior lua de Netuno é o corpo, cuja órbita tem a menor excentricidade do sistema solar, que é de 0,00002. O cometa Halley tem uma órbita elı́ptica em torno do sol com excentricidade 0,967. O coliseu de Roma tem a base elı́ptica com eixo maior igual à 94 metros e eixo menor igual à 78 metros. Julho 2010 Reginaldo J. Santos 436 Diagonalização 6.3.2 Hipérbole Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 6.3 Aplicação: Identificação de Cônicas 437 P F1 F2 Figura 6.9. Hipérbole que é o conjunto dos pontos P = ( x, y) tais que | dist( P, F1 ) − dist( P, F2 )| = 2a Julho 2010 Reginaldo J. Santos 438 Diagonalização Definição 6.5. A hipérbole é o conjunto dos pontos P no plano tais que o módulo da diferença entre as distâncias de P a dois pontos fixos F1 e F2 (focos) é constante, ou seja, se dist( F1 , F2 ) = 2c, então a hipérbole é o conjunto dos pontos P tais que | dist( P, F1 ) − dist( P, F2 )| = 2a, em que a < c. Podemos desenhar uma parte de um ramo de uma hipérbole da seguinte forma. Fixamos uma extremidade de uma régua em um dos focos, fixamos uma extremidade de um barbante (de comprimento igual ao comprimento da régua menos 2a) na outra ponta da régua e a outra extremidade do barbante no outro foco. Esticamos o barbante com uma caneta de forma que ela fique encostada na régua. Girando-se a régua em torno do foco no qual ela foi fixada, mantendo o barbante esticado com a caneta encostada na régua, uma parte de um ramo da hipérbole será traçada (Figura 6.9). Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 6.3 Aplicação: Identificação de Cônicas 439 y y y = − ba x y = ba x y=−ax b y= ax b F2 A2 c a b A1 F1 b c A2 a F2 x x A1 F1 A1 = (− a, 0) A2 = ( a, 0) F1 = (−c, 0) F2 = (c, 0) Figura 6.10. Hipérbole com focos nos pontos F1 = (−c, 0) e F2 = (c, 0) Julho 2010 A1 = (0, − a) F1 = (0, −c) A2 = (0, a) F2 = (0, c) Figura 6.11. Hipérbole com focos nos pontos F1 = (0, −c) e F2 = (0, c) Reginaldo J. Santos 440 Diagonalização Proposição 6.11. (a) A equação da hipérbole cujos focos são F1 = (−c, 0) e F2 = (c, 0) é x2 y2 − =1 a2 b2 (6.20) e das assı́ntotas (retas para onde a curva se aproxima, quando x → ±∞) são b y = ± x, a (b) A equação da hipérbole cujos focos são F1 = (0, −c) e F2 = (0, c) é y2 x2 − =1 a2 b2 e das assı́ntotas são Em ambos os casos b = √ (6.21) a x = ± y. b c2 − a2 . Demonstração. (a) Vamos provar que se P = ( x, y) é uma ponto da hipérbole então ele satisfaz (6.20) e deixamos para o leitor, como exercı́cio, a demonstração da recı́proca. A hipérbole é o conjunto dos pontos P = ( x, y) tais que dist( P, F1 ) − dist( P, F2 ) = ±2a, Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 6.3 Aplicação: Identificação de Cônicas ou seja, 441 −→ −→ || F1 P || − || F2 P || = ±2a, que neste caso é q ou q ( x + c )2 + y2 − q ( x − c)2 + y2 = ±2a ( x + c)2 + y2 = ±2a + q ( x − c )2 + y2 . Elevando ao quadrado e simplificando, temos q ± a ( x − c)2 + y2 = a2 − cx. Elevando novamente ao quadrado e simplificando, temos ( a2 − c2 ) x 2 + a2 y2 = a2 ( a2 − c2 ) Como a < c, então c2 − a2 > 0. Assim, podemos definir b = e equação acima por − a2 b2 = a2 ( a2 − c2 ), obtendo (6.20). √ c2 − a2 e dividir A equação (6.20) pode ser reescrita como  2    b2 2 a2 2 2 x y =b −1 = 2x 1− 2 . a2 a x Para x muito grande, a2 é próximo de 0 e a equação se aproxima de x2 y2 = b2 2 x a2 ⇒ b y = ± x. a (b) Trocando-se x por y no item anterior obtemos o resultado. Julho 2010 Reginaldo J. Santos 442 Diagonalização  Nas Figuras 6.10 e 6.11, os pontos A1 e A2 são chamados vértices da hipérbole. A c excentricidade da hipérbole é o número e = . Como, c > a, a excentricidade de a uma hipérbole é um número real maior que 1. A hipérbole é a curva que se obtém seccionando-se um cone com um plano que não passa pelo vértice, não é paralelo a uma reta geratriz e que corta as duas folhas da superfı́cie (a demonstração deste fato está no Exercı́cio 6.3.18 na página 476). A hipérbole tem a propriedade de refletir os raios vindos na direção de um dos focos na direção do outro foco (a demonstração deste fato está no Exercı́cio 6.3.17 na página 472). Este fato é usado na construção de espelhos para telescópios e para máquinas fotográficas. O cometa C/1980 E1 foi descoberto em 1980 e está deixando o sistema solar numa trajetória hiperbólica com a maior velocidade já observada em um corpo no sistema solar. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 6.3 Aplicação: Identificação de Cônicas 443 Figura 6.12. Hipérbole obtida seccionando-se um cone com um plano Julho 2010 Reginaldo J. Santos 444 Diagonalização 6.3.3 Parábola Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 6.3 Aplicação: Identificação de Cônicas 445 P F Figura 6.13. Parábola que é o conjunto dos pontos P = ( x, y) tais que dist( P, F ) = dist( P, r ) Julho 2010 Reginaldo J. Santos 446 Diagonalização Definição 6.6. Uma parábola é o conjunto dos pontos P no plano equidistantes de uma reta r (diretriz) e de um ponto F (foco), não pertencente a r, ou seja, a parábola é o conjunto dos pontos P tais que dist( P, F ) = dist( P, r ). Podemos desenhar uma parte da parábola da seguinte forma. Colocamos um esquadro com um lado cateto encostado na reta diretriz, fixamos uma extremidade de um barbante (de comprimento igual ao lado cateto do esquadro perpendicular à reta diretriz) no foco, a outra extremidade na ponta do esquadro oposta ao lado que está encostado na reta diretriz. Esticamos o barbante com a caneta de forma que ela fique encostada no lado do esquadro perpendicular à reta diretriz. Deslizando-se o esquadro na direção da reta diretriz mantendo o lado encostado nela, uma parte da parábola é traçada (Figura 6.13). Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 6.3 Aplicação: Identificação de Cônicas 447 y r : x = −p y P0 F x F = (0, p) P0 = (0, 0) F = ( p, 0) x r : y = −p P0 = (0, 0) Figura 6.14. Parábola com foco no ponto F = ( p, 0) e p>0 Julho 2010 Figura 6.15. Parábola com foco no ponto F = (0, p) e p>0 Reginaldo J. Santos 448 Diagonalização y y r : x = −p r : y = −p P0 x F F P0 x F = ( p, 0) F = (0, p) P0 = (0, 0) P0 = (0, 0) Figura 6.16. Parábola com foco no ponto F = ( p, 0) e p<0 Um Curso de Geometria Analı́tica e Álgebra Linear Figura 6.17. Parábola com foco no ponto F = (0, p) e p<0 Julho 2010 6.3 Aplicação: Identificação de Cônicas Proposição 6.12. 449 (a) A equação da parábola com foco F = ( p, 0) e reta diretriz r : x = − p é y2 = 4px, (6.22) (b) A equação da parábola com foco F = (0, p) e reta diretriz r : y = − p é x2 = 4py. (6.23) Demonstração. (a) Vamos provar que se P( x, y) pertence a parábola, então ele satisfaz (6.22) e deixamos para o leitor, como exercı́cio, a demonstração da recı́proca. A parábola é o conjunto dos pontos P = ( x, y) tais que dist( P, F ) = dist( P, r ), que neste caso é q ( x − p )2 + y2 = | x + p |, Elevando ao quadrado e simplificando, obtemos (6.22). (b) Trocando-se x por y no item anterior obtemos o resultado.  Julho 2010 Reginaldo J. Santos 450 Diagonalização Nas Figuras 6.14, 6.15, 6.16 e 6.17, o ponto P0 é o ponto da parábola mais próximo da reta diretriz e é chamado de vértice da parábola. A parábola é a curva que se obtém seccionando-se um cone por um plano paralelo a uma reta geratriz do cone conforme a Figura 6.18 na página 451 (ver Exercı́cio 6.3.18 na página 476). A parábola tem a propriedade de refletir os raios vindos do foco na direção do seu eixo (a demonstração deste fato está no Exercı́cio 6.3.15 na página 465). Este fato é usado na construção de faróis e lanternas. Também, naturalmente, reflete na direção do foco os raios que incidem paralelos ao eixo de simetria, fato usado na construção de antenas receptoras. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 6.3 Aplicação: Identificação de Cônicas 451 Figura 6.18. Parábola obtida seccionando-se um cone com um plano Julho 2010 Reginaldo J. Santos 452 Diagonalização Vamos resumir numa tabela as cônicas não degeneradas e suas equações na forma padrão. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 6.3 Aplicação: Identificação de Cônicas 453 y2 x2 + 2 = 1, a > b 2 a by y2 x2 + 2 = 1, a > b 2 a by Elipse (0, a) (b, 0) (− a, 0) ( a, 0) (−b, 0) (b, 0) x x (−b, 0) (0, − a) y2 x2 − 2 =1 2 a y b y2 x2 − 2 =1 2 a y b Hipérbole = y y = b x a − y = a x − b a b x = b a x y (0, a) (− a,0) ( a, 0) x x (0, − a) Julho 2010 Reginaldo J. Santos 454 Diagonalização y2 = 4px, p > 0 x2 = 4py, p > 0 Parábola y r : x = −p y x x r : y = −p y2 = 4px, p < 0 x2 = 4py, p < 0 y y r : x = −p r : y = −p x x Figura 6.19. Cônicas não degeneradas com equações na forma padrão Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 6.3 Aplicação: Identificação de Cônicas 455 Vamos ver, agora, como a diagonalização de matrizes simétricas pode ser usada na identificação das cônicas cujas equações não estão na forma padrão. Vamos estudar alguns exemplos. Exemplo 6.12. Considere a cônica C cuja equação é 5x2 − 4xy + 8y2 − 36 = 0. Esta equação pode ser escrita como X t AX − 36 = 0 , (6.24) em que  A= 5 −2 −2 8   e X= x y  . O polinômio caracterı́stico de A é  p(λ) = det( A − λI2 ) = det 5−λ −2 −2 8−λ  = λ2 − 13λ + 36 . Logo, os autovalores de A são λ1 = 4 e λ2 = 9. Os autovetores associados a λ1 = 4 são as soluções não nulas do sistema ( A − 4I2 ) X = 0̄ ou  1 −2 −2 4  x y   = 0 0  , cuja solução é W1 = {(2α, α) | α ∈ R} . Julho 2010 Reginaldo J. Santos 456 Diagonalização Assim, V1 = (2, 1) é uma base para W1 , pois gera V1 e é L.I. E W1 = é uma base ortonormal para W1 . V1 ||V1 || = ( √2 , √1 ) 5 5 Não precisamos resolver outro sistema linear para encontrar os autovetores associados a λ2 = 9. Como a matriz A é simétrica, pela Proposição 6.6 na página 414, autovetores associados a autovalores distintos são ortogonais. Assim, o autoespaço associado a λ2 = 9 é dado por W2 = {α(1, −2) | α ∈ R}. Logo V2 = (1, −2) é uma base para V2 , pois gera V2 e é L.I. E 2 W2 = ||V = ( √1 , − √2 ) V2 || 5 5 é uma base ortonormal para W2 . Portanto, A = PDPt em que,  D= 4 0 e 0 9 " P = [W1 − W2 ] =  √2 5 √1 5 −1 √ 5 √2 5 # . Pelo Exercı́cio 6.2.5 na página 422 a matriz P é uma matriz de rotação. Substituindo-se A = PDPt na equação (6.24) obtemos X t PDPt X − 36 = 0. Substituindo-se X = PX 0 , equação (6.24), obtemos ou equivalentemente, X0 = Pt X, em que X0  = x0 y0  na X 0t DX 0 − 36 = 0, Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 6.3 Aplicação: Identificação de Cônicas ou 457 4x 02 + 9y02 − 36 = 0, ou ainda x 02 y 02 + =1 (6.25) 9 4 que é a equação de uma elipse cujo esboço é mostrado na Figura ??. Para fazer o esboço do gráfico, em primeiro lugar temos que traçar os eixos x0 e y0 . O eixo x0 é obtido fazendo y0 = 0 na equação #   " √2  −1 √ x x0 0 5 5 X = PX ou = √1 √2 y y0 5 5 e o eixo y0 é obtido fazendo x 0 = 0. Assim, eixo x0 passa pela é paralelo e pos origem,  1 sui o mesmo sentido do vetor W1 , que tem coordenadas em relação ao sistema 0   1 de coordenadas x0 y0 . Ou seja, W1 = P , que é a primeira coluna de P. O eixo y0 0 passa   pela origem, é paralelo e possui o mesmo sentido de W2 que tem coordenadas  0 0 em relação ao sistema de coordenadas x0 y0 . Ou seja, W2 = P , que é a 1 1 segunda coluna de P. Depois, a partir da equação (6.25), verificamos na Figura 6.19 na página 454 a forma da curva em relação aos eixos x0 e y0 . Exemplo 6.13. Considere a cônica cuja equação é dada por 80 20 5x2 − 4xy + 8y2 + √ x − √ y + 4 = 0 . 5 5 Esta equação pode ser escrita como X t AX + KX + 4 = 0 , Julho 2010 (6.26) Reginaldo J. Santos 458 Diagonalização 4 y y‘ 3 2 x‘ 1 W2 W1 0 x −1 −2 −3 −4 −4 −3 −2 −1 0 1 2 3 4 Figura 6.20. Elipse do Exemplo 6.12 Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 6.3 Aplicação: Identificação de Cônicas 459 em que  A= 5 −2 −2 8  e K= h 20 √ 5 − √80 i 5 . A matriz A é a mesma do exemplo anterior. Assim, temos que A = PDPt em que,  D= 4 0 0 9 "  , e P = [W1 W2 ] = √2 5 √1 5 −1 √ 5 √2 5 # . Substituindo-se A = PDPt na equação (6.26) obtemos X t PDPt X + KX + 4 = 0.  0  x Substituindo-se X = PX 0 ou X 0 = Pt X, em que X 0 = . y0 X 0t DX 0 + KPX 0 + 4 = 0, ou ou ainda, 4x 02 + 9y02 − 8x 0 − 36y0 + 4 = 0 . 4( x 02 − 2x 0 ) + 9(y02 − 4y0 ) + 4 = 0 Completando-se os quadrados, obtemos 4[( x 02 − 2x 0 + 1) − 1] + 9[(y02 − 4y0 + 4) − 4] + 4 = 0 ou Julho 2010 4( x 0 − 1)2 + 9(y0 − 2)2 − 36 = 0. Reginaldo J. Santos 460 Diagonalização Fazendo-se mais uma mudança de variáveis x 00 y 00 = x0 − 1 e = y0 − 2 (6.27) (6.28) obtemos 4x 002 + 9y002 − 36 = 0 ou x 002 y002 + =1 9 4 (6.29) que é a equação de uma elipse cujo esboço é mostrado na Figura 6.21. Antes de fazer o esboço do gráfico temos que traçar os eixos x00 e y00 , que por sua vez são translaç  ões 1 dos eixos x0 e y0 . O eixo x0 tem a direção e o sentido do vetor W1 = P (a 0  0 primeira coluna de P). O eixo y0 tem a direção e o sentido do vetor W2 = P 1 00 00 (a segunda coluna de P). O eixo x tem equação y = 0. Usando a equação (6.27) obtemos y0 = 2. O eixo y00 tem equação x 00 = 0. Usando a equação (6.28) obtemos x 0 = 1. Depois, a partir da equação (6.29), verificamos na Figura 6.19 na página 454 a forma da curva em relação aos eixos x00 e y00 . Os exemplos anteriores são casos particulares do próximo teorema, cuja demonstração é feita da mesma forma que fizemos com os exemplos e por isso deixamos para o leitor a tarefa de escrevê-la. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 6.3 Aplicação: Identificação de Cônicas 461 7 y 6 y" 5 4 x" y‘ 3 2 x‘ 1 W2 W1 0 x −1 −4 −3 −2 −1 0 1 2 3 4 Figura 6.21. Elipse do Exemplo 6.13 Julho 2010 Reginaldo J. Santos 462 Diagonalização Teorema 6.13. Considere a equação ax2 + bxy + cy2 + dx + ey + f = 0, (6.30) com a, b, c, d, e, f ∈ R, sendo a, b e c não simultaneamente nulos. Então existe um sistema de coordenadas ortogonal x0 y0 , em que a equação (6.30) tem a forma λ1 x 02 + λ2 y 02 + d 0 x 0 + e 0 y 0 + f = 0 , em que λ1 , λ2 são os autovalores de  A= Mais ainda, em que X 0 = a b/2 b/2 c  . X = PX 0 ,  x0 y0   ,X = x y  e P é uma matriz ortogonal (P−1 = Pt ). Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 6.3 Aplicação: Identificação de Cônicas 463 Exercı́cios Numéricos (respostas na página 580) Identificar a cônica, achar a equação no último sistema de coordenadas utilizado e fazer um esboço do gráfico. 6.3.1. 9x2 − 4xy + 6y2 = 30; 6.3.2. 3x2 − 8xy − 12y2 + 81 = 0; 6.3.3. 2x2 − 4xy − y2 = −24; 6.3.4. 21x2 + 6xy + 13y2 − 132 = 0; 6.3.5. 4x2 − 20xy + 25y2 − 15x − 6y = 0; √ √ 6.3.6. 9x2 + y2 + 6xy − 10 10x + 10 10y + 90 = 0; √ √ 6.3.7. 5x2 + 5y2 − 6xy − 30 2x + 18 2y + 82 = 0; √ 6.3.8. 5x2 + 12xy − 12 13x = 36; √ √ 6.3.9. 6x2 + 9y2 − 4xy − 4 5x − 18 5y = 5; √ 6.3.10. x2 − y2 + 2 3xy + 6x = 0; √ √ 6.3.11. 8x2 + 8y2 − 16xy + 33 2x − 31 2y + 70 = 0; 6.3.12. x2 − 6xy − 7y2 + 10x + 2y + 9 = 0; Exercı́cios usando o M ATLABr Comandos do pacote GAAL: >> [P,D]=diagonal(A) diagonaliza a matriz A, de forma que AP=PD, em que D é uma matriz diagonal e P é uma matriz ortogonal. Julho 2010 Reginaldo J. Santos 464 Diagonalização >> subst(expr,[x;y],[a;b]) substitui na expressão expr as variáveis x,y por a,b, respectivamente. >> elipse(a,b) desenha a elipse x2 a2 + y2 b2 = 1. >> elipse(a,b,[U1 U2]) desenha a elipse base ortonormal U1 e U2. x 02 a2 + y 02 b2 002 = 1, em que x 0 e y0 são as coordenadas em relação à y002 >> elipse(a,b,[U1 U2],X0) desenha a elipse xa2 + b2 = 1, em que x 00 e y00 são as coordenadas em relação ao sistema de coordenadas determinado pela base ortonormal U1 e U2 e pelo ponto X0. >> hiperbx(a,b) desenha a hipérbole x2 a2 − y2 b2 = 1. >> hiperbx(a,b,[U1 U2]) desenha a hipérbole relação à base ortonormal U1 e U2. x 02 a2 − y 02 b2 = 1, em que x 0 e y0 são as coordenadas em y002 002 >> hiperbx(a,b,[U1 U2],X0) desenha a hipérbole xa2 − b2 = 1, em que x 00 e y00 são as coordenadas em relação ao sistema de coordenadas determinado pela base ortonormal U1 e U2 e pelo ponto X0. >> hiperby(a,b) desenha a hipérbole y2 a2 − x2 b2 = 1. >> hiperby(a,b,[U1 U2]) desenha a hipérbole relação à base ortonormal U1 e U2. y 02 a2 − y002 x 02 b2 = 1, em que x 0 e y0 são as coordenadas em 002 >> hiperby(a,b,[U1 U2],X0) desenha a hipérbole a2 − xb2 = 1, em que x 00 e y00 são as coordenadas em relação ao sistema de coordenadas determinado pela base ortonormal U1 e U2 e pelo ponto X0. >> parabx(p) desenha a parábola y2 = 4px. >> parabx(p,[U1 U2]) desenha a parábola y02 = 4px 0 , em que x 0 e y0 são as coordenadas em relação à base ortonormal U1 e U2. >> parabx(p,[U1 U2],X0) desenha a parábola y002 = 4px 00 , em que x 00 e y00 são as coordenadas em relação ao sistema de coordenadas determinado pela base ortonormal U1 e U2 e por X0. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 6.3 Aplicação: Identificação de Cônicas 465 >> paraby(p) desenha a parábola x2 = 4py. >> paraby(p,[U1 U2]) desenha a parábola x 02 = 4py0 , em que x 0 e y0 são as coordenadas em relação à base ortonormal U1 e U2. >> paraby(p,[U1 U2],X0) desenha a parábola x 002 = 4py00 , em que x 00 e y00 são as coordenadas em relação ao sistema de coordenadas determinado pela base ortonormal U1 e U2 e por X0. 6.3.13. Use o M ATLABr para resolver os Exercı́cios Numéricos Exercı́cios Teóricos 6.3.14. (a) Verifique que com o procedimento abaixo realmente desenhamos uma parte de um ramo de uma hipérbole. Fixamos uma extremidade de uma régua em um dos focos, fixamos uma extremidade de um barbante (de comprimento igual ao comprimento da régua menos 2a) na outra ponta da régua e a outra extremidade do barbante no outro foco. Esticamos o barbante com uma caneta de forma que ela fique encostada na régua. Girando-se a régua em torno do foco no qual ela foi fixada, mantendo o barbante esticado com a caneta encostada na régua, uma parte de um ramo da hipérbole será traçada (Figura 6.9 na página 437). (b) Verifique que com o procedimento abaixo realmente desenhamos uma parte de um ramo de uma parábola. Colocamos um esquadro com um lado cateto encostado na reta diretriz, fixamos uma extremidade de um barbante (de comprimento igual ao lado cateto do esquadro perpendicular à reta diretriz) no foco, a outra extremidade na ponta do esquadro oposta ao lado que está encostado na reta diretriz. Esticamos o barbante com a caneta de forma que ela fique encostada no lado do esquadro perpendicular à reta diretriz. Deslizando-se o esquadro na direção da reta diretriz mantendo o lado encostado nela uma parte da parábola é traçada (Figura 6.13 na página 445). 6.3.15. Mostre que um espelho parabólico reflete na mesma direção do seu eixo de simetria os raios que incidem vindos do foco, seguindo os seguintes passos: Julho 2010 Reginaldo J. Santos 466 Diagonalização (a) Considere a parábola y2 = 4px. Use o fato de que a inclinação da reta tangente à parabola no ponto y2 dy P = ( 4p0 , y0 ) é tan(α) = dx = x no ponto Q = (− x0 , 0). 2p y0 . Mostre que a reta tangente à parabola no ponto P intercepta o eixo (b) Mostre que d( Q, F ) = d( F, P), em que F = ( p, 0). Logo o triângulo QFP é isósceles e assim, o ângulo de incidência do raio que incide em P vindo do foco, α2 , é igual ao ângulo de reflexão do raio que parte de P na mesma direção do eixo de simetria, α1 . Portanto, o raio que vem de F e se reflete em P necessariamente segue paralelo ao eixo de simetria da parábola (veja a Figura 6.22). Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 6.3 Aplicação: Identificação de Cônicas 467 y P y0 α1 α2 α1 Q F x0 x Figura 6.22. Espelho parabólico refletindo na direção do seu eixo de simetria os raios vindos do foco. Julho 2010 Reginaldo J. Santos 468 Figura 6.23. Espelho parabólico refletindo, na direção do foco, os raios que incidem paralelos ao seu eixo Um Curso de Geometria Analı́tica e Álgebra Linear Diagonalização Figura 6.24. Espelho parabólico refletindo na direção do seu eixo os raios originários do foco Julho 2010 6.3 Aplicação: Identificação de Cônicas 469 6.3.16. Mostre que um espelho elı́ptico, reflete na direção de um foco, os raios que incidem na elipse vindo do outro foco, seguindo os seguintes passos: x2 y2 + = 1. Usando o fato de que um ponto da elipse pode ser escrito na a2 b2 forma P = ( a cos t, b sen t), para t ∈ [0, 2π ) e que a inclinação da reta tangente à elipse neste ponto b cos t dy =− , mostre que a equação da reta tangente à elipse em P é é dx a sen t (a) Considere a elipse y = b sen t − b cos t ( x − a cos t), a sen t para t 6= 0, π, e que a equação da reta que passa por F2 e é paralela ao raio que passa por F1 depois de ser refletido em P é b sen t y= ( x − c ). c + a cos t (b) Mostre que a interseção da reta tangente à elipse que passa por P e a reta que passa por F2 e é paralela ao raio que passa por F1 depois de ser refletido em P é o ponto  P1 = a(c sen2 t + a cos t + c) b sen t( a − c cos t) , a + c cos t a + c cos t  (c) Mostre que dist( P, F2 ) = dist( P1 , F2 ) = a − c cos t. Logo o triângulo PF2 P1 é isósceles e assim o ângulo de reflexão do raio que passa por F1 depois de ser refletido em P, α1 , e o ângulo de incidência do raio que se reflete em P vindo de F2 , α2 , são iguais. Portanto, o raio que vem de F2 e se reflete em P necessariamente passa por F1 (veja a Figura 6.25). Julho 2010 Reginaldo J. Santos 470 Diagonalização y P = ( a cos(t), b sen(t)) α1 α2 P1 α1 F1 = (−c, 0) F2 = (c, 0) x Figura 6.25. Elipse refletindo, na direção de um foco, os raios que incidem na elipse vindo do outro foco Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 6.3 Aplicação: Identificação de Cônicas 471 Figura 6.26. Espelho elı́ptico refletindo, na direção de um foco, os raios que incidem vindo do outro foco Julho 2010 Reginaldo J. Santos 472 Diagonalização 6.3.17. Mostre que um espelho hiperbólico, reflete na direção de um foco, os raios que incidem na hipérbole na direção do outro foco, seguindo os seguintes passos: x 2 y2 − 2 = 1. Usando o fato de que um ponto do ramo esquerdo da hipérbole a2 b pode ser escrito na forma P = (− a sec t, b tan t), para t ∈ (−π/2, π/2) e que a inclinação da reta b dy =− , mostre que a equação da reta tangente à hipérbole tangente à hipérbole neste ponto é dx a sen t em P é b y = b tan t − ( x + a sec t), para t 6= 0, a sen t e que a equação da reta que passa por F2 e é paralela ao raio que incide na direção de F1 e se reflete em P é b tan t y= ( x − c ). c − a sec t (a) Considere a hipérbole (b) Mostre que a interseção da reta tangente à hipérbole que passa por P e a reta que passa por F2 e é paralela ao raio que incide na direção de F1 e se reflete em P é o ponto  P1 = a(2c cos2 t − a cos t − c) b sen t( a cos t + c) , cos t( a cos t − c) cos t( a cos t − c)  (c) Mostre que dist( P, F2 ) = dist( P1 , F2 ) = a + c sec t. Logo o triângulo PF2 P1 é isósceles e assim o ângulo de incidência do raio que incide na direção de F1 e se reflete em P, α1 , e o ângulo de reflexão do raio que se reflete em P na direção de F2 , α2 , são iguais. Portanto, o raio que incide na direção de F1 e se reflete em P necessariamente passa por F2 (veja as Figuras 6.27 e 6.28) Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 6.3 Aplicação: Identificação de Cônicas 473 y α1 P = (− a sec t, b tan t) α2 F2 = (c, 0) F1 = (−c, 0) x α1 P1 Figura 6.27. Hipérbole refletindo, na direção de um foco, os raios que incidem na hipérbole na direção do outro foco Julho 2010 Reginaldo J. Santos 474 Diagonalização y α2 α1 P = (− a sec t, b tan t) α1 α2 F2 = (c, 0) F1 = (−c, 0) x α1 P1 Figura 6.28. Hipérbole refletindo, na direção de um foco, os raios que incidem na hipérbole na direção do outro foco Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 6.3 Aplicação: Identificação de Cônicas 475 Figura 6.29. Espelho maior parabólico refletindo na direção do foco, em seguida os raios são refletidos por um espelho hiperbólico na direção do outro foco da hipérbole Julho 2010 Reginaldo J. Santos 476 Diagonalização 6.3.18. Mostre que a interseção de um cone circular com plano que não passa pelo seu vértice é uma cônica seguindo os seguintes passos: (a) Considere dois sistemas de coordenadas R = {O,~i,~j,~k } e S = {O,~i, U2 , U3 }, em que o sistema S é obtido do sistema R por uma rotação de ângulo θ em torno do eixo x. Mostre que é válida a seguinte relação entre as coordenadas, ( x 0 , y0 , z0 ), em relação ao sistema S e ( x, y, z), em relação ao sistema R  0       x 1 0 0 x x  y0  =  0 cos θ sen θ   y  =  (cos θ )y + (sen θ )z  . 0 z 0 −sen θ cos θ z −(sen θ )y + (cos θ )z (b) Mostre que o cone circular de equação 2 2 x 0 + y0 = z0 2 no sistema S , tem equação x2 + (cos 2θ )y2 + (2 sen 2θ )yz − (cos 2θ )z2 = 0 no sistema R. (c) Mostre que a interseção do cone com o plano z = 1 é a cônica no plano de equação x2 + (cos 2θ )y2 + (2 sen 2θ )y = cos 2θ (d) Mostre que se θ = ± π4 , então a cônica é a parábola no plano de equação x2 ± 2y = 0. (e) Mostre que se θ 6= ± π4 , então a cônica no plano tem equação x2 (y + tan 2θ )2 + = 1, sec 2θ sec2 2θ que é uma elipse se |θ | < π 4 e uma hipérbole se Um Curso de Geometria Analı́tica e Álgebra Linear π 4 < |θ | ≤ π 2. Julho 2010 6.3 Aplicação: Identificação de Cônicas 477 z’ z’ y’ U3 U3 U2 U1 x’= Figura 6.30. Elipse interseção do cone circular com um plano Julho 2010 U2 y’ U1 x’= Figura 6.31. Parábola interseção do cone circular com um plano Reginaldo J. Santos 478 Diagonalização y’= z’ x’= Figura 6.32. Hipérbole interseção do cone circular com um plano Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 6.3 Aplicação: Identificação de Cônicas 479 6.3.19. Demonstre o Teorema 6.13 na página 462. 6.3.20. Seja C o conjunto dos pontos do plano que satisfazem a equação ax2 + bxy + cy2 + dx + ey + f = 0, com a, b, c, d, e, f ∈ R, sendo a, b e c não simultaneamente nulos. Consideremos a matriz   a b/2 A= . b/2 c Sejam λ e µ os autovalores de A. (a) Mostre que λµ = ac − b2 /4. (b) Mostre que se b2 − 4ac < 0, então C é uma elipse, um ponto ou o conjunto vazio. (c) Mostre que se b2 − 4ac > 0, então C é uma hipérbole, ou um par de retas concorrentes. (d) Mostre que se b2 − 4ac = 0, então C é uma parábola, um par de retas paralelas, uma reta ou o conjunto vazio. Julho 2010 Reginaldo J. Santos 480 Diagonalização Teste do Capı́tulo 1. (a) Encontre matrizes P e D tais que D = Pt AP, em que  A= 8 −8 −8 8  . (b) Identificar a cônica, achar a equação no último sistema de coordenadas utilizado e fazer um esboço do gráfico. √ √ 8x2 + 8y2 − 16xy + 33 2x − 31 2y + 70 = 0 2. Verifique quais das matrizes seguintes são diagonalizáveis:   a b (a) 3b c  3. (a) Seja D = 1 0 0 −1   (b) a b −b a  . Calcule D10 . (b) Sabendo-se que A = P−1 DP, calcule A10 . 4. Diga se é verdadeiro ou falso cada item abaixo, justificando. (a) Se A é uma matriz 2 × 2 com somente 1 autovalor, então A não é diagonalizável; Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 6.3 Aplicação: Identificação de Cônicas 481 (b) Se V e W são autovetores associados a um autovalor λ, então W − projV W é também um autovetor associado a λ. (c) Se A não é singular, então 0 não é autovalor de A; (d) As matrizes A e A2 possuem os mesmos autovetores; Julho 2010 Reginaldo J. Santos Respostas dos Exercı́cios 1.1. Matrizes (página 17) 1.1.1. >> A=[2,0;6,7]; B=[0,4;2,-8]; C=[-6,9,-7;7,-3,-2]; >> D=[-6,4,0;1,1,4;-6,0,6]; E=[6,9,-9;-1,0,-4;-6,0,-1]; >> A*B-B*A -24 -20 58 24 >> 2*C-D ??? Error using ==> - Matrix dimensions must agree. >> 2*D-3*E -30 -19 27 5 2 20 6 0 15 >> D*(D-E) 80 34 -22 -10 -4 45 72 30 -12 No item (c) foram usadas as propriedades (l) e (n) do Teorema 1.1 na página 9 e no item (d) foi usada a propriedade (i). 1.1.2. A( B + C ) = AB + AC, Bt At = ( AB)t , C t At = ( AC )t , ( ABA)C = ( AB)( AC ). 1.1.3. (a) >> A=[-3,2,1;1,2,-1];B=[2,-1;2,0;0,3]; >> C=[-2,1,-1;0,1,1;-1,0,1]; 482 Capı́tulo 1. Matrizes e Sistemas Lineares 483 >> >> >> >> syms d1 d2 d3 D=diag([d1,d2,d3]); E1=[1;0;0];E2=[0;1;0];E3=[0;0;1]; B*A -7 2 3 -6 4 2 3 6 -3 >> A*B -2 6 6 -4 (b) >> [A*E1-A(:,1),A*E2-A(:,2),A*E3-A(:,3)] 0 0 0 0 0 0 >> E1.’*B-B(1,:) 0 0 >> E2.’*B-B(2,:) 0 0 >> E3.’*B-B(3,:) 0 0 (c) >> C1=C(:,1);C2=C(:,2);C3=C(:,3); >> C*D-[d1*C1,d2*C2,d3*C3] [ 0, 0, 0] [ 0, 0, 0] [ 0, 0, 0] (d) >> C1=C(1,:);C2=C(2,:);C3=C(3,:); >> D*C-[d1*C1;d2*C2;d3*C3] [ 0, 0, 0] [ 0, 0, 0] [ 0, 0, 0] (e) >> B1=B(:,1);B2=B(:,2); >> A*B-A*[B1,B2] 0 0 0 0 (f) >> A1=A(1,:);A2=A(2,:); >> A*B-[A1;A2]*B 0 0 0 0 1.1.4. >> syms x y z >> A=[1,-3,0;0,4,-2]; X=[x;y;z]; >> A*X [ x-3*y] Julho 2010 Reginaldo J. Santos 484 Respostas dos Exercı́cios [ 4*y-2*z] >> x*A(:,1)+y*A(:,2)+z*A(:,3) [ x-3*y] [ 4*y-2*z] 1.1.5. >> syms x >> A=[x,4,-2]; B=[2,-3,5]; >> solve(A*B.’) 11 1.1.6. >> syms y >> A=[1,1/y;y,1]; >> A^2-2*A [ 0, 0] [ 0, 0] 1.1.7. >> syms x y z w >> X=[x,y;z,w]; M=[0,1;-1,0]; >> X*M-M*X [ -y-z, x-w] [ x-w, z+y] >> syms a b c d >> A=[x,y;-y,x]; B=[a,b;-b,a]; >> A*B-B*A [ 0, 0] [ 0, 0]    x 0 a 1.1.8. (a) Sejam A = 0 y e B = c b d  . >> syms x y z w >> syms a b c d >> A=[x,0;0,y];B=[a,b;c,d]; >> A*B [ x*a, x*b] [ y*c, y*d] >> B*A [ x*a, b*y] [ c*x, y*d] Como yb = xb, para todo b, em particular para b = 1, obtemos que y = x. Assim, a matriz A que além de ser diagonal tem os elementos da diagonal iguais.     x y a b (b) Sejam A = e B = z w c d . Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Capı́tulo 1. Matrizes e Sistemas Lineares 485 >> A=[x,y;z,w];B=[a,b;c,d]; >> A*B [ x*a+y*c, x*b+y*d] [ z*a+w*c, z*b+w*d] >> B*A [ x*a+z*b, a*y+b*w] [ c*x+d*z, y*c+w*d] Comparando os elementos de posição 1,1 obtemos que cy = bz, para todos os valores de b e c. Em particular para b = 0 e c = 1, obtemos que y = 0 e para b = 1 e c = 0, obtemos que z = 0. Ou seja, a matriz A tem que ser diagonal. Assim, pelo item anterior temos que a matriz A tem que ser diagonal com os elementos da diagonal iguais. 1.1.9. >> A=[0,1,0;0,0,1;0,0,0]; >> A^2,A^3 ans=0 0 1 0 0 0 0 0 0 ans =0 0 0 0 0 0 0 0 0 1.1.10. (a) >> A=[1,1/2;0,1/3] A = 1.0000 0.5000 0 0.3333 >> A^2,A^3,A^4,A^5 ans = 1.0000 0.6667 0 0.1111 ans = 1.0000 0.7222 0 0.0370 ans = 1.0000 0.7407 0 0.0123 ans = 1.0000 0.7469 0 0.0041 >> A^6,A^7,A^8,A^9 ans = 1.0000 0.7490 0 0.0014 ans = 1.0000 0.7497 0 0.0005 ans = Julho 2010 Reginaldo J. Santos 486 Respostas dos Exercı́cios 1.0000 0 ans = 1.0000 0 0.7499 0.0002 0.7500 0.0001  A sequência parece estar convergindo para a matriz 1 0 0.75 0  0 0 0 0 . (b) >> A=[1/2,1/3;0,-1/5] A = 0.5000 0.3333 0 -0.2000 >> A^2,A^3,A^4,A^5 ans = 0.2500 0.1000 0 0.0400 ans = 0.1250 0.0633 0 -0.0080 ans = 0.0625 0.0290 0 0.0016 ans = 0.0312 0.0150 0 -0.0003 >> A^6,A^7,A^8,A^9 ans = 0.0156 0.0074 0 0.0001 ans = 0.0078 0.0037 0 0.0000 ans = 0.0039 0.0019 0 0.0000 ans = 0.0020 0.0009 0 0.0000  A sequência parece estar convergindo para a matriz nula 1.1.11.  . (a) >> A=[0,0,1;1,0,0;0,1,0]; >> A=sym(A) [ 0, 0, 1] Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Capı́tulo 1. Matrizes e Sistemas Lineares [ 1, 0, [ 0, 1, >> A^2 [ 0, 1, [ 0, 0, [ 1, 0, >> A^3 [ 1, 0, [ 0, 1, [ 0, 0, 487 0] 0] 0] 1] 0] 0] 0] 1] Para k = 3, Ak = I3 . (b) >> A=[0,1,0,0;-1,0,0,0;0,0,0,1;... 0,0,1,0]; >> A=sym(A) [ 0, 1, 0, 0] [ -1, 0, 0, 0] [ 0, 0, 0, 1] [ 0, 0, 1, 0] >> A^2 [ -1, 0, 0, 0] [ 0, -1, 0, 0] [ 0, 0, 1, 0] [ 0, 0, 0, 1] >> A^3 [ 0, -1, 0, 0] [ 1, 0, 0, 0] [ 0, 0, 0, 1] [ 0, 0, 1, 0] >> A^4 [ 1, 0, 0, 0] [ 0, 1, 0, 0] [ 0, 0, 1, 0] [ 0, 0, 0, 1] Para k = 4, Ak = I4 . (c) >> A=[0,1,0,0;0,0,1,0;0,0,0,1;0,0,0,0]; >> A=sym(A) [ 0, 1, 0, 0] [ 0, 0, 1, 0] [ 0, 0, 0, 1] [ 0, 0, 0, 0] >> A^2 [ 0, 0, 1, 0] Julho 2010 Reginaldo J. Santos 488 Respostas dos Exercı́cios [ 0, 0, [ 0, 0, [ 0, 0, >> A^3 [ 0, 0, [ 0, 0, [ 0, 0, [ 0, 0, >> A^4 [ 0, 0, [ 0, 0, [ 0, 0, [ 0, 0, 0, 1] 0, 0] 0, 0] 0, 0, 0, 0, 1] 0] 0] 0] 0, 0, 0, 0, 0] 0] 0] 0] Para k = 4, Ak = 0̄. 1.1.12. Concluı́mos que é muito raro encontrar matrizes cujo produto comute. 1.1.13. Concluı́mos que matrizes diagonais em geral comutam. Pode-se mostrar que elas sempre comutam (Exercı́cio 28 na página 27). 1.1.14. Se a matriz A for diagonal, então o produto comuta, se os elementos da diagonal de A são iguais. (ver Exercı́cio 17 na página 24). A probabilidade de um tal par de matrizes comute é aproximadamente igual à probabilidade de que a primeira matriz tenha os elementos da sua diagonal iguais, ou seja, 11/113 = 1/112 ≈ 1%. 1.2. Sistemas Lineares (página 57) 1.2.1. As matrizes que estão na forma reduzida escalonada são A e C.    8 + 7α x  y   2 − 3α  (a) X =  z  =  −5 − α  , ∀α ∈ R. α w  1.2.2.   x1 −2 − 3α + 6β β  x2      7 − 4α (b) X =  x3  =  x4 8 − 5α x5 α     , ∀α, β ∈ R.      x 6  y   3  (c) X =  z  =  2 − α  , ∀α ∈ R. w α Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Capı́tulo 1. Matrizes e Sistemas Lineares   x1 −3 + 8α − 7β x β  2     5 − 6α (d) X =   x3  =  x4 9 − 3α x5 α  1.2.3. 489    , ∀α, β ∈ R.  (a) >> A=[1,1,2,8;-1,-2,3,1;3,-7,4,10]; >> escalona(A) eliminaç~ ao 1: 1*linha 1 + linha 2 ==> linha 2 -3*linha 1 + linha 3 ==> linha 3 [ 1, 1, 2, 8] [ 0, -1, 5, 9] [ 0, -10, -2, -14] eliminaç~ ao 2: -1*linha 2 ==> linha 2 [ 1, 1, 2, 8] [ 0, 1, -5, -9] [ 0, -10, -2, -14] -1*linha 2 + linha 1 ==> linha 1 10*linha 2 + linha 3 ==> linha 3 [ 1, 0, 7, 17] [ 0, 1, -5, -9] [ 0, 0, -52, -104] eliminaç~ ao 3: -1/52*linha 3 ==> linha 3 [ 1, 0, 7, 17] [ 0, 1, -5, -9] [ 0, 0, 1, 2] -7*linha 3 + linha 1 ==> linha 1 5*linha 3 + linha 2 ==> linha 2 [ 1, 0, 0, 3] [ 0, 1, 0, 1] [ 0, 0, 1, 2] " # " # x1 3 x2 X= = 1 . x3 2 (b) >> A=[2,2,2,0;-2,5,2,1;8,1,4,-1]; >> escalona(A) eliminaç~ ao 1: 1/2*linha 1 ==> linha 1 [ 1, 1, 1, 0] [ -2, 5, 2, 1] [ 8, 1, 4, -1] Julho 2010 Reginaldo J. Santos 490 Respostas dos Exercı́cios 2*linha 1 + linha 2 ==> linha 2 -8*linha 1 + linha 3 ==> linha 3 [ 1, 1, 1, 0] [ 0, 7, 4, 1] [ 0, -7, -4, -1] eliminaç~ ao 2: 1/7*linha 2 ==> linha 2 [ 1, 1, 1, 0] [ 0, 1, 4/7, 1/7] [ 0, -7, -4, -1] -1*linha 2 + linha 1 ==> linha 1 7*linha 2 + linha 3 ==> linha 3 [ 1, 0, 3/7, -1/7] [ 0, 1, 4/7, 1/7] [ 0, 0, 0, 0]   " # − 17 − 37 α x1 x2 X= =  17 − 47 α  , ∀α ∈ R. x3 α (c) >> A=[0,-2,3,1;3,6,-3,-2;6,6,3,5] >> escalona(A) eliminaç~ ao 1: linha 2 <==> linha 1 [ 3, 6, -3, -2] [ 0, -2, 3, 1] [ 6, 6, 3, 5] 1/3*linha 1 ==> linha 1 [ 1, 2, -1, -2/3] [ 0, -2, 3, 1] [ 6, 6, 3, 5] -6*linha 1 + linha 3 ==> linha 3 [ 1, 2, -1, -2/3] [ 0, -2, 3, 1] [ 0, -6, 9, 9] eliminaç~ ao 2: -1/2*linha 2 ==> linha 2 [ 1, 2, -1, -2/3] [ 0, 1, -3/2, -1/2] [ 0, -6, 9, 9] -2*linha 2 + linha 1 ==> linha 1 6*linha 2 + linha 3 ==> linha 3 [ 1, 0, 2, 1/3] [ 0, 1, -3/2, -1/2] [ 0, 0, 0, 6] Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Capı́tulo 1. Matrizes e Sistemas Lineares 491 O sistema não tem solução! 1.2.4. >> A=[1,-2,1;2,-5,1;3,-7,2]; >> B1=[1;-2;-1];B2=[2;-1;2]; >> escalona([A,B1,B2]) eliminaç~ ao 1: -2*linha 1 + linha 2 ==> linha 2 -3*linha 1 + linha 3 ==> linha 3 [ 1, -2, 1, 1, 2] [ 0, -1, -1, -4, -5] [ 0, -1, -1, -4, -4] eliminaç~ ao 2: -1*linha 2 ==> linha 2 [ 1, -2, 1, 1, 2] [ 0, 1, 1, 4, 5] [ 0, -1, -1, -4, -4] 2*linha 2 + linha 1 ==> linha 1 1*linha 2 + linha 3 ==> linha 3 [ 1, 0, 3, 9, 12] [ 0, 1, 1, 4, 5] [ 0, 0, 0, 0, 1] " # " # x1 9 − 3α x2 4−α (a) X = = , ∀ α ∈ R. x3 α (b) O sistema não tem solução! 1.2.5. (a) >> A=[1,0,5;1,1,1;0,1,-4]; >> B=A+4*eye(3); >> escalona([B,zeros(3,1)]) eliminaç~ ao 1: linha 2 <==> linha 1 [ 1, 5, 1, 0] [ 5, 0, 5, 0] [ 0, 1, 0, 0] (-5)*linha 1 + linha 2 ==> linha 2 [ 1, 5, 1, 0] [ 0, -25, 0, 0] [ 0, 1, 0, 0] eliminaç~ ao 2: linha 3 <==> linha 2 [ 1, 5, 1, 0] [ 0, 1, 0, 0] [ 0, -25, 0, 0] (-5)*linha 2 + linha 1 ==> linha 1 Julho 2010 Reginaldo J. Santos 492 Respostas dos Exercı́cios (25)*linha 2 + linha 3 ==> linha 3 [ 1, 0, 1, 0] [ 0, 1, 0, 0] [ 0, 0, 0, 0] " # " # x −α y 0 , ∀ α ∈ R. X= = z α (b) >> B=A-2*eye(3); >> escalona([B,zeros(3,1)]) eliminaç~ ao 1: (-1)*linha 1 ==> linha 1 [ 1, 0, -5, 0] [ 1, -1, 1, 0] [ 0, 1, -6, 0] (-1)*linha 1 + linha 2 ==> linha 2 [ 1, 0, -5, 0] [ 0, -1, 6, 0] [ 0, 1, -6, 0] eliminaç~ ao 2: (-1)*linha 2 ==> linha 2 [ 1, 0, -5, 0] [ 0, 1, -6, 0] [ 0, 1, -6, 0] (-1)*linha 2 + linha 3 ==> linha 3 [ 1, 0, -5, 0] [ 0, 1, -6, 0] [ 0, 0, 0, 0] " # " # x 5α y X= = 6α , ∀α ∈ R. z α 1.2.6. (a) >> syms a >> A=[1,2,-3,4;3,-1,5,2;4,1,a^2-14,a+2]; >> escalona(A) eliminaç~ ao 1: -3*linha 1 + linha 2 ==> linha 2 -4*linha 1 + linha 3 ==> linha 3 [ 1, 2, -3, 4] [ 0, -7, 14, -10] [ 0, -7, a^2-2, a-14] eliminaç~ ao 2: -1/7*linha 2 ==> linha 2 [ 1, 2, -3, 4] Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Capı́tulo 1. Matrizes e Sistemas Lineares 493 [ 0, 1, -2, 10/7] [ 0, -7, a^2-2, a-14] -2*linha 2 + linha 1 ==> linha 1 7*linha 2 + linha 3 ==> linha 3 " # 1 0 1 8/7 0 1 −2 10/7 0 0 a2 − 16 a − 4 i. Se a2 − 16 = 0 e a − 4 = 0, então o sistema tem infinitas soluções. Neste caso, a = 4; ii. Se a2 − 16 = 0 e a − 4 6= 0, então o sistema não tem solução. Neste caso, a = −4; iii. Se a2 − 16 6= 0, então o sistema tem solução única. Neste caso, a 6= ±4; (b) >> A=[1,1,1,2;2,3,2,5;2,3,a^2-1,a+1]; >> escalona(A) eliminaç~ ao 1: -2*linha 1 + linha 2 ==> linha 2 -2*linha 1 + linha 3 ==> linha 3 [ 1, 1, 1, 2] [ 0, 1, 0, 1] [ 0, 1, a^2-3, a-3] eliminaç~ ao 2: -1*linha 2 + linha 1 ==> linha 1 -1*linha 2 + linha 3 ==> linha 3 " # 1 0 1 1 0 1 0 1 0 0 a2 − 3 a − 4 i. Se a2 − 3 = 0 e a − 4 = 0, então o sistema tem infinitas soluções. Este caso não pode ocorrer; √ ii. Se a2 − 3 = 0 e a − 4 6= 0, então o sistema não tem solução. Neste caso, a = ± 3; √ iii. Se a2 − 3 6= 0, então o sistema tem solução única. Neste caso, a 6= ± 3; 1.2.7. " Julho 2010 x y z # "X gramas de A/kg 2 1 gramas de B/kg 3 preço/kg " # kg de X 1900 2400 kg de Y 2900 kg de Z Y 1 3 2 Z# 3 5 4 gramas de A gramas de B arrecadação Reginaldo J. Santos 494 Respostas dos Exercı́cios " 2 1 3 1 3 2 3 5 4 #" x y z # " = 1900 2400 2900 # >> A=[2,1,3,1900;1,3,5,2400;3,2,4,2900]; >> escalona(A) eliminaç~ ao 1: linha 2 <==> linha 1 [ 1, 3, 5, 2400] [ 2, 1, 3, 1900] [ 3, 2, 4, 2900] (-2)*linha 1 + linha 2 ==> linha 2 (-3)*linha 1 + linha 3 ==> linha 3 [ 1, 3, 5, 2400] [ 0, -5, -7, -2900] [ 0, -7, -11, -4300] eliminaç~ ao 2: (-1/5)*linha 2 ==> linha 2 [ 1, 3, 5, 2400] [ 0, 1, 7/5, 580] [ 0, -7, -11, -4300] (-3)*linha 2 + linha 1 ==> linha 1 (7)*linha 2 + linha 3 ==> linha 3 [ 1, 0, 4/5, 660] [ 0, 1, 7/5, 580] [ 0, 0, -6/5, -240] eliminaç~ ao 3: (-5/6)*linha 3 ==> linha 3 [ 1, 0, 4/5, 660] [ 0, 1, 7/5, 580] [ 0, 0, 1, 200] (-4/5)*linha 3 + linha 1 ==> linha 1 (-7/5)*linha 3 + linha 2 ==> linha 2 [ 1, 0, 0, 500] [ 0, 1, 0, 300] [ 0, 0, 1, 200] Foram vendidos 500 kg do produto X, 300 kg do produto Y e 200 kg do produto Z. 1.2.8. Substituindo os pontos na função obtemos:  d = 10   a + b + c + d = 7 9b + 3c + d = −11 .   27a + 64a + 16b + 4c + d = −14 Substituindo d = 10 nas outras equações e escalonando a matriz aumentada do sistema correspondente: >> escalona([1,1,1,-3;27,9,3,-21;64,16,4,-24]) Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Capı́tulo 1. Matrizes e Sistemas Lineares 495 eliminaç~ ao 1: -27*linha 1 + linha 2 ==> linha 2 -64*linha 1 + linha 3 ==> linha 3 [ 1, 1, 1, -3] [ 0, -18, -24, 60] [ 0, -48, -60, 168] eliminaç~ ao 2: -1/18*linha 2 ==> linha 2 [ 1, 1, 1, -3] [ 0, 1, 4/3, -10/3] [ 0, -48, -60, 168] -1*linha 2 + linha 1 ==> linha 1 48*linha 2 + linha 3 ==> linha 3 [ 1, 0, -1/3, 1/3] [ 0, 1, 4/3, -10/3] [ 0, 0, 4, 8] eliminaç~ ao 3: 1/4*linha 3 ==> linha 3 [ 1, 0, -1/3, 1/3] [ 0, 1, 4/3, -10/3] [ 0, 0, 1, 2] 1/3*linha 3 + linha 1 ==> linha 1 -4/3*linha 3 + linha 2 ==> linha 2 [ 1, 0, 0, 1] [ 0, 1, 0, -6] [ 0, 0, 1, 2] Assim, os coeficientes são a = 1, b = −6, c = 2 e d = 10 e o polinômio p( x ) = x3 − 6x2 + 2x + 10. 1.2.9. Substituindo os pontos na equação do cı́rculo obtemos:   −2a + 7b + c = −[(−2)2 + 72 ] = −53 −4a + 5b + c = −[(−4)2 + 52 ] = −41 .  4a − 3b + c = −[42 + 32 ] = −25 >> A=[-2,7,1,-53;-4,5,1,-41;4,-3,1,-25]; >> escalona(A) eliminaç~ ao 1: -1/2*linha 1 ==> linha 1 [ 1, -7/2, -1/2, 53/2] [ -4, 5, 1, -41] [ 4, -3, 1, -25] 4*linha 1 + linha 2 ==> linha 2 -4*linha 1 + linha 3 ==> linha 3 [ 1, -7/2, -1/2, 53/2] [ 0, -9, -1, 65] Julho 2010 Reginaldo J. Santos 496 Respostas dos Exercı́cios [ 0, 11, 3, -131] eliminaç~ ao 2: -1/9*linha 2 ==> linha 2 [ 1, -7/2, -1/2, 53/2] [ 0, 1, 1/9, -65/9] [ 0, 11, 3, -131] 7/2*linha 2 + linha 1 ==> linha 1 -11*linha 2 + linha 3 ==> linha 3 [ 1, 0, -1/9, 11/9] [ 0, 1, 1/9, -65/9] [ 0, 0, 16/9, -464/9] eliminaç~ ao 3: 9/16*linha 3 ==> linha 3 [ 1, 0, -1/9, 11/9] [ 0, 1, 1/9, -65/9] [ 0, 0, 1, -29] 1/9*linha 3 + linha 1 ==> linha 1 -1/9*linha 3 + linha 2 ==> linha 2 [ 1, 0, 0, -2] [ 0, 1, 0, -4] [ 0, 0, 1, -29] Os coeficientes são a = −2, b = −4 e c = −29 e a equação do cı́rculo é x2 + y2 − 2x − 4y − 29 = 0. 1.2.10. (a) >> syms b1 b2 b3 >> A=[1,-2,5,b1;4,-5,8,b2;-3,3,-3,b3]; >> escalona(A) eliminaç~ ao 1: -4*linha 1 + linha 2 ==> linha 2 3*linha 1 + linha 3 ==> linha 3 [ 1, -2, 5, b1] [ 0, 3, -12, b2-4*b1] [ 0, -3, 12, b3+3*b1] eliminaç~ ao 2: 1/3*linha 2 ==> linha 2 [ 1, -2, 5, b1] [ 0, 1, -4, 1/3*b2-4/3*b1] [ 0, -3, 12, b3+3*b1] 2*linha 2 + linha 1 ==> linha 1 3*linha 2 + linha 3 ==> linha 3 [ 1, 0, -3, -5/3*b1+2/3*b2] [ 0, 1, -4, 1/3*b2-4/3*b1] [ 0, 0, 0, b3-b1+b2] O sistema é consistente se, e somente se, b3 − b1 + b2 = 0. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Capı́tulo 1. Matrizes e Sistemas Lineares 497 (b) >> syms b1 b2 b3 >> A=[1,-2,-1,b1;-4,5,2,b2;-4,7,4,b3]; >> escalona(A) eliminaç~ ao 1: 4*linha 1 + linha 2 ==> linha 2 4*linha 1 + linha 3 ==> linha 3 [ 1, -2, -1, b1] [ 0, -3, -2, b2+4*b1] [ 0, -1, 0, b3+4*b1] eliminaç~ ao 2: linha 3 <==> linha 2 [ 1, -2, -1, b1] [ 0, -1, 0, b3+4*b1] [ 0, -3, -2, b2+4*b1] -1*linha 2 ==> linha 2 [ 1, -2, -1, b1] [ 0, 1, 0, -b3-4*b1] [ 0, -3, -2, b2+4*b1] 2*linha 2 + linha 1 ==> linha 1 3*linha 2 + linha 3 ==> linha 3 [ 1, 0, -1, -7*b1-2*b3] [ 0, 1, 0, -b3-4*b1] [ 0, 0, -2, b2-8*b1-3*b3] O sistema é consistente para todos os valores reais de b1 , b2 e b3 . 1.2.11. >> A=[0,1,7,8;1,3,3,8;-2,-5,1,-8]; >> escalona(A) eliminaç~ ao 1: linha 2 <==> linha 1 [ 1, 3, 3, 8] [ 0, 1, 7, 8] [ -2, -5, 1, -8] 2*linha 1 + linha 3 ==> linha 3 [ 1, 3, 3, 8] [ 0, 1, 7, 8] [ 0, 1, 7, 8] eliminaç~ ao 2: -3*linha 2 + linha 1 ==> linha 1 -1*linha 2 + linha 3 ==> linha 3 [ 1, 0, -18, -16] [ 0, 1, 7, 8] [ 0, 0, 0, 0] >> I=eye(3);E=oe(-1,2,3,I),... F=oe(-3,2,1,I),G=oe(2,1,3,I),H=oe(I,1,2) E =[ 1, 0, 0]F =[ 1, -3, 0] Julho 2010 Reginaldo J. Santos 498 Respostas dos Exercı́cios [ 0, 1, 0] [ 0, 1, [ 0, -1, 1] [ 0, 0, G =[ 1, 0, 0]H =[ 0, 1, 0] [ 0, 1, 0] [ 1, 0, 0] [ 2, 0, 1] [ 0, 0, 1] >> E*F*G*H*A [ 1, 0, -18, -16] [ 0, 1, 7, 8] [ 0, 0, 0, 0] 1.2.12. 0] 1] (a) >> A=[1,2,0,-3,1,0,2;1,2,1,-3,1,2,3;... 1,2,0,-3,2,1,4;3,6,1,-9,4,3,9] >> escalona(A) [ 1, 2, 0, -3, 0, -1, 0] [ 0, 0, 1, 0, 0, 2, 1] [ 0, 0, 0, 0, 1, 1, 2] [ 0, 0, 0, 0, 0, 0, 0] ( x1 + 2x2 − 3x4 − x6 = 0 x3 + 2x6 = 1 x5 + x6 = 2 X = [α + 3β − 2γ γ 1 − 2α β 2 − α α]t , ∀α, β, γ ∈ R (b) >> A=[1,3,-2,0,2,0,0;2,6,-5,-2,4,-3,-1;... 0,0,5,10,0,15,5;2,6,0,8,4,18,6] >> escalona(A) [ 1, 3, 0, 4, 2, 0, 0] [ 0, 0, 1, 2, 0, 0, 0] [ 0, 0, 0, 0, 0, 1, 1/3] [ 0, 0, 0, 0, 0, 0, 0] ( x1 + 3x2 + 4x4 + 2x5 =0 x3 + 2x4 =0 x6 = 31 X = [−2α − 4β − 3γ γ − 2β β α 1/3]t , ∀α, β, γ ∈ R 1.2.13. >> syms a, B=[4,3,1,6]’; >> A=[1,1,1,1;1,3,-2,a; 2,2*a-2,-a-2,3*a-1;3,a+2,-3,2*a+1] >> escalona([A,B]) [ 1, 0, 0, 0, (4*a-11)/(a-5)] [ 0, 1, 0, 0, -4/(a-5)] [ 0, 0, 1, 0, -4/(a-5)] [ 0, 0, 0, 1, -1/(a-5)] Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Capı́tulo 1. Matrizes e Sistemas Lineares 499 >> solve(-3/2*a+5/4+1/4*a^2,a) ans = [ 1][ 5] 11 Se a 6= 1 e a 6= 5, então X = [ 4aa− −5 −4 −4 −1 t a −5 a −5 a −5 ] . >> C=subs(A,a,1) >> escalona([C,B]) [ 1, 0, 0, 1, 2] [ 0, 1, 0, 0, 1] [ 0, 0, 1, 0, 1] [ 0, 0, 0, 0, 0] Se a = 1, então X = [2 − α, 1, 1, α]t ∀α ∈ R. >> D=subs(A,a,5) >> escalona([D,B]) [ 1, 0, 5/2, [ 0, 1, -3/2, [ 0, 0, 0, [ 0, 0, 0, -1, 2, 0, 0, 0] 0] 1] 0] Se a = 5, então o sistema não tem solução. 1.2.14. (a) >> A=[1,2,3,1,8;1,3,0,1,7;1,0,2,1,3]; >> escalona(A) [ 1, 0, 0, 1, 1] [ 0, 1, 0, 0, 2] [ 0, 0, 1, 0, 1] {(1 − α, 2, 1, α) | α ∈ R} (b) >> >> [ [ [ A=[1,1,3,-3,0;0,2,1,-3,3;1,0,2,-1,-1]; escalona(A) 1, 0, 0, 1, 1] 0, 1, 0, -1, 2] 0, 0, 1, -1, -1] {(1 − α, 2 + α, −1 + α, α) | α ∈ R} (c) >> A=[1,2,3,0;1,1,1,0;1,1,2,0;1,3,3,0]; >> escalona(A) [ 1, 0, 0, 0] [ 0, 1, 0, 0] [ 0, 0, 1, 0] Julho 2010 Reginaldo J. Santos 500 Respostas dos Exercı́cios [ 0, 0, 0, 0] {(0, 0, 0)} 1.2.15. >> P=randi(4,2) P = 5 4 -3 3 1 0 0 -5 >> A=matvand(P(:,1),3),B=P(:,2) A =125 25 5 1 -27 9 -3 1 1 1 1 1 0 0 0 1 B = 4 3 0 -5 >> R=escalona([A,B]) R = [ 1, 0, 0, 0, -163/480] [ 0, 1, 0, 0, 99/80] [ 0, 0, 1, 0, 1969/480] [ 0, 0, 0, 1, -5] >> p=poly2sym(R(:,5),x) p = -163/480*x^3+99/80*x^2+1969/480*x-5 >> clf,po(P),syms x,plotf1(p,[-5,5]) >> eixos Pode não ser possı́vel encontrar o polinômio, se mais de um ponto tiver a mesma abscissa xi . Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Capı́tulo 1. Matrizes e Sistemas Lineares 501 50 y 40 30 20 10 0 x −10 −5 −4 −3 −2 −1 0 1 2 3 4 5 Observação. A sua resposta pode ser diferente da que está aqui. 1.2.16. >> P=randi(5,2) P = 3 2 -1 -3 1 -1 3 4 4 4 >> A=matvand(P,2) Julho 2010 Reginaldo J. Santos 502 Respostas dos Exercı́cios A = 9 6 4 3 2 1 3 9 -1 -3 1 -1 1 1 -1 9 12 16 3 4 16 16 16 4 4 >> R=escalona([A,zeros(5,1)]) R = [1, 0, 0, 0, [0, 1, 0, 0, [0, 0, 1, 0, [0, 0, 0, 1, [0, 0, 0, 0, 1 1 1 1 1 0, -35/8, 0, 45/8, 0, -2, 0, 65/8, 1, -39/8, 0] 0] 0] 0] 0] >> p=poly2sym2([-R(:,6);1],x,y) p =35/8*x^2-45/8*x*y-65/8*x+1+2*y^2+39/8*y >> clf,po(P),syms x y, >> plotci(p,[-5,5],[-5,5]) >> eixos Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Capı́tulo 1. Matrizes e Sistemas Lineares 503 5 y 4 3 2 1 0 x −1 −2 −3 −2 −1 0 1 2 3 4 5 Observação. A sua resposta pode ser diferente da que está aqui. 1.2.17. (a) A inversa da operação elementar de trocar duas linhas é ela mesma. (b) A inversa da operação elementar de multiplicar uma linha por um escalar, α 6= 0, é a operação de multiplicar a mesma linha pelo escalar 1/α. (c) A inversa de somar à linha k, α vezes a linha l, é somar à linha k, −α vezes a linha l. Julho 2010 Reginaldo J. Santos 504 1.2.18. Respostas dos Exercı́cios (a) Basta multiplicar qualquer linha da matriz pelo escalar 1. (b) Pelo exercı́cio anterior cada operação elementar, e, tem uma operação elementar inversa, e−1 , do mesmo tipo que desfaz o que a operação e fez. Se aplicando as operações elementares e1 , . . . , ek na matriz A chegamos na matriz B, então aplicando-se as operações elementares ek−1 , . . . , e1−1 na matriz B chegamos na matriz A. (c) Se aplicando as operações elementares e1 , . . . , ek na matriz A chegamos na matriz B e aplicando as operações elementares ek+1 , . . . , el na matriz B chegamos na matriz C, então aplicando-se as operações elementares e1 , . . . , el na matriz A chegamos na matriz C. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Capı́tulo 2. Inversão de Matrizes e Determinantes 505 2.1. Matriz Inversa (página 94) 2.1.1. A matriz é singular, pois o sistema homogêneo tem solução não trivial (Teorema 2.8 na página 84). 2.1.2. (a) >> A=[1,2,3;1,1,2;0,1,2]; >> B=[A,eye(3)]; >> escalona(B) [1, 0, 0, 0, 1,-1] [0, 1, 0, 2,-2,-1] [0, 0, 1,-1, 1, 1] (b) [1, 0, 0, 3, 2,-4] [0, 1, 0,-1, 0, 1] [0, 0, 1, 0,-1, 1] (c) [1, [0, [0, [0, 0, 1, 0, 0, (d) [1, 0, [0, 1, [0, 0, 0, 0, 1, 0, 0, 7/3,-1/3,-1/3,-2/3] 0, 4/9,-1/9,-4/9, 1/9] 0,-1/9,-2/9, 1/9, 2/9] 1,-5/3, 2/3, 2/3, 1/3] 0, 1, -1, 0] 0,3/2,1/2,-3/2] 1, -1, 0, 1] (e) [ 1 0 1 1 0 -2 ] [ 0 1 1 0 0 1 ] [ 0 0 0 -1 1 1 ] Continua ? (s/n) n (f) [1, 0, 0,1/4, 5/4,-3/4, 1/2, [0, 1, 0,1/2,-1/2, 1/2, 0, [0, 0, 1,1/4, 1/4, 1/4,-1/2, [0, 0, 0, 0, -2, -1, -2, Continua ? (s/n) n 0] 0] 0] 1] 2.1.3. >> syms a >> A=[1,1,0;1,0,0;1,2,a]; >> escalona(A) " # 1 0 0 0 1 0 Continua ? (s/n) n 0 0 a Para valores de a diferentes de zero a matriz A tem inversa. 2.1.4. >> invA=[3,2;1,3]; invB=[2,5;3,-2]; >> invAB=invB*invA invAB = 11 19 7 0 Julho 2010 Reginaldo J. Santos 506 Respostas dos Exercı́cios 2.1.5. >> invA=[2,3;4,1]; B=[5;3]; >> X=invA*B X = 19 23 2.1.6. Ak = = = = PD k P−1   k   −1 1 1 3 0 1 1 k −2 2 −2 2 0 (−1)     k k 1 2 −1 3 (−1) k k 1 −2 3 2(−1) 4 2   1 2(3k + (−1)k ) (−1)k − 3k k k k k 4 4((−1) − 3 ) 2(3 + (−1) ) 2.1.7. >> A=[1,2,3;2,1,2;0,1,2]; >> escalona([A,eye(3)]) eliminaç~ ao 1: (-2)*linha 1 + linha 2 ==> linha 2 [ 1, 2, 3, 1, 0, 0] [ 0, -3, -4, -2, 1, 0] [ 0, 1, 2, 0, 0, 1] eliminaç~ ao 2: linha 3 <==> linha 2 [ 1, 2, 3, 1, 0, 0] [ 0, 1, 2, 0, 0, 1] [ 0, -3, -4, -2, 1, 0] (-2)*linha 2 + linha 1 ==> linha 1 (3)*linha 2 + linha 3 ==> linha 3 [ 1, 0, -1, 1, 0, -2] [ 0, 1, 2, 0, 0, 1] [ 0, 0, 2, -2, 1, 3] eliminaç~ ao 3: (1/2)*linha 3 ==> linha 3 [ 1, 0, -1, 1, 0, -2] [ 0, 1, 2, 0, 0, 1] [ 0, 0, 1, -1, 1/2, 3/2] (1)*linha 3 + linha 1 ==> linha 1 (-2)*linha 3 + linha 2 ==> linha 2 [ 1, 0, 0, 0, 1/2, -1/2] [ 0, 1, 0, 2, -1, -2] [ 0, 0, 1, -1, 1/2, 3/2] Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Capı́tulo 2. Inversão de Matrizes e Determinantes 507 >> I=eye(3);E1=oe(2,1,2,I);E2=oe(I,2,3);... E3=oe(2,2,1,I);E4=oe(-3,2,3,I);... E5=oe(2,3,I);E6=oe(-1,3,1,I);E7=oe(2,3,2,I); >> E1*E2*E3*E4*E5*E6*E7 1 2 3 2 1 2 0 1 2 2.1.8. >> menc=lerarq(’menc1.txt’); key=lerarq(’key.txt’); >> y=char2num(menc); M=char2num(key); >> N=escalona([M,eye(3)]) >> N=N(:,6:10) >> x=N*y; >> num2char(x) ans = Desejo boa sorte a todos que estudam Álgebra Linear ! >> menc=lerarq(’menc2.txt’); >> y=char2num(menc); >> x=N*y; >> num2char(x) ans = Buda tinha este nome por que vivia setado! Deve ser uma matriz com entradas entre 0 e 118 invertı́vel de forma que a sua inversa seja uma matriz com entradas inteiras. 2.2. Determinantes (página 121) 2.2.1. det( A2 ) = 9; det( A3 ) = −27; det( A−1 ) = −1/3; det( At ) = −3. 2.2.2. det( At B−1 ) = det( A)/ det( B) = −2/3. " # a11 a12 a13 + a12 2.2.3. (a) det a21 a22 a23 + a22 = " a31 a32 a33 +# a32 a11 a12 a13 det a21 a22 a23 + " a31 a32 a33 # a11 a12 a12 det a21 a22 a22 = det( A) + 0 = 3 a31 a32 a32 " # a11 + a12 a11 − a12 a13 (b) det a21 + a22 a21 − a22 a23 = " a31 + a32 a31 −#a32 a33 a11 a11 a13 det a21 a21 a23 + a31 a31 a33 Julho 2010 Reginaldo J. Santos 508 Respostas dos Exercı́cios a11 a21 " a31 a12 det a22 " a32 a12 det a22 a32  rt e (a) det rert  1 e2rt det r " det 2.2.4. # − a12 a13 − a22 a23 + − a32 a33# a11 a13 a21 a23 + a31 a33 # − a12 a13 − a22 a23 = −2 det( A) = −6 − a32 a33  tert = rt (1 + rt)e  t 2rt (1 + rt) = e  cos βt sen βt α cos βt − β sen βt α sen βt + β cos βt   cos βt sen βt β det −sen βt cos βt =β (b) det 2.2.5.   = α det cos βt cos βt sen βt sen βt  + (a) >> A=[1,-2,3,1;5,-9,6,3;-1,2,-6,-2;2,8,6,1]; >> detopelp(A) eliminaç~ ao 1: -5*linha 1 + linha 2 ==> linha 2 1*linha 1 + linha 3 ==> linha 3 -2*linha 1 + linha 4 ==> linha 4 [ 1, -2, 3, 1] [ 0, 1, -9, -2] [ 0, 0, -3, -1] [ 0, 12, 0, -1] eliminaç~ ao 2: -12*linha 2 + linha 4 ==> linha 4 [ 1, -2, 3, 1] [ 0, 1, -9, -2] [ 0, 0, -3, -1] [ 0, 0, 108, 23] eliminaç~ ao 3: -1/3*linha 3 ==> linha 3 [ 1, -2, 3, 1] [ 0, 1, -9, -2] [ 0, 0, 1, 1/3] [ 0, 0, 108, 23] det(A) = -3*det(A) -108*linha 3 + linha 4 ==> linha 4 Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Capı́tulo 2. Inversão de Matrizes e Determinantes [ [ [ [ ans 1, -2, 0, 1, 0, 0, 0, 0, = 39 509 3, 1] -9, -2] 1, 1/3] 0, -13] (b) >> A=[2,1,3,1;1,0,1,1;0,2,1,0;0,1,2,3]; >> detopelp(A) eliminaç~ ao 1: linha 2 <==> linha 1 [ 1, 0, 1, 1] [ 2, 1, 3, 1] [ 0, 2, 1, 0] [ 0, 1, 2, 3] det(A) = (-1)*det(A) -2*linha 1 + linha 2 ==> linha 2 [ 1, 0, 1, 1] [ 0, 1, 1, -1] [ 0, 2, 1, 0] [ 0, 1, 2, 3] eliminaç~ ao 2: -2*linha 2 + linha 3 ==> linha 3 -1*linha 2 + linha 4 ==> linha 4 [ 1, 0, 1, 1] [ 0, 1, 1, -1] [ 0, 0, -1, 2] [ 0, 0, 1, 4] eliminaç~ ao 3: -1*linha 3 ==> linha 3 [ 1, 0, 1, 1] [ 0, 1, 1, -1] [ 0, 0, 1, -2] [ 0, 0, 1, 4] det(A) = (-1)*(-1)*det(A) -1*linha 3 + linha 4 ==> linha 4 [ 1, 0, 1, 1] [ 0, 1, 1, -1] [ 0, 0, 1, -2] [ 0, 0, 0, 6] ans = 6 2.2.6. (a) >> A=[0,1,2;0,0,3;0,0,0]; >> p=det(A-x*eye(3)) p =-x^3 >> solve(p) [0][0][0] Julho 2010 Reginaldo J. Santos 510 Respostas dos Exercı́cios (b) p =(1-x)*(3-x)*(-2-x) [ 1][ 3][-2] (c) p =(2-x)*(4-5*x+x^2) [2][4][1] (d) p =-8-2*x+5*x^2-x^3 [ 2][ 4][-1] 2.2.7. (a) >> A=[2,0,0;3,-1,0;0,4,3]; >> B=A-x*eye(3); >> p=det(B) p =(2-x)*(-1-x)*(3-x) >> solve(p) [ 2][-1][ 3] (b) p =(2-x)^2*(1-x) [2][2][1] (c) p =(1-x)*(2-x)*(-1-x)*(3-x) [ 1][ 2][-1][ 3] (d) p =(2-x)^2*(1-x)^2 [2][2][1][1] 2.2.8. (a) >> Bm1=subs(B,x,-1); >> escalona(Bm1) [1, 0, 0] [0, 1, 1] [0, 0, 0] # " 0 W−1 = { −α |α ∈ R}. α >> B2=subs(B,x,2); >> escalona(B2) [1, 0, 1/4] [0, 1, 1/4] [0, 0, 0] " # −α W2 = { −α |α ∈ R}. 4α >> B3=subs(B,x,3); >> escalona(B3) [1, 0, 0] Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Capı́tulo 2. Inversão de Matrizes e Determinantes 511 [0, 1, 0] [0, 0, 0] " # 0 W3 = { 0 |α ∈ R}. α (b) [1, 3, 0] [0, 0, 1] [0, 0, 0] " # −3α α W1 = { | α ∈ R}. 0 [0, 1, 0] [0, 0, 0] [0, 0, 0] " # α W2 = { 0 | α, β ∈ R}. β (c) [1, [0, [0, [0, 1, 0, 0, 0, 0, 1, 0, 0, 0] 0] 1] 0] W−1 = {[ −α [0, [0, [0, [0, 0, 1, 0, 0, 0] 0] 1] 0] W1 = {[ α 0 [1, [0, [0, [0, 1, 0, 0, 0, 0, 1, 0, 0, 0 ]t | α ∈ R}. α 0 0 0 ]t | α ∈ R}. 0, 29/3] 0, 7/3] 1, 3] 0, 0] W2 = {[ −29α −7α −9α 3α ]t | α ∈ R}. [1, 0, -9/4, 0] [0, 1, -3/4, 0] [0, 0, 0, 1] Julho 2010 Reginaldo J. Santos 512 Respostas dos Exercı́cios [0, 0, 0, 0] W3 = {[ 9α (d) [1, [0, [0, [0, 3α 0 ]t | α ∈ R}. 0, -3, 0] 1, 3, 0] 0, 0, 1] 0, 0, 0] −3α W1 = {[ 3α [0, [0, [0, [0, 4α 1, 0, 0, 0, 0, 1, 0, 0, 0] 0] 1] 0] W2 = {[ α 0 0 α 0 ]t | α ∈ R}. 0 ]t | α ∈ R}. 2.2.9. Concluı́mos que é muito raro encontrar matrizes invertı́veis. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Capı́tulo 3. Vetores no Plano e no Espaço 513 3.1. Soma de Vetores e Multiplicação por Escalar (página 157) 3.1.1. >> >> AB >> AC >> OC OA=[0,-2];OB=[1,0]; AB=OB-OA = 1 2 AC=2*AB = 2 4 OC=OA+AC = 2 2 C = (2, 2). −→ 3.1.2. Os pontos P1 = (0, 1) e P2 = (1, 3) são pontos da reta. Assim, o vetor V = P1 P2 = (1, 2) é paralelo a reta. 3.1.3. A inclinação da reta é a = b= 1 2. v2 v1 = 23 . Assim, uma equação da reta tem a forma y = Uma equação para a reta é y = 3 2x + 3 2x + b. Substituindo-se x = 1 e y = 2 obtemos 1 2. 3.1.4. A equação 3X − 2V = 15( X − U ) é equivalente a 3X − 2V = 15X − 15U. Somando-se −15X + 2V obtemos −15X + 3X = 2V − 15U 1 ou −12X = 2V − 15U multiplicando-se por − 12 obtemos X = 54 U − 61 V. 3.1.5. Multiplicando-se a segunda equação por 2 e somando-se a primeira, obtemos 12X = 3U + 2V ou X = 14 U + 16 V. Substituindo-se X na primeira equação obtemos, 23 U + V − 2Y = U ou 2Y = 12 U + V ou Y = 14 U + 21 V. 3.1.6. >> OP=[ 2, 3, -5]; V=[ >> OQ=OP+V OQ = 5 3 -8 Q = (5, 3, −8). 3, 0, -3]; 3.1.7. >> OP=[1,0,3]; OM=[1,2,-1]; >> MP=OP-OM; OPlinha=OM-MP OPlinha = 1 4 -5 P0 = (1, 4, −5). 3.1.8. (a) >> OA=[5,1,-3];OB=[0,3,4];OC=[0,3,-5]; >> AB=OB-OA, AC=OC-OA, AB = -5 2 7 AC = -5 2 -2 −→ −→ Os pontos não são colineares, pois AC 6= λ AB. (b) >> >> AB AC Julho 2010 OA=[-1,1,3];OB=[4,2,-3];OC=[14,4,-15]; AB=OB-OA, AC=OC-OA, = 5 1 -6 = 15 3 -18 Reginaldo J. Santos 514 Respostas dos Exercı́cios −→ −→ Os pontos são colineares, pois AC = 3 AB. 3.1.9. >> OA=[1,-2,-3];OB=[-5,2,-1];OC=[4,0,-1]; >> DC=OB-OA, OD=OC-DC DC = -6 4 2 OD = 10 -4 -3 O ponto é D = (10, −4, −3). ( 3.1.10. (a) A equação xV + yW = U é equivalente ao sistema 9x −12x −6x − + + y 7y y = = = −4 −6 , cuja matriz aumentada é a matriz que 2 tem colunas V, W e U. >> V=[9,-12,-6];W=[-1,7,1];U=[-4,-6,2]; >> escalona([V;W;U]’) [ 1, 0, -2/3] [ 0, 1, -2] [ 0, 0, 0] Assim, U = −2/3V − 2W. (b) >> V=[5,4,-3];W=[2,1,1];U=[-3,-4,1]; >> escalona([V;W;U]’) [ 1, 0, -5/3] [ 0, 1, 8/3] [ 0, 0, -20/3] Assim, U não é combinação linear de V e W. −→ −→ −→ 3.1.11. Para ser um paralelogramo um dos vetores AB, AC e AD tem que ser igual à soma dos outros dois. (a) >> >> >> AC >> AB >> AD OA=[4,-1,1];OB=[9,-4,2]; OC=[4,3,4];OD=[4,-21,-14]; AC=OC-OA = 0 4 3 AB=OB-OA = 5 -3 1 AD=OD-OA = 0 -20 -15 Não é um paralelogramo. (b) Somente o vértice D é diferente. >> OD=[9,0,5]; >> AD=OD-OA AD = 5 1 4 É um paralelogramo de vértices consecutivos A, B, D e C. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Capı́tulo 3. Vetores no Plano e no Espaço 515 3.1.12. Resolvendo a equação vetorial U = xV obtemos que 2 2 U = (6, −4, −2) = − (−9, 6, 3) = − V. 3 3 Fazendo o mesmo para U = xW obtemos que não existe solução, logo somente os vetores U e V são paralelos. 3.2. Produtos de Vetores (página 199) 3.2.1. Um ponto P = ( x, y) pertence a reta se, e somente se, −→ P0 P · N = 0. ou seja, se, e somente se, ( x + 1, y − 1) · (2, 3) = 0 ou 2x + 3y − 1 = 0 3.2.2. Uma esfera de raio igual à 2. Se for no espaço é um cilindro de raio igual à 2, se for no plano é uma circunferência de raio igual à 2. 3.2.3. >> V=[1,2,-3]; W=[2,1,-2]; >> Va=(V+W)/no(V+W), Vb=(V-W)/no(V-W),... >> Vc=(2*V-3*W)/no(2*V-3*W) i h √3 √3 − √5 , Va = 43 43 43 i h 1 1 1 √ √ √ − 3 , Vb = − 3 3 h i 4 1 √ √ − 0 Vc = 17 17 3.2.4. >> syms x >> V=[x,3,4];W=[3,1,2]; >> solve(pe(V,W)) -11/3 Para x = −11/3, V e W são perpendiculares. 3.2.5. >> V=[x,2,4];W=[x,-2,3]; >> pe(V,W) x^2+8 A equação x2 + 8 não tem solução real. 3.2.6. >> >> >> >> Va=[2,1,0];Wa=[0,1,-1];Vb=[1,1,1]; Wb=[0,-2,-2];Vc=[3,3,0];Wc=[2,1,-2]; cosVaWa=pe(Va,Wa)/(no(Va)*no(Wa)),... cosVbWb=pe(Vb,Wb)/(no(Vb)*no(Wb)),... Julho 2010 Reginaldo J. Santos 516 Respostas dos Exercı́cios >> cosVcWc=pe(Vc,Wc)/(no(Vc)*no(Wc)) √ √ √ √ √ √ √ 1 cosVaWa= 10 5 2, cosVbWb=− 13 3 2, cosVcWc= 12 2. O ângulo entre Va e Wa é arccos( 10/10) entre Vb e Wb é arccos(− 6/3) √ e entre Vc e Wc é arccos( 2/2) = π/4. 3.2.7. >> >> W1 W2 W=[-1,-3,2]; V=[0,1,3]; W1=(pe(W,V)/pe(V,V))*V, W2=W-W1 = 0 3/10 9/10 = -1 -33/10 11/10 3.2.8. >> V=[2,2,1]; W=[6,2,-3]; >> X=V/no(V)+W/no(W), U=X/no(X) X=[32/21, 20/21, -2/21] √ √ √ √   16 √ √ 10 1 U= 17 21 357 17 21 − 357 17 21 357 3.2.9. >> A=[2,2,1];B=[3,1,2];C=[2,3,0];D=[2,3,2]; >> M=[B-A;C-A;D-A], detM=det(M) M = 1 -1 1 0 1 -1 0 1 1 detM=2 >> A=[2,0,2];B=[3,2,0];C=[0,2,1];D=[10,-2,1]; >> M=[B-A;C-A;D-A], detM=det(M) M = 1 2 -2 -2 2 -1 8 -2 -1 detM=0 No item (a) os pontos não são coplanares e no item (b) eles são coplanares. 3.2.10. >> A=[2,1,6];B=[4,1,3];C=[1,3,2];D=[1,2,1]; >> M=[B-A;C-A;D-A], detM=det(M) M = 2 0 -3 -1 2 -4 -1 1 -5 detM=-15 O volume do paralelepı́pedo é 15 unidades de vol. 3.2.11. >> A=[1,0,1];B=[2,1,3];C=[3,2,4]; >> V=pv(A-B,C-B), norma=no(V) AD = √ 1 -1 0 norma= 2 √ A área do paralelogramo é 2 unidades de área. 3.2.12. >> A=[1,2,1];B=[3,0,4];C=[5,1,3]; >> V=pv(B-A,C-A), norma=no(V) AD = √ -1 8 6 norma= 101 √ A área do triângulo é 101/2 unidades de área. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Capı́tulo 3. Vetores no Plano e no Espaço 517 3.2.13. >> syms x y z >> X=[x,y,z]; V=[1,0,1]; W=[2,2,-2]; >> expr1=pv(X,V)-W, expr2=pe(X,X)-6 expr1 = [ y-2, z-x-2, -y+2] expr2 = x^2+y^2+z^2-6 >> S=solve(expr1(1),expr1(2),expr1(3),expr2) S = x: [2x1 sym] y: [2x1 sym] z: [2x1 sym] >> S.x, S.y, S.z ans =[ -1][ -1] ans =[ 2][ 2] ans =[ 1][ 1] Logo, X = (−1, 2, 1). 3.2.14. >> X=[x,y,z]; V=[1,1,0]; W=[-1,0,1]; U=[0,1,0]; >> expr1=pe(X,V), expr2=pe(X,W),... >> expr3=pe(X,X)-3, expr4=pe(X,U) expr1=x+y,expr2=z-x,expr3=x^2+y^2+z^2-3,expr4=y >> solve(expr1,expr2,expr3) S = x: [2x1 sym] y: [2x1 sym] z: [2x1 sym] >> S.x, S.y, S.z ans =[ -1][ 1] ans =[ 1][ -1] ans =[ -1][ 1] Como y tem que ser maior que zero, X = (−1, 1, −1). 3.2.15. >> A=[3,0,2];B=[4,3,0];C=[8,1,-1]; >> pe(B-A,C-A), pe(A-B,C-B), pe(A-C,B-C) 14,0,21 Portanto, o ângulo reto está no vértice B. 3.2.16. (a) ( xV + yW ) · V = x ||V ||2 + yW · V = 20 ( xV + yW ) · W = xV · W + y||W ||2 = 5 25x + 5y 5x + 4y = = 20 5 Resolvendo o sistema acima obtemos x = 11/15 e y = 1/3. Assim, X= 1 11 V + W. 15 3 (b) Julho 2010 ( xV + yW ) × V = yW × V ( xV + yW ) · W = xV · W + y||W ||2 Reginaldo J. Santos 518 Respostas dos Exercı́cios yW × V = = 0̄ xV · W + y||W || = 5x + 4y = 12 2 Resolvendo o sistema acima obtemos x = 12/5 e y = 0. Assim, X= 12 V. 5 3.2.17. 3.2.18. 3.2.19. −→ −→ 3.2.20. Seja AB a base do triângulo isosceles e M o seu ponto médio. Vamos mostrar que CM · AB= 0. −→ −→ CM · AB = = = −→ −→ 1 −→ (CA + CB)· AB 2 −→ −→ −→ 1 −→ (CA + CB) · (CB − CA) 2 −→ 1 −→ −→ (CA · CB −|| CA ||2 + 2 −→ −→ −→ + || CB ||2 − CB · CA) = 0 −→ −→ 3.2.21. Seja AB o lado situado no diâmetro da circunferência e O seu centro. Vamos mostrar que CA · CB= 0. −→ −→ CA · CB −→ −→ −→ −→ = (CO + OA) · (CO + OB) = || CO ||2 + CO · OB + −→ −→ −→ −→ −→ −→ + OA · CO −|| OB ||2 = 0 3.2.22. Se as diagonais são perpendiculares, então (U + V ) · (U − V ) = 0. Mas, (U + V ) · (U − V ) = ||U ||2 − ||V ||2 . Então, os lados adjacentes têm o mesmo comprimento e como ele é um paralelogramos todos os lados têm o mesmo comprimento. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Capı́tulo 3. Vetores no Plano e no Espaço 519 3.2.23. Vamos mostrar que U · V = 0. ||U + V ||2 = ||U ||2 + 2U · V + ||V ||2 ||U − V ||2 = ||U ||2 − 2U · V + ||V ||2 Assim, ||U + V || = ||U − V || implica que U · V = 0. Julho 2010 Reginaldo J. Santos 520 Respostas dos Exercı́cios 4.1. Equações de Retas e Planos (página 244) 4.1.1. 1/5 1/2 1/3 (a) (b) Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Capı́tulo 4. Retas e Planos 521 1/2 1/3 (c) 1/3 1/2 (d) 1/3 1/2 (e) Julho 2010 Reginaldo J. Santos 522 Respostas dos Exercı́cios 2/5 (f) 2/3 (g) 1/2 (h) 4.1.2. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Capı́tulo 4. Retas e Planos 523 z V = (1, 3/2, 3) y x (a) z V = (1, 3/2, 3) y (b) x z V = (1, 0, 2) (c) x Julho 2010 y Reginaldo J. Santos 524 Respostas dos Exercı́cios z V = (0, 2, 1) y (d) x z V = (2, 1, 0) y (e) x z V = (0, 0, 2) (f) x Um Curso de Geometria Analı́tica e Álgebra Linear y Julho 2010 Capı́tulo 4. Retas e Planos 525 z V = (0, 2, 0) y (g) x z V = (2, 0, 0) (h) x y 4.1.3. Como o novo plano é paralelo ao plano 2x − y + 5z − 3 = 0, então o vetor N = (2, −1, 5) é também vetor normal do plano procurado. Assim, a equação dele é 2x − y + 5z + d = 0. Para determinar d substituı́mos o ponto P = (1, −2, 1) na equação do plano: >> syms x y z d >> expr=2*x-y+5*z+d expr = 2*x-y+5*z+d >> subst(expr,[x,y,z],[1,-2,1]) ans = 9+d Assim, a equação do plano é 2x − y + 5z − 9 = 0. 4.1.4. Os vetores normais dos outros planos, N1 = (1, 2, −3) e N2 = (2, −1, 4), são paralelos a ao plano procurado π. Assim, o produto vetorial N1 × N2 é um vetor normal a π. >> N1=[1,2,-3];N2=[2,-1,4]; >> N=pv(N1,N2) Julho 2010 Reginaldo J. Santos 526 Respostas dos Exercı́cios N = 5 -10 -5 Assim, a equação de π é 5x − 10y − 5z + d = 0. Para determinar d substituı́mos o ponto P = (2, 1, 0) na equação do plano: >> expr=5*x-10*y-5*z+d expr = 5*x-10*y-5*z+d >> subst(expr,[x,y,z],[2,1,0]) ans = d Assim, a equação do plano π é 5x − 10y − 5z = 0. 4.1.5. Como o plano procurado passa pelos pontos P = (1, 0, 0) e Q = (1, 0, 1) e é perpendicular ao plano y − z = 0, então os vetores → PQ= (0, 0, 1) e o vetor normal do plano y − z = 0, N1 = (0, 1, −1) são paralelos ao plano procurado π. Assim, o produto vetorial → PQ × N1 é um vetor normal a π. >> PQ=[0,0,1];N1=[0,1,-1]; >> N=pv(PQ,N1) N = -1 0 0 Assim, a equação de π é − x + d = 0. Para determinar d substituı́mos o ponto P = (1, 0, 0) na equação do plano, obtendo que a equação de π é − x + 1 = 0. 4.1.6. A equação da reta é ( x, y, z) = (t, 2t, t). Substituindo-se o ponto da reta na equação do plano obtemos o valor de t >> V=[1,2,1]; >> syms t >> t=solve(2*t+2*t+t-5) t = 1 Substituindo-se este valor de t nas equações paramétricas da reta obtemos o ponto P = (1, 2, 1). 4.1.7. Um ponto da reta r é da forma Pr = (9t, 1 + 6t, −2 + 3t) e um ponto da reta s é da forma Ps = (1 + 2s, 3 + s, 1). As retas se cortam se existem t e s tais que Pr = Ps , ou seja, se o sistema seguinte tem solução ( 9t 1 + 6t −2 + 3t = = = 1 + 2s 3+s 1 >> escalona([9,-2,1;6,-1,2;3,0,3]) [ 9, -2, 1] [ 6, -1, 2] [ 3, 0, 3] eliminaç~ ao 1: (1/9)*linha 1 ==> linha 1 [ 1, -2/9, 1/9] Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Capı́tulo 4. Retas e Planos 527 [ 6, -1, 2] [ 3, 0, 3] (-6)*linha 1 + linha 2 ==> linha 2 (-3)*linha 1 + linha 3 ==> linha 3 [ 1, -2/9, 1/9] [ 0, 1/3, 4/3] [ 0, 2/3, 8/3] eliminaç~ ao 2: (3)*linha 2 ==> linha 2 [ 1, -2/9, 1/9] [ 0, 1, 4] [ 0, 2/3, 8/3] (2/9)*linha 2 + linha 1 ==> linha 1 (-2/3)*linha 2 + linha 3 ==> linha 3 [ 1, 0, 1] [ 0, 1, 4] [ 0, 0, 0] A solução do sistema é t = 1 e s = 4. Substituindo-se ou t = 1 na equação da reta r ou s = 4 na equação da reta s obtemos o ponto da interseção P = (9, 7, 1). 4.1.8. Os vetores diretores das retas, V1 = (2, 2, 1) e V2 = (1, 1, 1), são paralelos ao plano procurado π. Assim, o produto vetorial V1 × V2 é um vetor normal a π. >> V1=[2,2,1]; V2=[1,1,1]; P1=[2,0,0]; >> N=pv(V1,V2) N = 1 -1 0 Assim, a equação de π é x − y + d = 0. Para determinar d substituı́mos o ponto P1 = (2, 2, 1) da reta r na equação do plano: >> expr=x-y+d expr =x-y+d >> subst(expr,[x,y,z],P1) ans =2+d Assim, a equação do plano π é x − y − 2 = 0. 4.1.9. (a) Substituindo-se o ponto P = (4, 1, −1) nas equações da reta r obtemos valores diferentes de t: >> solve(’4=2+t’), solve(’1=4-t’),... >> solve(’-1=1+2*t’) ans = 2 ans = 3 ans = -1 Logo não existe um valor de t tal que P = (2 + t, 4 − t, 1 + 2t). → (b) O ponto Q = (2, 4, 1) é um ponto do plano π procurado. Assim, π é paralelo aos vetores PQ= (−2, 3, 2) e o vetor diretor da Julho 2010 Reginaldo J. Santos 528 Respostas dos Exercı́cios → reta r, V = (1, −1, 2). Logo, o produto vetorial PQ ×V é um vetor normal ao plano π: >> P=[4,1,-1]; Q=[2,4,1]; V=[1,-1,2]; >> PQ=Q-P PQ = [-2, 3, 2] >> N=pv(PQ,V) N = 8 6 -1 expr = 8*x-39+6*y-z Substituindo-se o ponto P ou o ponto Q na equação de π obtemos que a equação do plano π é 8x + 6y − z − 39 = 0. 4.1.10. O vetor N = (−1, 1, −1) é normal ao plano. A equação do plano é então − x + y − z + d = 0. Fazendo z = 0 nas equações dos planos π1 e π2 e resolvendo o sistema resultante, obtemos x = 0 e y = 1. Portanto, o ponto P = (0, 1, 0) pertence a π1 e a π2 . Substituindo-se o ponto P = (0, 1, 0) na equação do plano − x + y − z + d = 0 obtemos que a equação procurada é x − y + z + 1 = 0. 4.1.11. (a) >> N1=[1,2,-3]; N2=[1,-4,2]; V=pv(N1,N2) V = -8 -5 -6 Os planos se interceptam segundo uma reta cujo vetor diretor é V = (−8, −5, −6). (b) >> N1=[2,-1,4]; N2=[4,-2,8]; V=pv(N1,N2) V = 0 0 0 Os planos são paralelos. (c) >> N1=[1,-1,0]; N2=[1,0,1]; V=pv(N1,N2) V = -1 -1 1 Os planos se interceptam segundo uma reta cujo vetor diretor é V = (−1, −1, 1). 4.1.12. O vetor normal ao plano é um vetor diretor da reta procurada. Assim, as equações paramétricas de r são ( x, y, z) = (1 + t, 2 − t, 1 + 2t). 4.1.13. O vetor diretor da reta procurada é ortogonal ao mesmo tempo aos vetores normais dos dois planos, portanto o produto vetorial deles é um vetor diretor da reta procurada. >> pv([2,3,1],[1,-1,1]) 4 -1 -5 ( x, y, z) = (1 + 4t, −t, 1 − 5t). 4.1.14. >> escalona([1,1,-1,0;2,-1,3,1]) 1 0 2/3 1/3 0 1 -5/3 -1/3 Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Capı́tulo 4. Retas e Planos 529 A reta interseção dos planos é ( x, y, z) = (1/3 − 2/3t, −1/3 + 5/3t, t). O vetor diretor V = (−2/3, 5/3, 1) desta reta é paralelo ao plano procurado. O ponto P = (1/3, −1/3, 0) é um ponto da reta e é também portanto um ponto do plano procurado π. O vetor → → AP é também um vetor paralelo a π. Assim, o produto vetorial AP ×V é um vetor normal a π. >> A=[1,0,-1]; P=[1/3,-1/3,0]; >> V=[-2/3,5/3,1]; >> AP=P-A AP = [-2/3, -1/3, 1] >> N=pv(AP,V) N = [ -2, 0, -4/3] Substituindo-se o ponto A ou o ponto P na equação −2x − 4/3z + d = 0 obtemos a equação do plano 6x + 4z − 2 = 0. 4.1.15. >> >> >> BA CD syms t s A=[0,1,0];B=[1,1,0];C=[-3,1,-4];D=[-1,2,-7]; BA=B-A, CD=D-C, = 1 0 0 = 2 1 -3 Pr = (t, 1, 0) é um ponto qualquer da reta r e Ps = (−3 + 2s, 1 + s, −4 − 3s) é um ponto qualquer da reta s. Precisamos encontrar → pontos Pr e Ps tais que Ps Pr = αV, ou seja, precisamos encontrar t e s tais que (t − 2s + 3, −s, 3s + 4) = (α, −5α, −α). >> escalona([1,-2,-1,-3;0,-1,5,0;0,3,1,-4]) [ 1, -2, -1, -3] [ 0, -1, 5, 0] [ 0, 3, 1, -4] eliminaç~ ao 2: (-1)*linha 2 ==> linha 2 [ 1, -2, -1, -3] [ 0, 1, -5, 0] [ 0, 3, 1, -4] (2)*linha 2 + linha 1 ==> linha 1 (-3)*linha 2 + linha 3 ==> linha 3 [ 1, 0, -11, -3] [ 0, 1, -5, 0] [ 0, 0, 16, -4] eliminaç~ ao 3: (1/16)*linha 3 ==> linha 3 [ 1, 0, -11, -3] [ 0, 1, -5, 0] [ 0, 0, 1, -1/4] (11)*linha 3 + linha 1 ==> linha 1 (5)*linha 3 + linha 2 ==> linha 2 [ 1, 0, 0, -23/4] [ 0, 1, 0, -5/4] Julho 2010 Reginaldo J. Santos 530 Respostas dos Exercı́cios [ 0, 0, 1, -1/4] Pr0 = [-23/4, 1, 0] Ps0 = [-11/2, -1/4, -1/4] V = [1/4, -5/4, -1/4] Encontramos que t = −23/4, s = −5/4 e α = −1/4. Substituindo-se ou t = −23/4 em Pr = (t, 1, 0) obtemos que a equação da reta é ( x, y, z) = (−23/4 + t, 1 − 5t, −t). 4.1.16. (a) >> N1=[2,-1,1]; N2=[1,2,-1]; V=pv(N1,N2) V = -1 3 5 Os planos se interceptam segundo uma reta que tem vetor diretor V = (−1, 3, 5). (b) >> escalona([2,-1,1,0;1,2,-1,1]) [ 2, -1, 1, 0] [ 1, 2, -1, 1] eliminaç~ ao 1: linha 2 <==> linha 1 [ 1, 2, -1, 1] [ 2, -1, 1, 0] (-2)*linha 1 + linha 2 ==> linha 2 [ 1, 2, -1, 1] [ 0, -5, 3, -2] eliminaç~ ao 2: (-1/5)*linha 2 ==> linha 2 [ 1, 2, -1, 1] [ 0, 1, -3/5, 2/5] (-2)*linha 2 + linha 1 ==> linha 1 [ 1, 0, 1/5, 1/5] [ 0, 1, -3/5, 2/5] → Um ponto qualquer da reta r é Pr = (1/5 − t, 2/5 + 3t, 5t). Vamos determinar o valor de t tal que APr seja perpendicular ao vetor diretor da reta r. >> syms t >> Pr=[1/5-t,2/5+3*t,5*t];A=[1,0,1]; >> APr=Pr-A APr = [ -4/5-t, 2/5+3*t, 5*t-1] >> expr=pe(APr,[-1,3,5]) expr = -3+35*t >> t=solve(expr) t = 3/35 → Substituindo-se t = 3/35 em APr = (−4/5 − t, 2/5 + 3t, 5t − 1), obtemos o vetor diretor da reta procurada e assim a equação da reta é ( x, y, z) = (1 − (31/35)t, (23/35)t, 1 − (4/7)t). Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Capı́tulo 4. Retas e Planos 531 4.1.17. >> V1=[1,2,-3]; P1=[0,0,0]; >> V2=[2,4,-6]; P2=[0,1,2]; >> pv(V1,V2) ans = 0 0 0 >> syms x y z; X=[x,y,z]; >> M=[X-P1;V1;P2-P1], expr=det(M) M =[ x, y, z] [ 1, 2, -3] [ 0, 1, 2] expr = 7*x-2*y+z Como o produto vetorial de V1 e V2 (os dois vetores diretores das retas) é igual ao vetor nulo, então as retas são paralelas. Neste −→ caso, os vetores V1 e P1 P2 são não colineares e paralelos ao plano procurado. Assim, 7x − 2y + z = 0 é a equação do plano. 4.1.18. (a) >> N1=[1,2,-3]; N2=[1,-4,2]; V=pv(N1,N2) V = -8 -5 -6 Os planos se interceptam segundo uma reta cujo vetor diretor é V = (−8, −5, −6). Fazendo y = 0 nas equações obtemos um sistema de duas equações e duas incógnitas cuja solução é x = −3, z = 1. Assim, P0 = (−3, 0, 1) é um ponto da reta e as equações paramétricas da reta são ( x = −3 − 8t y = −5t, para t ∈ R z = 1 − 6t (b) >> N1=[1,-1,0]; N2=[1,0,1]; V=pv(N1,N2) V = -1 -1 1 Os planos se interceptam segundo uma reta cujo vetor diretor é V = (−1, −1, 1). Claramente P0 = (0, 0, 0) é um ponto da reta e as equações paramétricas da reta são ( x = −t y = −t, para t ∈ R z = t 4.1.19. (a) r : ( x, y, z) = t(0, 1, 2) s : ( x, y, z) = t(1, 0, 2) t : ( x, y, z) = (0, 1, 2) + s(1, −1, 0) Julho 2010 Reginaldo J. Santos 532 Respostas dos Exercı́cios z y x (b) A = (0, 0, 2), B = (0, 1, 2) e C = (1, 0, 2). −→ vol = 16 | OA " 0 = | det 0 1 −→ −→ · (OB × OC )| # 0 2 1 2 | = 62 = 13 . 0 2 −→ −→ (c) area = 12 || OB × OC || = 21 ||(2, 2, −1)|| = 3 2 (d) h = dist(π, A) = 4.1.20. | − 2| 2 = . 3 3 (a) Um ponto qualquer da reta r1 é descrito por Pr1 = (−1 + t, 2 + 3t, 4t) e um ponto qualquer da reta r2 é da forma Pr2 = (−1 + s, 1 + 2s, −2 + 3s). Aqui é necessário o uso de um parâmetro diferente para a reta r2 . O vetor −→ Pr1 Pr2 = (−2 + s − t, −1 + 2s − 3t, −2 + 3s − 4t) −→ “liga” um ponto qualquer de r1 a um ponto qualquer de r2 . Vamos determinar t e s tais que o vetor Pr1 Pr2 seja perpendicular ao vetor diretor V1 = (1, 3, 4) de r1 e ao vetor diretor V2 = (1, 2, 3) de r2 , ou seja, temos que resolver o sistema ( −→ Pr1 Pr2 · V1 = −13 + 19s − 26t = 0 · V2 = −10 + 14s − 19t = 0 −→ Pr1 Pr2 Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Capı́tulo 4. Retas e Planos 533 −→ A solução deste sistema é t = 8/3, s = 13/3. Logo Pr1 = (11/3, 10, 32/3), Pr2 = (10/3, 29/3, 11) e V3 = Pr1 Pr2 = (−1, −1, 1). Assim, as equações paramétricas da reta procurada são ( x = 11/3 − t y = 10 − t, r3 : para t ∈ R. z = 32/3 + t (b) Um ponto qualquer da reta r1 é descrito por Pr1 = (−1 + t, 2 + 3t, 4t) e um ponto qualquer da reta r2 é da forma Pr2 = (s, 4 + 2s, 3 + 3s). Aqui é necessário o uso de um parâmetro diferente para a reta r2 . O vetor −→ Pr1 Pr2 = (1 + s − t, 2 + 2s − 3t, 3 + 3s − 4t) −→ “liga” um ponto qualquer de r1 a um ponto qualquer de r2 . Vamos determinar t e s tais que o vetor Pr1 Pr2 seja perpendicular ao vetor diretor V1 = (1, 3, 4) de r1 e ao vetor diretor V2 = (1, 2, 3) de r2 , ou seja, temos que resolver o sistema ( −→ Pr1 Pr2 · V1 = 19 + 19s − 26t = 0 −→ Pr1 Pr2 · V2 = 14 + 14s − 19t = 0 −→ −→ A solução deste sistema é t = 0, s = −1. Logo Pr1 = (−1, 2, 0), Pr2 = (−1, 2, 0) e Pr1 Pr2 = (0, 0, 0). Neste caso o vetor Pr1 Pr2 não pode ser o vetor diretor da reta procurada. Vamos tomar como vetor diretor da reta procurada o vetor V3 = V1 × V2 = (1, 1, −1). Assim, as equações paramétricas da reta procurada são ( x = y = r3 : z = −1 + t 2 + t, −t para t ∈ R. 4.2. Ângulos e Distâncias (página 273) 4.2.1. >> V=[1,3,2];W=[2,-1,1];U=[1,-2,0]; >> N=pv(W,U), projecao=(pe(V,N)/pe(N,N))*N N = 2 1 -3 projecao = -1/7 -1/14 3/14 4.2.2. >> N1=[2,-1,1]; N2=[1,-2,1]; >> costh=pe(N1,N2)/(no(N1)*no(N2)) costh = 5/6 >> acos(5/6)*180/pi ans = 33.5573 O ângulo é arccos(5/6) ≈ 33, 5o . Julho 2010 Reginaldo J. Santos 534 Respostas dos Exercı́cios 4.2.3. >> A=[1,1,1];B=[1,0,1];C=[1,1,0]; >> P=[0,0,1];Q=[0,0,0];V=[1,1,0]; >> N1=pv(B-A,C-A), N2=pv(Q-P,V),... >> costh=pe(N1,N2)/(no(N1)*no(N2)) N1 = 1 0 0, N2 = 1 -1 costh = 1/2*2^(1/2) √ O ângulo é arccos( 2/2) = 45o . 0, 4.2.4. O vetor diretor da reta procurada V = ( a, b, c) faz ângulo de 45o com o vetor ~i e 60o com o vetor ~j. Podemos fixar arbitrariamente a norma do vetor V. Por exemplo, podemos tomar o vetor V com norma igual à 2. V = ( a, b, c) ||V ||2 = a2 + b2 + c2 = 4 √ |V ·~i 2 = cos 45◦ = , ||V || 2 |V · ~j 1 = cos 60◦ = , ||V || 2 ⇒ ⇒ | a| = 1 |b| = 1 Substituindo-se estes valores em a2 + b2 + c2 = 4: 2 + 1 + c2 = 4, ⇒ |c| = 1 o o Assim, existem aparentemente, oito retas que √ passam pelo ponto P = (1, −2, 3) e fazem ângulo de 45 com o eixo x e 60 com o eixo y. Elas são ( x, y, z) = (1, −2, 3) + t(± 2, ±1, ±1). Na verdade existem quatro retas (distintas), pois um vetor diretor e o seu √ simétrico determinam a mesma reta. Elas são ( x, y, z) = (1, −2, 3) + t( 2, ±1, ±1). 4.2.5. >> syms t, A=[1,1,0]; V=[0,1,-1]; Pr=[0,t,-t]; >> PrA=A-Pr, expr1=pe(PrA,V) PrA = [1, 1-t, t] expr1 = 1-2*t expr2 = 2*(1-t+t^2)^(1/2) >> expr2=no(PrA)*no(V) >> solve((expr1/expr2)^2-1/4) [0][1] >> B=subs(Pr,t,0), C=subs(Pr,t,1) B = [0, 0, 0] C = [0, 1, -1] Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Capı́tulo 4. Retas e Planos 535 4.2.6. >> A=[1,0,0]; B=[0,1,0]; C=[1,0,1]; O=[0,0,0]; >> N=B-A -1 2 0 >> dist=abs(pe(N,C-O))/no(N) dist =1/2^(1/2) √ A distância é igual à 1/ 2. 4.2.7. (a) >> syms t s >> A=[1,0,0]; B=[0,2,0]; V2=[1,2,3]; P2=[2,3,4]; >> Pr1=A+t*(B-A), Pr2=P2+s*V2 Pr1 = [1-t, 2*t, 0] Pr2 = [2+s, 3+2*s, 4+3*s] Pr2 = (1 − t, 2t, 0) é um ponto qualquer da reta r1 e Pr2 = (2 + s, 3 + 2s, 4 + 3s) é um ponto qualquer da reta r2 . Devemos −→ determinar t e s tais que o vetor Pr1 Pr2 seja perpendicular aos vetores diretores de r1 e de r2 . >> Pr1Pr2=Pr2-Pr1 Pr1Pr2 = [1+s+t, 3+2*s-2*t, 4+3*s] >> expr1=pe(Pr1Pr2,B-A), expr2=pe(Pr1Pr2,V2) expr1 = 5+3*s-5*t expr2 = 19+14*s-3*t >> S=solve(’5+3*s-5*t’,’19+14*s-3*t’) >> S.t, S.s t = 13/61, s = -80/61 >> Pr10=subs(Pr1,t,13/61), Pr10 = [48/61, 26/61, 0] >> Pr20=subs(Pr2,s,-80/61) Pr20 = [42/61, 23/61, 4/61] >> V=Pr20-Pr10, expr=Pr10+t*V V = [-6/61, -3/61, 4/61] expr = [48/61-6/61*t, 26/61-3/61*t, 4/61*t] A equação da reta é ( x, y, z) = (48/61 − (6/61)t, 26/61 − (3/61)t, (4/61)t). −→ √ (b) A distância entre r1 e r2 é igual à norma do vetor Pr1 Pr2 = (−6/61, −3/61, 4/61) que é igual à 1/ 61. 4.2.8. >> A=[0,2,1]; Pr=[t,2-t,-2+2*t]; >> APr=Pr-A, dist=no(APr) APr = [t, -t, -3+2*t] dist = 3^(1/2)*(2*t^2+3-4*t)^(1/2) >> solve(dist^2-3) [1][1] >> P=subs(Pr,t,1) P = [1, 1, 0] √ A distância de A até a reta r é igual à 3. 4.2.9. >> syms t Julho 2010 Reginaldo J. Santos 536 Respostas dos Exercı́cios >> A=[1,1,1]; B=[0,0,1]; Pr=[1+t,t,t]; >> APr=Pr-A, BPr=Pr-B APr = [t, -1+t, -1+t] BPr = [1+t, t, -1+t] >> dist1q=pe(APr,APr), dist2q=pe(BPr,BPr) dist1q = 3*t^2+2-4*t dist2q = 2+3*t^2 >> solve(dist1q-dist2q) t=0 >> subs(Pr,t,0) [1, 0, 0] O ponto P = (1, 0, 0) é equidistante de A e B. 4.2.10. >> A=[1,-1,2]; B=[4,3,1]; X=[x,y,z]; >> AX=X-A, BX=X-B, AX = [x-1, y+1, z-2] BX = [x-4, y-3, z-1] >> dist1q=pe(AX,AX), dist2q=pe(BX,BX) dist1q = x^2-2*x+6+y^2+2*y+z^2-4*z dist2q = x^2-8*x+26+y^2-6*y+z^2-2*z >> expr=dist1q-dist2q expr = 6*x-20+8*y-2*z A equação do lugar geométrico é 6x + 8y − 2z − 20 = 0. Este plano passa pelo ponto médio de AB, pois o ponto médio de AB é −→ −→ −→ M =OM= 1/2(OA + OB) (Exercı́cio 1.18 na página 162) satisfaz a equação do plano. O plano é perpendicular ao segmento AB, −→ pois N = (6, 8, −2) é paralelo a AB= (3, 4, −1). 4.2.11. >> >> >> >> syms x y z d expr1=2*x+2*y+2*z+d; P1=[0,0,-d/2]; N=[2,2,2]; P=[1,1,1]; expr2=abs(pe(P-P1,N))/no(N) √ expr2 = 1/6 |6 + d| 3 >> solve(expr2-sqrt(3),d) ans = [ 0][ -12] Os planos 2x + 2y + 2z = 0 e 2x + 2y + 2z − 12 = 0 satisfazem as condições do exercı́cio. 4.2.12. >> N2=[1,-2,2];N3=[3,-5,7]; >> V=pv(N2,N3) V = -4 -1 1 N = ( a, b, c), N1 = (1, 0, 1)    | N · N1 | || N |||| N1 || || N ||2 N·V Um Curso de Geometria Analı́tica e Álgebra Linear = = = cos(π/3) 2 0 ⇒    √ | a+c| a2 + b2 + c2 + b2 + c2 a2 −4a − b + c = = = 1 2 2 0 Julho 2010 Capı́tulo 4. Retas e Planos 537 Da 1a. equação (usando a 2a. equação) segue que | a + c| = 1 ⇒ c = ±1 − a. Da 3a. equação b = c − 4a = ±1 − 5a, Substituindo-se os valores de b e c encontrados na 2a. equação: a2 + (±1 − 5a)2 + (±1 − a)2 = 2, 27a2 = ±12a, ⇒ a = 0 ou a = ±4/9. N = (0, 1, 1) ou N = (4/9, −11/9, 5/9) Os planos y + z = 0 e 4x − 11y + 5z = 0 satisfazem as condições do exercı́cio 4.2.13. (a) N · Vr = (1, 1, 1) · (1, −1, 0) = 0 (b) Tomando Pπ = (0, 0, 0) e Pr = (1, 0, 1): −→ d(r, π ) = |(1, 0, 1) · (1, 1, 1)| 2 | Pr Pπ · N | √ = = √ || N || 3 3 (c) Não. Pois se s é uma reta reversa à r contida em π, então 2 d(r, s) = d(r, π ) = √ < 2. 3 −→ 4.2.14. (a) AB= (−7/3, 7/2, 0) −→ AC = (−7/3, −2, 11/6) −→ −→ AB × AC = (77/12, 77/18, 77/6) −→ −→ N1 = (36/77) AB × AC = (3, 2, 6) A equação do plano é 3x + 2y + 6z − 6 = 0 Julho 2010 Reginaldo J. Santos 538 Respostas dos Exercı́cios −→ (b) DE= (5/2, −5, 11) −→ DE × ~k = (−5, −5/2, 0) −→ N2 = −(2/5) DE × ~k = (2, 1, 0) A equação do plano é 2x + y − 2 = 0      3 2 6 6 1 1 2/3 2 2 (c) ∼ 2 1 0 2 2 1 0 2 ∼ 0 2/3 −1/3 2 −4 2 −2   ∼ 1 0 2/3 1 2 12 2 6   ∼ 1 0 0 1 −6 12 −2 6  As equações paramétricas da reta são ( x, y, z) = (−2 + 6t, 6 − 12t, t). (d) z y x (e) cos(π1 , π2 ) = −→ | N1 · N2 | || N1 |||| N2 || 8 √ 7 5 −→ −→ (f) OP= proj N1 OA= −→ = N1 ·OA N || N1 ||2 1 = 6 49 (3, 2, 6) −→ (g) area = || AB × AC ||/2 = ||(77/12, 77/18, 77/6)||/2 = Um Curso de Geometria Analı́tica e Álgebra Linear 77 72 ||(3, 2, 6)|| = 539 72 Julho 2010 Capı́tulo 5. Espaços Rn 539 5.1. Independência Linear (página 303) 5.1.1. Podemos resolver os quatro sistemas de uma única vez. >> v1=[5,-3,1];v2=[0,4,3];v3=[-10,18,7]; >> va=[10,-2,5];vb=[10,2,8];vc=[-2,-1,1]; >> vd=[-1,2,3]; >> A=[v1;v2;v3;va;vb;vc;vd]’; >> escalona(A) [ 5, 0, -10, 10, 10, -2, -1] [ -3, 4, 18, -2, 2, -1, 2] [ 1, 3, 7, 5, 8, 1, 3] eliminaç~ ao 1: linha 3 <==> linha 1 [ 1, 3, 7, 5, 8, 1, 3] [ -3, 4, 18, -2, 2, -1, 2] [ 5, 0, -10, 10, 10, -2, -1] Continua ? (s/n) s (3)*linha 1 + linha 2 ==> linha 2 (-5)*linha 1 + linha 3 ==> linha 3 [ 1, 3, 7, 5, 8, 1, 3] [ 0, 13, 39, 13, 26, 2, 11] [ 0, -15, -45, -15, -30, -7, -16] Continua ? (s/n) s eliminaç~ ao 2: (1/13)*linha 2 ==> linha 2 [ 1, 3, 7, 5, 8, 1, 3] [ 0, 1, 3, 1, 2, 2/13, 11/13] [ 0, -15, -45, -15, -30, -7, -16] Continua ? (s/n) s (-3)*linha 2 + linha 1 ==> linha 1 (15)*linha 2 + linha 3 ==> linha 3 [ 1, 0, -2, 2, 2, 7/13, 6/13] [ 0, 1, 3, 1, 2, 2/13, 11/13] [ 0, 0, 0, 0, 0, -61/13, -43/13] Continua ? (s/n) n Assim, os vetores dos itens (a) e (b) são combinação linear de V1 , V2 e V3 , pois os sistemas [ V1 V2 V3 ] X = V, para os vetores V dos itens (a) e (b) têm solução, enquanto para os vetores dos itens (c) e (d) não têm solução. 5.1.2. Do escalonamento realizado no item anterior deduzimos que o sistema [ V1 V2 V3 ] X = 0̄ tem solução não trivial. Logo, os vetores V1 , V2 e V3 são L.D. A solução é x = 2α, y = −3α e z = α. Escolhendo α = 1 e substituindo os valores de x, y e z na equação xV1 + yV2 + zV3 = 0̄ obtemos que V3 = −2V1 + 3V2 . 5.1.3. (a) >> v1=[1,1,2];v2=[1,0,0]; Julho 2010 Reginaldo J. Santos 540 Respostas dos Exercı́cios >> v3=[4,6,12] >> A=[v1;v2;v3;zeros(1,3)].’ 1 1 4 0 1 0 6 0 2 0 12 0 >> R=escalona(A) 1 0 6 0 0 1 -2 0 0 0 0 0 Logo, a equação x (1, 1, 2) + y(1, 0, 0) + z(4, 6, 12) = 0̄ admite solução não trivial. Isto implica que os vetores do item (a) são L.D. (b) >> v1=[1,-2,3];v2=[-2,4,-6]; >> A=[v1;v2;zeros(1,3)].’ 1 -2 0 -2 4 0 3 -6 0 >> R=escalona(A) 1 -2 0 0 0 0 0 0 0 Logo, a equação x (1, −2, 3) + y(−2, 4, −6) = 0̄ admite solução não trivial. Isto implica que os vetores da item (b) são L.D. Observe que o segundo vetor é −2 vezes o primeiro. (c) >> v1=[1,1,1];v2=[2,3,1]; >> v3=[3,1,2]; >> A=[v1;v2;v3;zeros(1,3)].’ 1 2 3 0 1 3 1 0 1 1 2 0 >> R=escalona(A) 1 0 0 0 0 1 0 0 0 0 1 0 Logo, a equação x (1, 1, 1) + y(2, 3, 1) + z(3, 1, 2) = 0̄ só admite a solução trivial. Isto implica que os vetores do item (c) são L.I. (d) >> v1=[4,2,-1];v2=[6,5,-5];v3=[2,-1,3]; >> A=[v1;v2;v3;zeros(1,3)].’ 4 6 2 0 2 5 -1 0 -1 -5 3 0 >> R=escalona(A) 1 0 2 0 Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Capı́tulo 5. Espaços Rn 0 0 541 1 0 -1 0 0 0 Logo, o sistema x (4, 2, −1) + y(2, 3, 1) + z(2, −1, 3) = 0̄ admite solução não trivial. Isto implica que os vetores do item (d) são L.D. 5.1.4. >> syms a >> A=[3,1,0;a^2+2,2,0;0,0,0] A = [3, a^2+2, 0] [1, 2, 0] [0, 0, 0] >> escalona(A) eliminaç~ ao 1: linha 2 <==> linha 1 [ 1 2 0 ] [ ] [ 2 ] [ 3 a + 2 0 ] [ ] [ 0 0 0 ] Continua ? (s/n) s -(3)*linha 1 + linha 2 ==> linha 2 [ 1 2 0 ] [ ] [ 2 ] [ 0 a - 4 0 ] [ ] [ 0 0 0 ] Continua ? (s/n) n >> solve(a^2-4) ans = [ 2][-2] Para λ = ±2 o conjunto de vetores é L.D. 5.1.5. (a) x1 W1 + x2 W2 + x3 W3 = x1 (V1 + V2 ) + x2 (V1 + V3 ) + x3 (V2 + V3 ) = ( x1 + x2 )V1 + ( x1 + x3 )V2 + ( x2 + x3 )V3 = 0̄. Como V (1 , V2 e V3 são por hipótese L.I., os escalares que os estão multiplicando têm que ser iguais a zero. O que leva ao sistema x1 + x2 = 0 x1 + x3 = 0 x2 + x3 = 0 >> A=[1,1,0;1,0,1;0,1,1] >> escalona(A) [ 1, 1, 0] [ 1, 0, 1] [ 0, 1, 1] Julho 2010 Reginaldo J. Santos 542 Respostas dos Exercı́cios [ 1, 0, 0] [ 0, 1, 0] [ 0, 0, 1] Assim, o sistema e a equação vetorial inicial têm somente a solução trivial x1 = x2 = x3 = 0. Portanto, os vetores W1 , W2 e W3 são L.I. (b) x1 W1 + x2 W2 + x3 W3 = x1 V1 + x2 (V1 + V3 ) + x3 (V1 + V2 + V3 ) = ( x1 + x2 + x3 )V1 + x3 V2 + ( x2 + x3 )V3 = 0̄ Como V1 , V2 e ( V3 são por hipótese L.I., os escalares que os estão multiplicando têm que ser iguais a zero. O que leva ao x1 + x2 + x3 = 0 x3 = 0 Assim, o sistema e a equação vetorial inicial têm somente a solução trivial sistema x2 + x3 = 0 x1 = x2 = x3 = 0. Portanto, os vetores W1 , W2 e W3 são L.I. 5.1.6. (a) >> syms m,P1=[1,0,2];V1=[2,1,3]; >> P2=[0,1,-1];V2=[1,m,2*m]; >> expr=det([V1;V2;P2-P1]) expr = -9*m+6 >> solve(expr) ans = 2/3 Para m = 2/3 as retas são coplanares. (b) Para m = 2/3, os vetores diretores V1 = (2, 1, 3) e V2 = (1, 2/3, 4/3) são L.I., pois um não é múltiplo escalar do outro. Portanto, as retas são concorrentes. (c) >> >> V2 >> N= syms x y z; P=[x,y,z]; V2=subs(V2,m,2/3) = [ 1, 2/3, 4/3] N=pv(V1,V2) [ -2/3, 1/3, 1/3] Tomando como vetor normal −3N = (2, −1, −1) a equação do plano é 2x − y − z + d = 0. Para determinar d substituı́mos o ponto P1 = (1, 0, 2) na equação do plano: >> subst(2*x-y-z+d,[x,y,z],[1,0,2]) >> ans= d Assim, a equação do plano é 2x − y − z = 0. 5.1.7. Precisamos determinar m para que os vetores W = (2, m, 1), V1 = (1, 2, 0) e V2 = (1, 0, 1) sejam L.D. >> syms m >> W=[2,m,1];V1=[1,2,0];V2=[1,0,1]; >> solve(det([W;V1;V2])) ans = 2 Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Capı́tulo 5. Espaços Rn 543 −→ Para m = 2 a reta é paralela ao plano. A reta está contida no plano se, e somente se, os vetores OP1 , V1 , V2 forem L.D., em que P1 = (1, 1, 1) é um ponto da reta. >> P1=[1,1,1]; >> det([P1;V1;V2]) ans = -1 A reta não está contida no plano. 5.1.8. (a) >> V1=[1;2;3]; V2=[3;4;5]; V3=[5;6;7]; >> V=randi(3,1) V = 0 4 3 >> escalona([V1,V2,V3,V]) ans = 1 0 -1 0 0 1 2 0 0 0 0 1 Assim, V não é combinação linear de V1, V2 e V3. (b) >> M=randi(3,5) M = -2 -4 1 -5 5 3 -3 -3 3 0 -5 -3 -3 -1 -1 >> escalona([V1,V2,V3,M]) 1 0 -1 0 37/13 -101/26 173/26 0 1 2 0 -29/13 37/26 -85/26 0 0 0 1 1/13 -4/13 12/13 -96/13 51/13 -4/13 Assim, nenhuma das colunas de M é combinação linear de V1, V2 e V3. Como as colunas de M foram geradas aleatoriamente, o mais provável é que elas não pertençam ao plano gerado por V1, V2 e V3. (c) V3=-V1+2V2, que é a mesma relação que é válida entre as colunas de forma escalonada reduzida da matriz [V1,V2,V3,M]. 5.2. Subespaços Base e Dimensão (página 321) 5.2.1. (a) >> A=[1,0,1,0,0;1,2,3,1,0;2,1,3,1,0] 1 0 1 0 0 1 2 3 1 0 2 1 3 1 0 >> R=escalona(A) 1 0 1 0 0 0 1 1 0 0 0 0 0 1 0 Julho 2010 Reginaldo J. Santos 544 Respostas dos Exercı́cios Encontramos a forma reduzida escalonada da matriz [ A | 0̄], que corresponde ao sistema ( x1 + + x2 x3 x3 x4 = = = 0 0 0 Este sistema tem como solução geral W = {(−α, −α, α, 0) | α ∈ R} . Agora, para qualquer elemento de W temos: (−α, −α, α, 0) = α(−1, −1, 1, 0) . Logo, {V = (−1, −1, 1, 0)} gera W. (b) >> A=[1,1,2,-1,0;2,3,6,-2,0;-2,1,2,2,0] 1 1 2 -1 0 2 3 6 -2 0 -2 1 2 2 0 >> R=escalona(A) 1 0 0 -1 0 0 1 2 0 0 0 0 0 0 0 Encontramos a forma reduzida escalonada da matriz [ A | 0̄], que corresponde ao sistema  x1 x2 + + − 2x3 x4 = = 0 0 Este sistema tem como solução geral W = {(α, −2β, β, α) | α, β ∈ R} . Agora, para qualquer elemento de W temos: (α, −2β, β, α) = = = (α, 0, 0, α) + (0, −2β, β, 0) α(1, 0, 0, 1) + β(0, −2, 1, 0) . Logo, B = {V1 = (1, 0, 0, 1), V2 = (0, −2, 1, 0)} gera W. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Capı́tulo 5. Espaços Rn 5.2.2. 545 (a) >> syms x >> A=[0,0,1;1,0,-3;0,1,3]; >> B=A-x*eye(3) [-x, 0, 1] [ 1, -x, -3] [ 0, 1, 3-x] >> solve(det(B)) ans = [1][1][1] >> B1=subs(B,x,1) -1 0 1 1 -1 -3 0 1 2 >> escalona([B1,zeros(3,1)]) 1 0 -1 0 0 1 2 0 0 0 0 0  x1 x2 − + x3 2x3 = = 0 0 Este sistema tem como solução geral W = {(α, −2α, α) | α ∈ R} . Agora, para qualquer elemento de W temos: (α, −2α, α) = α(1, −2, 1) . Logo, B = {V = (1, −2, 1)} gera W. Como um conjunto formado por um único vetor não nulo é sempre L.I., então B é base para W. (b) >> A=[2,2,3,4;0,2,3,2;0,0,1,1;0,0,0,1] >> B=A-x*eye(4) [2-x, 2, 3, 4] [ 0, 2-x, 3, 2] [ 0, 0, 1-x, 1] [ 0, 0, 0, 1-x] >> solve(det(B)) ans = [2][2][1][1] >> B1=subs(B,x,1) 1 2 3 4 0 1 3 2 0 0 0 1 0 0 0 0 >> escalona([B1,zeros(4,1)]) 1 0 -3 0 0 0 1 3 0 0 Julho 2010 Reginaldo J. Santos 546 Respostas dos Exercı́cios 0 0 0 0 0 0 1 0 0 0 ( x1 x2 − + 3x3 3x3 = = = x4 0 0 0 Este sistema tem como solução geral W = {(3α, −3α, α, 0) | α ∈ R} . Agora, para qualquer elemento de W temos: (3α, −3α, α, 0) = α(3, −3, 1, 0) . Logo, B = {V = (3, −3, 1, 0)} gera W. Como um conjunto formado por um único vetor não nulo é sempre L.I., então B é base para W. >> B2=subs(B,x,2) 0 2 3 4 0 0 3 2 0 0 -1 1 0 0 0 -1 >> escalona([B2,zeros(4,1)]) 0 1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 0 0 0 0 ( x2 x3 x4 = = = 0 0 0 Este sistema tem como solução geral W = {(α, 0, 0, 0) | α ∈ R} . Agora, para qualquer elemento de W temos: (α, 0, 0, 0) = α(1, 0, 0, 0) . Logo, B = {V = (1, 0, 0, 0)} gera W. Como um conjunto formado por um único vetor não nulo é sempre L.I., então B é base para W. (c) >> A=[1,1,-2;-1,2,1;0,1,-1] >> B=A-x*eye(3) [1-x, 1, -2] [ -1, 2-x, 1] Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Capı́tulo 5. Espaços Rn 547 [ 0, 1, -1-x] >> solve(det(B)) ans = [ 1][ 2][-1] >> Bm1=subs(B,x,-1) 2 1 -2 -1 3 1 0 1 0 >> escalona([Bm1,zeros(3,1)]) 1 0 -1 0 0 1 0 0 0 0 0 0  x1 − x2 3x3 = = 0 0 Este sistema tem como solução geral W = {(α, 0, α) | α ∈ R} . Agora, para qualquer elemento de W temos: (α, 0, α) = α(1, 0, 1) . Logo, B = {V = (1, 0, 1)} gera W. Como um conjunto formado por um único vetor não nulo é sempre L.I., então B é base para W. >> B1=subs(B,x,1) 0 1 -2 -1 1 1 0 1 -2 >> escalona([B1,zeros(3,1)]) 1 0 -3 0 0 1 -2 0 0 0 0 0  x1 x2 − − 3x3 2x3 = = 0 0 Este sistema tem como solução geral W = {(3α, 2α, α) | α ∈ R} . Agora, para qualquer elemento de W temos: (3α, 2α, α) = α(3, 2, 1) . Logo, B = {V = (3, 2, 1)} gera W. Como um conjunto formado por um único vetor não nulo é sempre L.I., então B é base para W. Julho 2010 Reginaldo J. Santos 548 Respostas dos Exercı́cios >> B2=subs(B,x,2) -1 1 -2 -1 0 1 0 1 -3 >> escalona([B2,zeros(3,1)]) 1 0 -1 0 0 1 -3 0 0 0 0 0  x1 x2 − − x3 3x3 = = 0 0 Este sistema tem como solução geral W = {(α, 3α, α) | α ∈ R} . Agora, para qualquer elemento de W temos: (α, 3α, α) = α(1, 3, 1) . Logo, B = {V = (1, 3, 1)} gera W. Como um conjunto formado por um único vetor não nulo é sempre L.I., então B é base para W. (d) >> A=[-1,2,2,0;-1,2,1,0;-1,1,2,0;0,0,0,1]; >> B=A-x*eye(4) B = [ -1-x, 2, 2, 0] [ -1, 2-x, 1, 0] [ -1, 1, 2-x, 0] [ 0, 0, 0, 1-x] >> solve(det(B)) ans = [ 1][ 1][ 1][ 1] >> B1=subs(B,x,1); >> escalona(B1) [ -2, 2, 2, 0] [ -1, 1, 1, 0] [ -1, 1, 1, 0] [ 0, 0, 0, 0] eliminaç~ ao 1: linha 2 <==> linha 1 [ -1, 1, 1, 0] [ -2, 2, 2, 0] [ -1, 1, 1, 0] [ 0, 0, 0, 0] (-1)*linha 1 ==> linha 1 [ 1, -1, -1, 0] [ -2, 2, 2, 0] [ -1, 1, 1, 0] Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Capı́tulo 5. Espaços Rn 549 [ 0, 0, 0, 0] (2)*linha 1 + linha 2 ==> linha 2 (1)*linha 1 + linha 3 ==> linha 3 [ 1, -1, -1, 0] [ 0, 0, 0, 0] [ 0, 0, 0, 0] [ 0, 0, 0, 0] − { x1 x2 − = x3 0 Este sistema tem como solução geral W = {( β + γ, γ, β, α) | α, β, γ ∈ R} . Agora, para qualquer elemento de W temos: ( β + γ, γ, β, α) = α(0, 0, 0, 1) + β(1, 0, 1, 0) + γ(1, 1, 0, 0). Logo, B = {V1 = (0, 0, 0, 1), V2 = (1, 0, 1, 0), V3 = ((1, 1, 0, 0)} gera W. Como (0, 0, 0, 0) = = ( β + γ, γ, β, α) α(0, 0, 0, 1) + β(1, 0, 1, 0) + γ(1, 1, 0, 0) implica que α = β = γ = 0, então B é base para W. (e) >> A=[2,3,0;0,1,0;0,0,2] >> B=A-x*eye(3) B = [ 2-x, 3, 0] [ 0, 1-x, 0] [ 0, 0, 2-x] >> solve(det(B)) [ 2] [ 2] [ 1] >> B1=subs(B,x,1) B1 = [ 1, 3 ,0] [ 0, 0, 0] [ 0, 0, 1]  x1 + 3x2 x3 = = 0 0 Este sistema tem como solução geral W = {(−3α, α, 0) | α ∈ R} . Julho 2010 Reginaldo J. Santos 550 Respostas dos Exercı́cios Agora, para qualquer elemento de W temos: (−3α, α, 0) = α(−3, 1, 0) . Logo, B = {V = (−3, 1, 0)} gera W. Como um conjunto formado por um único vetor não nulo é sempre L.I., então B é base para W. >> B2=subs(B,x,2) B2 =[ 0, 3, 0] [ 0, -1, 0] [ 0, 0, 0]  3x2 − x2 = = 0 0 Este sistema tem como solução geral W = {(α, 0, β) | α, β ∈ R} . Agora, para qualquer elemento de W temos: (α, 0, β) = α(1, 0, 0) + β(0, 0, 1) . Logo, B = {V1 = (1, 0, 0), V2 = (0, 0, 1)} gera W. Como um vetor não é múltiplo escalar do outro, o conjunto B é L.I. Assim, B é base para W. (f) >> A=[2,3,0;0,2,0;0,0,2] >> B=A-x*eye(3) B =[ 2-x, 3, 0] [ 0, 2-x, 0] [ 0, 0, 2-x] >> solve(det(B)) [ 2][ 2][ 2] >> B2=subs(B,x,2) B2 =[ 0, 3, 0] [ 0, 0, 0] [ 0, 0, 0] { 3x2 = 0 Este sistema tem como solução geral W = {(α, 0, β) | α, β ∈ R} . Agora, para qualquer elemento de W temos: (α, 0, β) = α(1, 0, 0) + β(0, 0, 1) . Logo, B = {V1 = (1, 0, 0), V2 = (0, 0, 1)} gera W. Como um vetor não é múltiplo escalar do outro, o conjunto B é L.I. Assim, B é base para W. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Capı́tulo 5. Espaços Rn 5.2.3. >> N1=[1,-7,5]; >> N2=[3,-1,1]; >> V=pv(N1,N2) V = -2 14 551 20 A equação paramétrica da reta interseção dos dois subespaços é ( x, y, z) = t(−2, 14, 20), para todo t ∈ R. Assim, {V = (−2, 14, 20)} é uma base para a reta. 5.2.4. (a) >> v1=[4,2,-3];v2=[2,1,-2];v3=[-2,-1,0]; >> escalona([v1;v2;v3;zeros(1,3)]’) [ 4, 2, -2, 0] [ 2, 1, -1, 0] [ -3, -2, 0, 0] eliminaç~ ao 1: (1/4)*linha 1 ==> linha 1 [ 1, 1/2, -1/2, 0] [ 2, 1, -1, 0] [ -3, -2, 0, 0] (-2)*linha 1 + linha 2 ==> linha 2 (3)*linha 1 + linha 3 ==> linha 3 [ 1, 1/2, -1/2, 0] [ 0, 0, 0, 0] [ 0, -1/2, -3/2, 0] eliminaç~ ao 2: linha 3 <==> linha 2 [ 1, 1/2, -1/2, 0] [ 0, -1/2, -3/2, 0] [ 0, 0, 0, 0] (-2)*linha 2 ==> linha 2 [ 1, 1/2, -1/2, 0] [ 0, 1, 3, 0] [ 0, 0, 0, 0] (-1/2)*linha 2 + linha 1 ==> linha 1 [ 1, 0, -2, 0] [ 0, 1, 3, 0] [ 0, 0, 0, 0] Os vetores V1 , V2 e V3 são L.D., pois a equação xV1 + yV2 + zV3 = 0̄ admite solução não trivial. (b) Os vetores V1 e V2 são L.I. pois um vetor não é múltiplo escalar do outro. (c) Do item (a) obtemos que a solução de xV1 + yV2 + zV3 = 0̄ é ( x, y, z) = (2α, −3α, α). Tomando α = 1 obtemos 2V1 − 3V2 + V3 = 0̄, ou seja, V3 = −2V1 + 3V2 . Logo, V3 não é necessário para gerar o subespaço gerado por V1 , V2 e V3 . Como pelo item anterior V1 e V2 são L.I., então V1 e V2 formam uma base para o subespaço gerado por V1 , V2 e V3 e a dimensão é 2. (d) É o plano que passa pela origem paralelo aos vetores V1 e V2 ou Julho 2010 Reginaldo J. Santos 552 Respostas dos Exercı́cios >> pv(v1,v2) -1 2 0 Este subespaço é um plano que passa pela origem com vetor normal N = V1 × V2 = (−1, 2, 0), ou seja, é o plano x − 2y = 0. 5.2.5. (a) Não, pois basta tomarmos um vetor que não está no subespaço gerado por V1 e V2 (que é um plano que passa pela origem), que ele não será combinação linear de V1 e V2 . (b) Para que V1 , V2 e V3 formem uma base de R3 basta que V1 , V2 e V3 sejam L.I. Para isso V3 = ( a, b, c) deve ser um vetor que não seja combinação linear de V1 e V2 . (c) Devemos acrescentar um vetor V3 que não seja combinação linear de V1 e V2 . Por exemplo V3 = (0, 0, 1). Como a dimensão do R3 é igual à 3, então pelo Teorema 5.7 na página 315 V3 = (0, 0, 1), é tal que V1 , V2 e V3 formam uma base de R3 . 5.2.6. Fazendo z = α e y = β na equação do plano obtemos que x = −2β − 4α. Assim, os pontos do plano x + 2y + 4z = 0 são da forma ( x, y, z) = (−2β − 4α, β, α), ∀α, β ∈ R, ou seja, são da forma ( x, y, z) = α(−4, 0, 1) + β(−2, 1, 0) = αV1 + βV2 ∀α, β ∈ R, em que V1 = (−4, 0, 1) e V2 = (−2, 1, 0). Assim, V1 e V2 formam uma base do plano W, pois são L.I. (um não é múltiplo escalar do outro) e geram W (todo vetor de W é combinação linear deles). Para estender V1 e V2 a uma base de R3 , precisamos acrescentar um vetor que não seja combinação linear de V1 e V2 . Uma maneira de se conseguir isso é tomar um vetor que não pertença ao plano, ou seja, um vetor ( a, b, c) tal que a + 2b + 4z 6= 0. Por exemplo V3 = (1, 0, 0). 5.2.7. >> V1=[-1,2,3];V2=[1,3,4]; >> N1=pv(V1,V2) N1 = -1 7 -5 >> V3=[1,2,-1];V4=[0,1,1]; >> N2=pv(V3,V4) N2 = 3 -1 1 >> V=pv(N1,N2) V = 2 -14 -20 A reta interseção dos dois subespaços é ( x, y, z) = t(2, −14, −20), para qualquer t ∈ R. Uma base para a reta é {V = (2, −14, −20)}. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Capı́tulo 5. Espaços Rn 5.2.8. 553 (a) V = = = (3a + 4b − 4c, 2a − 4b − 6c, −2a − 4b + 2c) (3a, 2a, −2a) + (4b, −4b, −4b) + (−4c, −6c, 2c) a(3, 2, −2) + b(4, −4, −4) + c(−4, −6, 2). Logo, definindo V1 = (3, 2, −2), V2 = (4, −4, −4) e V3 = (−4, −6, 2), então {V1 , V2 , V3 } gera V. (b) >> V1=[3,2,-2];V2=[4,-4,-4];V3=[-4,-6,2]; >> escalona([V1;V2;V3]’) [ 3, 4, -4] [ 2, -4, -6] [ -2, -4, 2] eliminaç~ ao 1: (1/3)*linha 1 ==> linha 1 [ 1, 4/3, -4/3] [ 2, -4, -6] [ -2, -4, 2] (-2)*linha 1 + linha 2 ==> linha 2 (2)*linha 1 + linha 3 ==> linha 3 [ 1, 4/3, -4/3] [ 0, -20/3, -10/3] [ 0, -4/3, -2/3] eliminaç~ ao 2: (-3/20)*linha 2 ==> linha 2 [ 1, 4/3, -4/3] [ 0, 1, 1/2] [ 0, -4/3, -2/3] (-4/3)*linha 2 + linha 1 ==> linha 1 (4/3)*linha 2 + linha 3 ==> linha 3 [ 1, 0, -2] [ 0, 1, 1/2] [ 0, 0, 0] A solução de xV1 + yV2 + zV3 = 0̄ é ( x, y, z) = (2α, α/2, α). Tomando α = 2 obtemos 4V1 + V2 + 2V3 = 0̄. Ou seja, V2 = −2V3 − 4V1 . Assim, o vetor V2 pode ser descartado na geração de V, pois ele é combinação linear dos outros dois. Logo, apenas V1 e V3 são suficientes para gerar V. Como além disso, os vetores V1 e V3 são tais que um não é múltiplo escalar do outro, então eles são L.I. e portanto {V1 , V3 } é uma base de V. Também {V1 , V2 } ou {V2 , V3 } são bases. 5.2.9. (a) Não pois são necessários 4 vetores L.I. para se obter uma base de R4 (Teorema 5.7 na página 315). (b) V3 e V4 devem ser L.I. e não pertencerem ao subespaço gerado por V1 e V2 . Julho 2010 Reginaldo J. Santos 554 Respostas dos Exercı́cios (c) Escalonando a matriz cujas linhas são V1 e V2 ,  A= obtemos −3 1  R= 1 0 5 −2 2 −1 1 2  ,  0 1 1 1 −12 −7 0 1 0 0 1 1 1 0  −12 −7  0  1 Acrescentando as linhas V3 = [ 0 0 1 0 ] e V4 = [ 0 0 0 1 ]:  1  0 R̄ =  0 0 Vamos verificar que V1 , V2 , V3 e V4 são L.I. x1 V1 + x2 V2 + x3 V3 + x4 V4 = 0̄ é equivalente ao sistema CX = 0̄, em que C = [ V1 V2 V3 V4 ]. Mas como det( R̄) 6= 0 então det(C ) 6= 0, pelo Teorema 2.13 na página 109, pois R̄ pode ser obtida de C t aplicando-se operações elementares. Logo {V1 , V2 , V3 , V4 } é L.I. Como a dimensão do R4 é igual à 4 , então pelo Teorema 5.7 na página 315 V1 , V2 , V3 , V4 formam uma base de R4 . 5.2.10. >> A=triu(randi(4,4,3)) A = -1 -2 1 1 0 2 -2 -2 0 0 -1 2 0 0 0 0 >> B=A-x*eye(4) B = [ -1-x, -2, 1, 1] [ 0, 2-x, -2, -2] [ 0, 0, -1-x, 2] [ 0, 0, 0, -x] >> solve(det(B)) [ -1][ -1][ 2][ 0] >> Bm1=subs(B,x,-1) Bm1 = [ 0, -2, 1, 1] [ 0, 3, -2, -2] [ 0, 0, 0, 2] [ 0, 0, 0, 1] Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Capı́tulo 5. Espaços Rn 555 >> escalona(Bm1) [ 0, 1, 0, 0] [ 0, 0, 1, 0] [ 0, 0, 0, 1] [ 0, 0, 0, 0] x2 ( x3 x4 = = = 0 0 0 Este sistema tem como solução geral W = {(α, 0, 0, 0) | α ∈ R} . Agora, para qualquer elemento de W temos: (α, 0, 0, 0) = α(1, 0, 0, 0) . Logo, B = {V = (1, 0, 0, 0)} gera W. Como um conjunto formado por um único vetor não nulo é sempre L.I., então B é base para W. >> B2=subs(B,x,2) B2 = [ -3, -2, 1, 1] [ 0, 0, -2, -2] [ 0, 0, -3, 2] [ 0, 0, 0, -2] >> escalona(B2) [ 1, 2/3, 0, [ 0, 0, 1, [ 0, 0, 0, [ 0, 0, 0, 0] 0] 1] 0] ( x1 + 2/3x2 x3 x4 = = = 0 0 0 Este sistema tem como solução geral W = {(−2α, 3α, 0, 0) | α ∈ R} . Agora, para qualquer elemento de W temos: (−2α, 3α, 0, 0) = α(−2, 3, 0, 0) . Logo, B = {V = (−2, 3, 0, 0)} gera W. Como um conjunto formado por um único vetor não nulo é sempre L.I., então B é base para W. Julho 2010 Reginaldo J. Santos 556 Respostas dos Exercı́cios >> B0=subs(B,x,0) B0 = [ -1, -2, 1, 1] [ 0, 2, -2, -2] [ 0, 0, -1, 2] [ 0, 0, 0, 0] >> escalona(B0) [ 1, 0, 0, 3] [ 0, 1, 0, -3] [ 0, 0, 1, -2] [ 0, 0, 0, 0] ( x1 x2 x3 − 3x4 −3x4 2x4 = = = 0 0 0 Este sistema tem como solução geral W = {(−3α, 3α, 2α, α) | α ∈ R} . Agora, para qualquer elemento de W temos: (−3α, 3α, 2α, α) α(−3, 3, 2, 1) . = Logo, B = {V = (−3, 3, 2, 1)} gera W. Como um conjunto formado por um único vetor não nulo é sempre L.I., então B é base para W. 5.3. Produto Escalar em Rn (página 352) 5.3.1. >> syms a >> x=[1,1,-2];y=[a,-1,2]; >> solve(pe(x,y)) ans = 5 5.3.2. >> syms a b >> x=[1/2^(1/2),0,1/2^(1/2)];y=[a,1/2^(1/2),-b]; >> sol=solve(pe(x,y),no(y)-1) sol = a: [2x1 sym] b: [2x1 sym] >> sol.a, sol.b ans = [ 1/2] [ -1/2] ans = [ 1/2] [ -1/2] 5.3.3. O conjunto dado consiste dos vetores da forma: (−α − β, β, α) Um Curso de Geometria Analı́tica e Álgebra Linear = = (−α, 0, α) + (− β, β, 0) α(−1, 0, 1) + β(−1, 1, 0) Julho 2010 Capı́tulo 5. Espaços Rn 557 >> v1=[-1,0,1];v2=[-1,1,0]; >> w1=v1; w2=v2-proj(w1,v2); >> u1=w1/no(w1), u2=w2/no(w2) − 12 √ √  u2 = − 16 3 2 u1 =  √ 2 1 3 √  0 12 2 √ √ √ √  3 2 − 16 3 2 5.3.4. O conjunto dado consiste dos vetores da forma: (−α + 2β + γ, γ, β, α) (−α, 0, 0, α) + (2β, 0, β, 0) + (γ, γ, 0, 0) α(−1, 0, 0, 1) + β(2, 0, 1, 0) + γ(1, 1, 0, 0) >> >> >> >> = = v1=[-1,0,0,1];v2=[2,0,1,0];v3=[1,1,0,0]; w1=v1; w2=v2-proj(w1,v2); w3=v3-proj(w1,v3)-proj(w2,v3); u1=w1/no(w1), u2=w2/no(w2), u3=w3/no(w3) √ √  − 12 2 0 0 12 2 √ √   1√ u2 = 3 0 13 3 13 3 3 √ √ √  1 √  1 1 u3 = 42 17 42 − 21 42 42 42 42 u1 =  5.3.5. >> A=[1,1,-1,0;2,1,2,0]; >> escalona(A) 1 0 3 0 0 1 -4 0  x1 x2 + − 3x3 4x3 = = 0 0 Este sistema tem como solução geral W = {(−3α, 4α, α) | α ∈ R} . Agora, para qualquer elemento de W temos: (−3α, 4α, α) = α(−3, 4, 1) . Um conjunto formado por um único vetor não nulo é sempre L.I. Julho 2010 Reginaldo J. Santos 558 Respostas dos Exercı́cios >> v=[-3,4,1]; >> u=v/no(v) √  3 u = − 26 26 2 13 √ 26 1 26 √ 26  5.3.6. >> V1=[1,2,-3]; P1=[0,0,0]; >> V2=[2,4,-6]; P2=[0,1,2]; >> pv(V1,V2) ans = 0 0 0 >> syms x y z; X=[x,y,z]; >> M=[X-P1;V1;P2-P1], expr=det(M) M =[ x, y, z] [ 1, 2, -3] [ 0, 1, 2] expr = 7*x-2*y+z Como o produto vetorial de V1 e V2 (os dois vetores diretores das retas) é igual ao vetor nulo, então as retas são paralelas. Neste −→ caso, os vetores V1 e P1 P2 são não colineares e paralelos ao plano procurado. Assim, 7x − 2y + z = 0 é a equação do plano, que passa pela origem, logo é um subespaço. Este subespaço consiste dos vetores da forma: (α, β, −7α + 2β) >> >> W2 >> U1 U2 5.3.7. >> >> w2 >> w3 >> = = (α, 0, −7α) + (0, β, 2β) α(1, 0, −7) + β(0, 1, 2) V1=[1,0,-7];V2=[0,1,2]; W1=V1; W2=V2-proj(W1,V2) =[ 7/25, 1, 1/25] √  √  U1=W1/no(W1), U2=W2/no(W2) 7 = 2 1/10 2 0 − 10 √ √   7 √ = 45 3 5/9 3 1/45 3 v1=[1,1,-1,0];v2=[0,2,0,1];v3=[-1,0,0,1]; w1=v1; w2=v2-proj(w1,v2) = [-2/3, 4/3, 2/3, 1] w3=v3-proj(w1,v3)-proj(w2,v3) = [-4/11, -3/11, -7/11, 6/11] u1=w1/no(w1),u2=w2/no(w2),u3=w3/no(w3) u1 = u2 = 2 − 33  u3 =  √ √ 11 3 2 − 55 Um Curso de Geometria Analı́tica e Álgebra Linear  √ 110 1 3 √ 1 3 3 4 33 √ 3 √ √ 11 3 3 − 110 √ 110 − 13 2 33 √ 3 0 √ √ 11 3 7 − 110 √ 110  1 11 3 55 √ √  11 3 √ 110  Julho 2010 Capı́tulo 5. Espaços Rn 5.3.8. >> >> w2 >> w3 >> 559 v1=[1,1,1];v2=[0,1,1];v3=[1,2,3]; w1=v1; w2=v2-proj(w1,v2) = [-2/3, 1/3, 1/3] w3=v3-proj(w1,v3)-proj(w2,v3) = [0, -1/2, 1/2] u1=w1/no(w1),u2=w2/no(w2),u3=w3/no(w3) √ √   1√ u1 = 3 13 3 13 3 3 √ √ √ √ √ √   u2 = − 13 2 3 16 2 3 16 2 3 √ √   u3 = 0 − 12 2 12 2 5.3.9. >> >> >> >> syms x y z d expr1=2*x+2*y+2*z+d; P1=[0,0,-d/2]; N=[2,2,2]; P=[1,1,1]; expr2=abs(pe(P-P1,N))/no(N) expr2 = 1/6 |6 + d| √ 3 >> solve(expr2-sqrt(3),d) ans = [ 0][ -12] Os planos 2x + 2y + 2z = 0 e 2x + 2y + 2z − 12 = 0 satisfazem as condições do exercı́cio. Apenas o primeiro plano é um subespaço. Este subespaço consiste dos vetores da forma: (α, β, −α − β) >> >> W2 >> U 1 U2 = = (α, 0, −α) + (0, β, − β) α(1, 0, −1) + β(0, 1, −1) V1=[1,0,-1];V2=[0,1,-1]; W1=V1; W2=V2-proj(W1,V2) = [ -1/2, 1, -1/2]  √ √  U1=W1/no(W1), U2=W2/no(W2) = 1/2 2 0  √ √ −1/2√ 2√ √ √  = −1/6 3 2 1/3 3 2 −1/6 3 2 . 5.4. Mudança de Coordenadas (página 375) 5.4.1. (a) >> >> >> >> >> Julho 2010 v1=sym([1/sqrt(2),-1/sqrt(2)]); v2=sym([1/sqrt(2),1/sqrt(2)]); p=[1,3]; A=[v1;v2;p].’ escalona(A) Reginaldo J. Santos 560 Respostas dos Exercı́cios [1, [0, 0, -2^(1/2)] 1, 2*2^(1/2)] Assim, as coordenadas de P em relação ao sistema S são:  √  − √2 2 2 (b) >> v1=sym([1/sqrt(2),-1/sqrt(2),0]); >> v2=sym([0,0,1]); >> v3=sym([1/sqrt(2),1/sqrt(2),0]); >> p=[2,-1,2]; A=[v1;v2;v3;p].’; >> escalona(A) [ 1, 0, 0, 3/2*2^(1/2)] [ 0, 1, 0, 2] [ 0, 0, 1, 1/2*2^(1/2)] Assim, as coordenadas de P em relação ao sistema S são:   5.4.2. (a) >> >> >>   √ 3 2/2  √2 2/2 v1=sym([-1/sqrt(2),1/sqrt(2)]); v2=sym([1/sqrt(2),1/sqrt(2)]); v=2*v1+v2  √ √ − 2/2 3 2/2 (b) >> v1=sym([0,1/sqrt(2),-1/sqrt(2)]); >> v2=sym([1,0,0]); >> v3=sym([0,1/sqrt(2),1/sqrt(2)]); >> v=-v1+v2+2*v3 v = 3 1 3   √ √ 2/2 3 2/2 1 " # " 1 0 0 , 1 5.4.3. As coordenadas de U1 , U2 e U3 em relação ao sistema S = {O, U1 , U2 , U3 } são dadas por 0  "   "0 # " # 1 0 1 0 1 1 √ 0 √ 0 0 , U2 =  0 √1/2 − 3/2  vamente. Assim, U1 =  0 √1/2 − 3/2  0 = 0 0 0 3/2 1/2 0 3/2 1/2 Um Curso de Geometria Analı́tica e Álgebra Linear # 0 0 , respecti1 # " # 0 0 1/2 1 = e √ 0 3/2 # " e Julho 2010 Capı́tulo 5. Espaços Rn  1 U3 =  0 0 0 1/2 √ 3/2 561  # 0 " 0 # " √0  − 3/2 0 = − 3/2 1 1/2 1/2 √ 5.4.4. >> p=sym([sqrt(3),1]).’; pr=sym([sqrt(3),-1]).’; >> A=[cos(th),-sin(th);sin(th),cos(th)]; >> expr=A*pr-p expr = [ cos(th)*3^(1/2)+sin(th)-3^(1/2)] [ sin(th)*3^(1/2)-cos(th)-1] >> solve(expr(1,1),expr(2,1),th) ans = 1/3*pi A rotação é de π/3. 5.4.5. (a) Fazendo z = 0 obtemos 3x − base do plano. √ 3y = 0. Tomando x = √ 3, obtemos y = 3. Assim, podemos tomar como primeiro vetor da √ V1 = ( 3, 3, 0). Fazendo y = 0 obtemos 3x + 2z = 0. Tomando x = −2, obtemos z = 3. Assim, podemos tomar como segundo vetor da base do plano V2 = (−2, 0, 3). Agora vamos encontrar uma base ortogonal do plano √ W1 = V1 = ( 3, 3, 0) W2 = = = V2 − projW1 V2 √ −2 3 √ ( 3, 3, 0) (−2, 0, 3) − 12 √ √ 3 3 1 (− , , 3) = (−3, 3, 6) 2 2 2 √ (b) Para completar a uma base ortogonal de R3 basta completarmos com o vetor normal do plano W3 = (3, − 3, 2). Assim, a base ortonormal do R3 é √ 1 √ 3 1 U1 = √ ( 3, 3, 0) = ( , , 0) 2 2 2 3 √ √ √ 1 3 1 3 U2 = √ (−3, 3, 6) = (− , , ) 4 4 2 4 3 √ √ 1 3 3 1 U3 = (3, − 3, 2) = ( , − , ) 4 4 4 2 Julho 2010 Reginaldo J. Santos 562 Respostas dos Exercı́cios (c) Seja Q = [ U1 U2 U3 ] X = QX 0 X 0 = Qt X √ 1 3 3 [~i ]{O,U1 ,U2 ,U3 } = Qt [ 1 0 0 ]t = ( , − , ) 2 4 4 √ √ 3 1 3 [~j]{O,U1 ,U2 ,U3 } = Qt [ 0 1 0 ]t = ( , ,− ) 2 4 4 √ 3 1 [~k]{O,U1 ,U2 ,U3 } = Qt [ 0 0 1 ]t = (0, , ) 2 2 5.4.6. " Um Curso de Geometria Analı́tica e Álgebra Linear x0 y0 z0 # " = 1 0 0 0 cos θ −sen θ 0 sen θ cos θ #" x y z # Julho 2010 Capı́tulo 6. Diagonalização 563 6.1. Diagonalização de Matrizes (página 404) 6.1.1. (a) >> A=[1,1;1,1]; >> B=A-x*eye(2) [1-x, 1] [ 1, 1-x] >> p=det(B) p =-2*x+x^2 >> solve(p) [0][2] >> B0=subs(B,x,0) [1, 1] [1, 1] >> escalona(B0) 1 1 0 0 >> B2=subs(B,x,2) [-1, 1] [ 1, -1] >> escalona(B2) 1 -1 0 0 (b) >> A=[1,-1;2,4]; >> B=A-x*eye(2) [1-x, -1] [ 2, 4-x] >> p=det(B) p =6-5*x+x^2 >> solve(p) [3][2] >> B2=subs(B,x,2) [-1, -1] [ 2, 2] >> escalona(B2) 1 1 0 0 >> B3=subs(B,x,3) [-2, -1] [ 2, 1] >> escalona(B3) 1 1/2 0 0 V0 = {(−α, α) | α ∈ R} V2 = {(−α, α) | α ∈ R} V2 = {(α, α) | α ∈ R} V3 = {(−α, 2α) | α ∈ R} (c) >> A=[0,1,2;0,0,3;0,0,0]; >> B=A-x*eye(3) [-x, 1, 2] [ 0, -x, 3] [ 0, 0, -x] >> p=det(B) p=-x^3 >> solve(p) [0][0][0] >> B0=subs(B,x,0) [0, 1, 2] [0, 0, 3] [0, 0, 0] >> escalona(B0) [0, 1, 0] [0, 0, 1] [0, 0, 0] V0 = {(α, 0, 0) | α ∈ R} (d) Julho 2010 Reginaldo J. Santos 564 Respostas dos Exercı́cios >> A=[1,0,0;-1,3,0;3,2,-2]; >> B=A-x*eye(3) [1-x, 0, 0] [ -1, 3-x, 0] [ 3, 2, -2-x] >> p=det(B) p =(1-x)*(3-x)*(-2-x) >> solve(p) [ 1][ 3][-2] >> B1=subst(B,x,1) [ 0, 0, 0] [-1, 2, 0] [ 3, 2, -3] >> escalona(B1) [1, 0, -3/4] [0, 1, -3/8] [0, 0, 0] >> Bm2=subs(B,x,-2) [ 3, 0, 0] [-1, 5, 0] [ 3, 2, 0] >> escalona(Bm2) [1, 0, 0] [0, 1, 0] [0, 0, 0] >> B3=subs(B,x,3) [-2, 0, 0] [-1, 0, 0] [ 3, 2, -5] >> escalona(B3) [1, 0, 0] [0, 1, -5/2] [0, 0, 0] V−2 = {(0, 0, α) | α ∈ R} V1 = {(6α, 3α, 8α) | α ∈ R} V3 = {(0, 5α, 2α) | α ∈ R} (e) >> A=[2,-2,3;0,3,-2;0,-1,2]; >> B=A-x*eye(3) [2-x, -2, 3] [ 0, 3-x, -2] [ 0, -1, 2-x] >> p=det(B) p =(2-x)*(4-5*x+x^2) >> solve(p) [2][4][1] >> B1=subs(B,x,1) [1, -2, 3] [0, 2, -2] [0, -1, 1] >> escalona(B1) [1, 0, 1] [0, 1, -1] [0, 0, 0] >> B2=subs(B,x,2) [0, -2, 3] [0, 1, -2] [0, -1, 0] >> escalona(B2) [0, 1, 0] [0, 0, 1] [0, 0, 0] >> B4=subs(B,x,4) [-2, -2, 3] [ 0, -1, -2] [ 0, -1, -2] >> escalona(B4) [1, 0, -7/2] [0, 1, 2] [0, 0, 0] V1 = {(−α, α, α) | α ∈ R} V2 = {(α, 0, 0) | α ∈ R} Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Capı́tulo 6. Diagonalização 565 V4 = {(7α, −4α, 2α) | α ∈ R} (f) >> A=[2,2,3;1,2,1;2,-2,1]; >> B=A-x*eye(3) [2-x, 2, 3] [ 1, 2-x, 1] [ 2, -2, 1-x] >> p=det(B) p =-8-2*x+5*x^2-x^3 >> solve(p) [ 2][ 4][-1] >> Bm1=subs(B,x,-1) [3, 2, 3] [1, 3, 1] [2, -2, 2] >> escalona(Bm1) [1, 0, 1] [0, 1, 0] [0, 0, 0] >> B2=subs(B,x,2) [0, 2, 3] [1, 0, 1] [2, -2, -1] >> escalona(B2) [1, 0, 1] [0, 1, 3/2] [0, 0, 0] >> B4=subs(B,x,4) [-2, 2, 3] [ 1, -2, 1] [ 2, -2, -3] >> escalona(B4) [1, 0, -4] [0, 1, -5/2] [0, 0, 0] V−1 = {(−α, 0, α) | α ∈ R}, V2 = {(−2α, −3α, 2α) | α ∈ R} e V4 = {(8α, 5α, 2α) | α ∈ R} 6.1.2. (a) >> A=[2,0,0;3,-1,0;0,4,3]; >> B2=subs(B,x,2) >> B=A-x*eye(3) [0, 0, 0] [2-x, 0, 0] [3, -3, 0] [ 3, -1-x, 0] [0, 4, 1] [ 0, 4, 3-x] >> escalona(B2) >> p=det(B) [1, 0, 1/4] p =(2-x)*(-1-x)*(3-x) [0, 1, 1/4] >> solve(p) [0, 0, 0] [ 2][-1][ 3] >> B3=subst(B,x,3) >> Bm1=subs(B,x,-1) [-1, 0, 0] [3, 0, 0] [ 3, -4, 0] [3, 0, 0] [ 0, 4, 0] [0, 4, 4] >> escalona(B3) >> escalona(Bm1) [1, 0, 0] [1, 0, 0] [0, 1, 0] [0, 1, 1] [0, 0, 0] [0, 0, 0] V−1 = {(0, −α, α) | α ∈ R}. {(0, −1, 1)} é base para V−1 , pois gera V−1 ((0, −α, α) = α(0, −1, 1)) e um vetor não nulo é L.I. Julho 2010 Reginaldo J. Santos 566 Respostas dos Exercı́cios V2 = {(−α, −α, 4α) | α ∈ R}. {(−1, −1, 4)} é base para V2 , pois gera V2 ((−α, −α, 4α) = α(−1, −1, 4)) e um vetor não nulo é L.I. V3 = {(0, 0, α) | α ∈ R}. {(0, 0, 1)} é base para V3 , pois gera V3 ((0, 0, α) = α(0, 0, 1)) e um vetor não nulo é L.I. (b) >> A=[2,3,0;0,1,0;0,0,2]; >> B=A-x*eye(3) [2-x, 3, 0] [ 0, 1-x, 0] [ 0, 0, 2-x] >> p=det(B) p =(2-x)^2*(1-x) >> solve(p) [2][2][1] >> B1=subs(B,x,1) [1, 3, 0] [0, 0, 0] [0, 0, 1] >> escalona(B1) [1, 3, 0] [0, 0, 1] [0, 0, 0] >> B2=subs(B,x,2) [0, 3, 0] [0, -1, 0] [0, 0, 0] >> escalona(B2) [0, 1, 0] [0, 0, 0] [0, 0, 0] V1 = {(−3α, α, 0) | α ∈ R}. {(−3, 1, 0)} é base para V1 , pois gera V1 ((−3α, α, 0) = α(−3, 1, 0)) e um vetor não nulo é L.I. V2 = {(α, 0, β) | α, β ∈ R}. {V1 = (1, 0, 0), V2 = (0, 0, 1)} é base para V2 , pois gera V2 ((α, 0, β) = α(1, 0, 0) + β(0, 0, 1)) e é L.I. (xV1 + yV2 = 0̄ se, e somente se, ( x, 0, y) = (0, 0, 0) ou x = 0 e y = 0). (c) >> A=[1,2,3,4;0,-1,3,2;0,0,3,3;0,0,0,2]; >> B=A-x*eye(4) [1-x, 2, 3, 4] [ 0, -1-x, 3, 2] [ 0, 0, 3-x, 3] [ 0, 0, 0, 2-x] >> p=det(B) p =(1-x)*(2-x)*(-1-x)*(3-x) >> solve(p) [ 1][ 2][-1][ 3] Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Capı́tulo 6. Diagonalização 567 >> Bm1=subs(B,x,-1) [2, 2, 3, 4] [0, 0, 3, 2] [0, 0, 4, 3] [0, 0, 0, 3] >> escalona(Bm1) [1, 1, 0, 0] [0, 0, 1, 0] [0, 0, 0, 1] [0, 0, 0, 0] >> B1=subs(B,x,1) [0, 2, 3, 4] [0, -2, 3, 2] [0, 0, 2, 3] [0, 0, 0, 1] >> escalona(B1) [0, 1, 0, 0] [0, 0, 1, 0] [0, 0, 0, 1] [0, 0, 0, 0] >> B2=subs(B,x,2) [-1, 2, 3, 4] [ 0, -3, 3, 2] [ 0, 0, 1, 3] [ 0, 0, 0, 0] >> escalona(B2) [1, 0, 0, 29/3] [0, 1, 0, 7/3] [0, 0, 1, 3] [0, 0, 0, 0] >> B3=subst(B,x,3) [-2, 2, 3, 4] [ 0, -4, 3, 2] [ 0, 0, 0, 3] [ 0, 0, 0, -1] >> escalona(B3) [1, 0, -9/4, 0] [0, 1, -3/4, 0] [0, 0, 0, 1] [0, 0, 0, 0] V−1 = {(−α, α, 0, 0) | α ∈ R}. {(−1, 1, 0, 0)} é base para V−1 , pois gera V−1 ((−α, α, 0, 0) = α(−1, 1, 0, 0)) e um vetor não nulo é L.I. V1 = {(α, 0, 0, 0) | α ∈ R}. {(1, 0, 0, 0)} é base para V1 , pois gera V1 ((α, 0, 0, 0) = α(1, 0, 0, 0)) e um vetor não nulo é L.I. V2 = {(−29α, −7α, −9α, 3α) | α ∈ R}. {(−29, −7, −9, 3)} é base para V2 , pois gera V2 ((−29α, −7α, −9α, 3α) = α(−29, −7, −9, 3)) e um vetor não nulo é L.I. V3 = {(9α, 3α, 4α, 0) | α ∈ R}. {(9, 3, 4, 0)} é base para V3 , pois gera V3 ((9α, 3α, 4α, 0) = α(9, 3, 4, 0)) e um vetor não nulo é L.I. (d) >> A=[2,2,3,4;0,2,3,2;0,0,1,1;0,0,0,1]; >> B=A-x*eye(4) [2-x, 2, 3, 4] [ 0, 2-x, 3, 2] [ 0, 0, 1-x, 1] [ 0, 0, 0, 1-x] >> p=det(B) p =(2-x)^2*(1-x)^2 >> solve(p) [2][2][1][1] Julho 2010 Reginaldo J. Santos 568 Respostas dos Exercı́cios >> B1=subs(B,x,1) [1, 2, 3, 4] [0, 1, 3, 2] [0, 0, 0, 1] [0, 0, 0, 0] >> escalona(B1) [1, 0, -3, 0] [0, 1, 3, 0] [0, 0, 0, 1] [0, 0, 0, 0] >> B2=subs(B,x,2) [0, 2, 3, 4] [0, 0, 3, 2] [0, 0, -1, 1] [0, 0, 0, -1] >> escalona(B2) [0, 1, 0, 0] [0, 0, 1, 0] [0, 0, 0, 1] [0, 0, 0, 0] V1 = {(3α, −3α, α, 0) | α ∈ R}. {(3, −3, 1, 0)} é base para V1 , pois gera V1 ((3α, −3α, α, 0) = α(3, −3, 1, 0)) e um vetor não nulo é L.I. V2 = {(α, 0, 0, 0) | α ∈ R}. {(1, 0, 0, 0)} é base para V2 , pois gera V2 ((α, 0, 0, 0) = α(1, 0, 0, 0)) e um vetor não nulo é L.I. 6.1.3. (a) >> A=[1,4;1,-2]; >> B=A-x*eye(2) [1-x, 4] [ 1, -2-x] >> p=det(B) p =-6+x+x^2 >> solve(p) [ 2][-3] A matriz A possui dois autovalores diferentes, logo possui dois autovetores L.I. (Proposição 6.4 na página 395). A matriz A é diagonalizável pois, é 2 × 2 e possui dois autovetores L.I. (Teorema 6.3 na página 393). (b) >> A=[1,0;-2,1]; >> B=A-x*eye(2) [1-x, 0] [ -2, 1-x] >> p=det(B) p =(1-x)^2 >> solve(p) [1][1] >> B1=subs(B,x,1) [ 0, 0] [-2, 0] >> escalona(numeric(B1)) [1, 0] [0, 0] V1 = {(α, 0) | α ∈ R} A matriz A não é diagonalizável pois, não possui dois autovetores L.I. (Teorema 6.3 na página 393). (c) >> A=[1,1,-2;4,0,4;1,-1,4] A = 1 1 4 0 1 -1 >> B=A-x*eye(3); p=det(B) p =5*x^2-6*x-x^3 >> solve(p) ans =[0][2][3] -2 4 4 Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Capı́tulo 6. Diagonalização 569 A matriz A possui três autovalores diferentes, logo possui três autovetores L.I. (Proposição 6.4 na página 395). A matriz A é diagonalizável pois, é 3 × 3 e possui três autovetores L.I. (Teorema 6.3 na página 393). (d) >> A=[1,2,3;0,-1,2;0,0,2]; >> p=det(B) >> B=A-x*eye(3) p =(1-x)*(-1-x)*(2-x) A matriz A possui três [1-x, 2, 3] >> solve(p) [ 0, -1-x, 2] [ 1][-1][ 2] [ 0, 0, 2-x] autovalores diferentes, logo possui três autovetores L.I. (Proposição 6.4 na página 395). A matriz A é diagonalizável pois, é 3 × 3 e possui três autovetores L.I. (Teorema 6.3 na página 393). 6.1.4. (a) >> A=[1,1,2;0,1,0;0,1,3]; >> B=A-x*eye(3) [1-x, 1, 2] [ 0, 1-x, 0] [ 0, 1, 3-x] >> p=det(B) p =(1-x)^2*(3-x) >> solve(p) [1][1][3] >> B1=subs(B,x,1) [0, 1, 2] [0, 0, 0] [1, 1, 2] >> escalona(B1) [ 0, 1, 2] [ 0, 0, 0] [ 0, 0, 0] >> B3=subs(B,x,3) [ -2, 1, 2] [ 0, -2, 0] [ 0, 1, 0] >> escalona(B3) [ 1, 0, -1] [ 0, 1, 0] [ 0, 0, 0] V1 = {( β, −2α, α) | α, β ∈ R}. {(1, 0, 0), (0, −2, 1)} é base para V1 , pois gera V1 (( β, −2α, α) = α(0, −2, 1) + β(1, 0, 0)) e são L.I. (um vetor não é múltiplo escalar do outro) V3 = {((α, 0, α) | α ∈ R}. {(1, 0, 1)} é base para V3 , pois gera V3 ((α, 0, α) = α(1, 0, 1)) e um vetor não nulo é L.I. " P= 1 0 0 0 −2 1 1 0 1 # " e D= 1 0 0 0 1 0 0 0 3 # (b) >> A=[4,2,3;2,1,2;-1,-2,0]; >> B=A-x*eye(3) [4-x, 2, 3] [ 2, 1-x, 2] Julho 2010 Reginaldo J. Santos 570 Respostas dos Exercı́cios [ -1, -2, -x] >> p=det(B) p =-7*x+5*x^2+3-x^3 >> solve(p) [3][1][1] >> B1=subs(B,x,1) [ 3, 2, 3] [ 2, 0, 2] [-1, -2, -1] >> escalona(B1) [1, 0, 1] [0, 1, 0] [0, 0, 0] >> B3=subs(B,x,3) [ 1, 2, 3] [ 2, -2, 2] [-1, -2, -3] >> escalona(B3) [1, 0, 5/3] [0, 1, 2/3] [0, 0, 0] V1 = {(−α, 0, α) | α ∈ R}. {(−1, 0, 1)} é base para V1 , pois gera V1 ((−α, 0, α) = α(−1, 0, 1)) e um vetor não nulo é L.I. V2 = {(−5α, −2α, 3α) | α ∈ R}. {(−5, −2, 3)} é base para V2 , pois gera V2 ((−5α, −2α, 3α) = α(−5, −2, 3)) e um vetor não nulo é L.I. A matriz não é diagonalizável pois só possui dois autovalores e cada um deles só possui um autovetor L.I. associado (Teorema 6.3 na página 393). (c) >> A=[1,2,3;0,1,0;2,1,2]; >> B=A-x*eye(3) [1-x, 2, 3] [ 0, 1-x, 0] [ 2, 1, 2-x] >> p=det(B) p =-4+x+4*x^2-x^3 >> solve(p) [ 1][ 4][-1] >> B1=subst(B,x,1) [0, 2, 3] [0, 0, 0] [2, 1, 1] >> escalona(B1) [1, 0, -1/4] [0, 1, 3/2] [0, 0, 0] V−1 = {(−3α, 0, 2α) | α ∈ R}. {(−3, 0, 2)} é base para V−1 , pois gera V−1 L.I. >> Bm1=subs(B,x,-1) [2, 2, 3] [0, 2, 0] [2, 1, 3] >> escalona(Bm1) [1, 0, 3/2] [0, 1, 0] [0, 0, 0] >> B4=subs(B,x,4) [-3, 2, 3] [ 0, -3, 0] [ 2, 1, -2] >> escalona(B4) [1, 0, -1] [0, 1, 0] [0, 0, 0] ((−3α, 0, 2α) = α(−3, 0, 2)) e um vetor não nulo é V1 = {(α, −6α, 4α) | α ∈ R}. {(1, −6, 4)} é base para V1 , pois gera V1 ((α, −6α, 4α) = α(1, −6, 4)) e um vetor não nulo é L.I. V4 = {(α, 0, α) | α ∈ R}. {(1, 0, 1)} é base para V4 , pois gera V4 ((α, 0, α) = α(1, 0, 1)) e um vetor não nulo é L.I. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Capı́tulo 6. Diagonalização 571 " P= −3 0 2 1 −6 4 1 0 1 # " e D= −1 0 0 0 1 0 0 0 4 # (d) >> A=[3,-2,1;0,2,0;0,0,0]; >> B0=subs(B,x,0) >> B=A-x*eye(3) [3, -2, 1] [3-x, -2, 1] [0, 2, 0] [ 0, 2-x, 0] [0, 0, 0] [ 0, 0, -x] >> escalona(B0) >> p=det(B) [1, 0, 1/3] p =-(3-x)*(2-x)*x [0, 1, 0] >> solve(p) [0, 0, 0] [3][2][0] >> B2=subs(B,x,2) >> B3=subs(B,x,3) [1, -2, 1] [0, -2, 1] [0, 0, 0] [0, -1, 0] [0, 0, -2] [0, 0, -3] >> escalona(B2) >> escalona(B3) [1, -2, 0] [0, 1, 0] [0, 0, 1] [0, 0, 1] [0, 0, 0] [0, 0, 0] V0 = {(−α, 0, 3α) | α ∈ R}. {(−1, 0, 3)} é base para V0 , pois gera V0 ((−α, 0, 3α) = α(−1, 0, 3)) e um vetor não nulo é L.I. V2 = {(2α, α, 0) | α ∈ R}. {(2, 1, 0)} é base para V2 , pois gera V2 ((2α, α, 0) = α(2, 1, 0)) e um vetor não nulo é L.I. V3 = {(α, 0, 0) | α ∈ R}. {(1, 0, 0)} é base para V3 , pois gera V3 ((α, 0, 0) = α(1, 0, 0)) e um vetor não nulo é L.I. " P= 6.1.5. −1 0 3 2 1 0 1 0 0 # " e D= 0 0 0 0 2 0 0 0 3 # (a) >> V1=[-4,-4,-1]’; >> V2=[5,4,1]’; >> V3=[5,3,1]’; >> A=sym([-1/3,-5/6,20/3;-2/3,-1/6,16/3;-1/6,-1/6,11/6]); >> [A*V1,A*V2,A*V3] [ -2, 5/3, 5/2] [ -2, 4/3, 3/2] [ -1/2, 1/3, 1/2] Se V é autovetor de A então AV = λV, ou seja, AV é um múltiplo escalar de V. Assim, concluı́mos que V1 é autovetor associado a λ1 = 1/2, V2 é autovetor associado a λ2 = 1/3 e V3 é autovetor associado a λ3 = 1/2. Julho 2010 Reginaldo J. Santos 572 Respostas dos Exercı́cios (b) V1 e V3 são autovetores associados a 1/2 e V2 associado a 1/3. Como {V1 , V3 } é L.I. (um não é múltiplo escalar do outro) e ao juntarmos autovetores L.I. associados a diferentes autovalores eles continuam L.I., então a matriz A tem 3 autovetores L.I. Como ela é 3 × 3, é portanto diagonalizável. 6.1.6. 6.1.7. >> B=randi(2), A=[B-B’,zeros(2,1);zeros(1,2),randi] B = 5 -1 3 0 A = 0 -4 0 4 0 0 0 0 -3 >> syms x, p=det(A-x*eye(3)), solve(p) p = -3*x^2-x^3-48-16*x ans = [ -3][ 4*i][ -4*i] >> escalona(A+3*eye(3)) ans =[ 1, 0, 0] [ 0, 1, 0] [ 0, 0, 0] A matriz A não é diagonalizável pois ela só tem um autovalor e auto espaço associado a este autovalor tem dimensão 2. Assim, não é possı́vel encontrar 3 autovetores L.I. 6.1.8. >> L=[eye(2),zeros(2,1);randi(1,2),0]; A=L*L’ A = 1 0 2 0 1 -2 2 -2 8 >> syms x, p=det(A-x*eye(3)), solve(p) p = -9*x+10*x^2-x^3 ans = [ 0][ 1][ 9] >> escalona(A) ans =[ 1, 0, 2] [ 0, 1, -2] [ 0, 0, 0] O autoespaço associado ao autovalor λ = 0 é V0 = {(−2α, 2α, α) | α ∈ R}. Assim, {V1 = (−2, 2, 1)} é um conjunto com o maior número possı́vel de autovetores L.I. associado a λ = 0. >> escalona(A-eye(3)) ans =[ 1, -1, 0] [ 0, 0, 1] [ 0, 0, 0] O autoespaço associado ao autovalor λ = 1 é V1 = {(α, α, 0) | α ∈ R}. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Capı́tulo 6. Diagonalização 573 Assim, {V2 = (1, 1, 0)} é um conjunto com o maior número possı́vel de autovetores L.I. associado a λ = 1. >> escalona(A-9*eye(3)) ans =[ 1, 0, -1/4] [ 0, 1, 1/4] [ 0, 0, 0] O autoespaço associado ao autovalor λ = 9 é V9 = {(α, −α, 4α) | α ∈ R}. Assim, {V3 = (1, −1, 4)} é um conjunto com o maior número possı́vel de autovetores L.I. associado a λ = 9. >> V1=[-2,2,1];V2=[1,1,0];V3=[1,-1,4]; >> P=[V1’,V2’,V3’], D=diag([0,1,9]) P = -2 1 1 2 1 -1 1 0 4 D = 0 0 0 0 1 0 0 0 9 >> inv(P)*A*P ans = 0 0 0 0 1 0 0 0 9 >> [P,D]=eig(sym(A)) P =[ -1, -2, 1] [ 1, 2, 1] [ -4, 1, 0] D =[ 9, 0, 0] [ 0, 0, 0] [ 0, 0, 1] Os elementos da diagonal da matriz D têm que ser os autovalores de A. As matrizes D podem diferir na ordem com que os autovalores aparecem. As colunas de P são autovetores associados aos autovalores que aparecem nas colunas correspondentes de D. Assim, fazendo uma reordenação das colunas das matrizes P e D de forma que as matrizes D sejam iguais, as colunas de uma matriz P são múltiplos escalares das colunas correspondentes da outra matriz P. 6.2. Diagonalização de Matrizes Simétricas (página 421) 6.2.1. (a) >> A=[2,2;2,2]; >> B=A-x*eye(2) [2-x, 2] [ 2, 2-x] >> p=det(B) Julho 2010 Reginaldo J. Santos 574 Respostas dos Exercı́cios p =-4*x+x^2 >> solve(p) [0][4] >> B0=subs(B,x,0) >> B4=subs(B,x,4) [2, 2] [-2, 2] [2, 2] [ 2, -2] >> escalona(B0) >> escalona(B4) [1, 1] [1, -1] [0, 0] [0, 0] V0 = {(−α, α) | α ∈ R}. {√ V1 = (− √ 1, 1)} é base para √ V0 , pois √ gera V0 ((−α, α) = α(−1, 1)) e um vetor não nulo é L.I. Seja W1 = (1/||V1 ||)V1 = (−1/ 2, 1/ 2). {W1 = (−1/ 2, 1/ 2)} é base ortonormal de V0 . V4 = {(α, α) | α ∈ R}.√{V2 √ = (1, 1)} é base√para √ V4 , pois gera V4 ((α, α) = α(1, 1)) e um vetor não nulo é L.I. Seja W2 = (1/||V2 ||)V2 = (1/ 2, 1/ 2). {W2 = (1/ 2, 1/ 2)} é base ortonormal de V4 .  P= √ −1/√2 1/ 2 √  1/√2 1/ 2  e D= 0 0 0 4  (b) >> A=[2,1;1,2]; >> B=A-x*eye(2) [2-x, 1] [ 1, 2-x] >> p=det(B) p =3-4*x+x^2 >> solve(p) [3][1] >> B1=subs(B,x,1) >> B3=subs(B,x,3) [1, 1] [-1, 1] [1, 1] [ 1, -1] >> escalona(numeric(B1)) >> escalona(B3) [1, 1] [1, -1] [0, 0] [0, 0] V1 = {(−α, α) | α ∈ R}. {√ V1 = (− √ 1, 1)} é base para √ V1 , pois √ gera V1 ((−α, α) = α(−1, 1)) e um vetor não nulo é L.I. Seja W1 = (1/||V1 ||)V1 = (−1/ 2, 1/ 2). {W1 = (−1/ 2, 1/ 2)} é base ortonormal de V1 . V3 = {(α, α) | α ∈ R}.√{V2 √ = (1, 1)} é base√para √ V3 , pois gera V3 ((α, α) = α(1, 1)) e um vetor não nulo é L.I. Seja W2 = (1/||V2 ||)V2 = (1/ 2, 1/ 2). {W2 = (1/ 2, 1/ 2)} é base ortonormal de V3 .  P= Um Curso de Geometria Analı́tica e Álgebra Linear √ −1/√2 1/ 2 √  1/√2 1/ 2  e D= 1 0 0 3  Julho 2010 Capı́tulo 6. Diagonalização 575 (c) >> A=[0,0,1;0,0,0;1,0,0]; >> B=A-x*eye(3) [-x, 0, 1] [ 0, -x, 0] [ 1, 0, -x] >> p=det(B) p =-x^3+x >> solve(p) [ 0][-1][ 1] >> Bm1=subs(B,x,-1) [1, 0, 1] [0, 1, 0] [1, 0, 1] >> escalona(Bm1) [1, 0, 1] [0, 1, 0] [0, 0, 0] V0 = {(0, α, 0) | α ∈ R}. {V1 = (0, 1, 0)} é base para V0 , pois gera V0 {V1 = (0, 1, 0)} é base ortonormal de V0 , pois ||V1 || = 1. >> B0=subs(B,x,0) [0, 0, 1] [0, 0, 0] [1, 0, 0] >> escalona(B0) [1, 0, 0] [0, 0, 1] [0, 0, 0] >> B1=subs(B,x,1) [-1, 0, 1] [ 0, -1, 0] [ 1, 0, -1] >> escalona(B1) [1, 0, -1] [0, 1, 0] [0, 0, 0] ((0, α, 0) = α(0, 1, 0)) e um vetor não nulo é L.I. V−1 = {(−α, 0, α) | α ∈ R}. {V2 = (− √ gera√V−1 ((−α, 0, α) = α(−1, 0, 1)) e um vetor não nulo √1, 0, 1)}√é base para V−1 , pois é L.I. Seja W2 = (1/||V2 ||)V2 = (−1/ 2, 0, 1/ 2). {W2 = (−1/ 2, 0, 1/ 2)} é base ortonormal de V−1 . V1 = {(α, 0, α) | α ∈ R}.√{V3 = (√ 1, 0, 1)} é base para √ V1 , pois √ gera V1 ((α, 0, α) = α(1, 0, 1)) e um vetor não nulo é L.I. Seja W3 = (1/||V3 ||)V3 = (1/ 2, 0, 1/ 2). {W3 = (1/ 2, 0, 1/ 2)} é base ortonormal de V1 . Como a matriz A é simétrica, autovetores associados a autovalores diferentes são ortogonais (Proposição 6.6 na página 414). Portanto, {W1 , W2 , W3 } é uma base ortonormal de autovetores de A.  0 P= 1 0 Julho 2010 √ −1/ 2 √0 1/ 2 √  1/ 2  √0 1/ 2 " e D= 0 0 0 0 −1 0 0 0 1 # Reginaldo J. Santos 576 Respostas dos Exercı́cios (d) >> A=[0,0,0;0,2,2;0,2,2]; >> B=A-x*eye(3) [-x, 0, 0] [ 0, 2-x, 2] [ 0, 2, 2-x] >> p=det(B) p =-x*(-4*x+x^2) >> solve(p) [0][0][4] >> B0=subs(B,x,0) [0, 0, 0] [0, 2, 2] [0, 2, 2] >> escalona(B0) [0, 1, 1] [0, 0, 0] [0, 0, 0] >> B4=subs(B,x,4) [-4, 0, 0] [ 0, -2, 2] [ 0, 2, -2] >> escalona(B4) [1, 0, 0] [0, 1, -1] [0, 0, 0] V0 = {(α, − β, β) | α, β ∈ R}. {V1 = (1, 0, 0), V2 = (0, −1, 1)} é base para V0 , pois gera V0 ((α, − β, β) = α(1, 0, 0) + β(0, −1, 1)) e é L.I. (xV1 + yV2 = 0̄ se, e somente se, ( x, −y, y) = (0, 0, 0) ou x = 0 e y = 0). Sejam W1 =√V1 , W√ 2 = V2 − projW1 V2 = V2 − 0̄ = V2 . Sejam U1 = (1/||W1 ||)W1 = W1 = V1 = (1, 0, 0) e U2 = (1/||W2 ||)W2 = (0, −1/ 2, 1/ 2). √ √ {U1 = (1, 0, 0), U2 = ((0, −1/ 2, 1/ 2)} é base ortonormal de V0 . V4 = {(0, α, α) | α ∈ R}. {V√ V4 , pois 3 = (0, √1, 1)} é base para √ √ gera V4 ((0, α, α) = α(0, 1, 1)) e um vetor não nulo é L.I. Seja U3 = (1/||V3 ||)V3 = (0, 1/ 2, 1/ 2). {U3 = (0, 1/ 2, 1/ 2)} é base ortonormal de V4 . Como a matriz A é simétrica, autovetores associados a autovalores diferentes são ortogonais (Proposição 6.6 na página 414). Portanto, {U1 , U2 , U3 } é uma base ortonormal de autovetores de A.  1 P= 0 0 (e) >> A=[1,1,0;1,1,0;0,0,1]; >> B=A-x*eye(3) [1-x, 1, 0] [ 1, 1-x, 0] [ 0, 0, 1-x] >> p=det(B) p =-2*x+3*x^2-x^3 >> solve(p) [0][1][2] Um Curso de Geometria Analı́tica e Álgebra Linear √0 −1/√2 1/ 2  √0 1/√2  1/ 2 " e D= 0 0 0 0 0 0 0 0 4 # >> B0=subs(B,x,0) [1, 1, 0] [1, 1, 0] [0, 0, 1] >> escalona(B0) [1, 1, 0] [0, 0, 1] [0, 0, 0] Julho 2010 Capı́tulo 6. Diagonalização 577 >> B1=subs(B,x,1) [0, 1, 0] [1, 0, 0] [0, 0, 0] >> escalona(B1) [1, 0, 0] [0, 1, 0] [0, 0, 0] >> B2=subs(B,x,2) [-1, 1, 0] [ 1, -1, 0] [ 0, 0, -1] >> escalona(B2) [1, -1, 0] [0, 0, 1] [0, 0, 0] V0 = {(−α, α, 0) | α ∈ R}. {V1 = 1, 0)} é base para V√ gera V0 ((−α, α, 0) = α(−1, 1, 0)) e um vetor não nulo é L.I. 0 , pois √ √ (−1,√ Seja U1 = (1/||V1 ||)V1 = (−1/ 2, 1/ 2, 0). {U1 = (−1/ 2, 1/ 2, 0)} é base ortonormal de V0 . V1 = {(0, 0, α) | α ∈ R}. {V2 = (0, 0, 1)} é base para V1 , pois gera V1 ((0, 0, α) = α(0, 0, 1)) e um vetor não nulo é L.I. Seja W2 = (1/||V2 ||)V2 = (0, 0, 1). {W2 = (0, 0, 1)} é base ortonormal de V1 . V2 = {(α, α, 0) | α ∈ R}.√{V3 =√(1, 1, 0)} é base para , pois gera V1 ((α, α, 0) = α(1, 1, 0)) e um vetor não nulo é L.I. Seja √ V1 √ W3 = (1/||V3 ||)V3 = (1/ 2, 1/ 2, 0). {W3 = (1/ 2, 1/ 2, 0)} é base ortonormal de V1 . Como a matriz A é simétrica, autovetores associados a autovalores diferentes são ortogonais (Proposição 6.6 na página 414). Portanto, {W1 , W2 , W3 } é uma base ortonormal de autovetores de A. √ −1/√2 P =  1/ 2 0  (f) >> A=[2,1,1;1,2,1;1,1,2]; >> B=A-x*eye(3) [2-x, 1, 1] [ 1, 2-x, 1] [ 1, 1, 2-x] >> p=det(B) p =4-9*x+6*x^2-x^3 >> solve(p) [4][1][1] >> B1=subs(B,x,1) [1, 1, 1] [1, 1, 1] [1, 1, 1] 0 0 1 √  1/√2 1/ 2  0 " e D= 0 0 0 0 1 0 0 0 2 # >> escalona(B1) [1, 1, 1] [0, 0, 0] [0, 0, 0] >> B4=subst(B,x,4) [-2, 1, 1] [ 1, -2, 1] [ 1, 1, -2] >> escalona(B4) [1, 0, -1] [0, 1, -1] [0, 0, 0] V1 = {(−α − β, α, β) | α, β ∈ R}. {V1 = (−1, 1, 0), V2 = (−1, 0, 1)} é base para V1 , pois gera V0 ((−α − β, α, β) = α(−1, 1, 0) + β(−1, 0, 1)) e é L.I.(um vetor não é múltiplo escalar do outro). Sejam W1 = V1 , W2 = V2 − projW1 V2 = V2 − √ √ √ (−1/2, 1/2, 0) = (−1/2, −1/2, 1). Sejam U1 = (1/||W1 ||)W1 = (−1/ 2, 1/ 2, 0) e U2 = (1/||W2 ||)W2 = (− √16 , − √16 , 36 ). {U1 , U2 } é base ortonormal de V1 . Julho 2010 Reginaldo J. Santos 578 Respostas dos Exercı́cios V4 = {(α, α, α) | α ∈ R}. {V3√= (1,√ 1, 1)} √ é base para V4 , pois (α, α, α) = α(1, 1, 1)) e um vetor não nulo é L.I. √ gera √ V4 (√ Seja U3 = (1/||V3 ||)V3 = (1/ 3, 1/ 3, 1/ 3). {U3 = (1/ 3, 1/ 3, 1/ 3)} é base ortonormal de V4 . Como a matriz A é simétrica, autovetores associados a autovalores diferentes são ortogonais (Proposição 6.6 na página 414). Portanto, {U1 , U2 , U3 } é uma base ortonormal de autovetores de A.  P= √ −√2/2 2/2 0 √ −√6/6 −√6/6 6/3 √  √3/3  √3/3 3/3 " e D= 1 0 0 0 1 0 0 0 4 # (g) >> A=[1,2,0,0;2,1,0,0;0,0,1,2;0,0,2,1]; >> B=A-x*eye(4) [1-x, 2, 0, 0] [ 2, 1-x, 0, 0] [ 0, 0, 1-x, 2] [ 0, 0, 2, 1-x] >> p=det(B) p =9+12*x-2*x^2-4*x^3+x^4 >> solve(p) [-1][-1][ 3][ 3] >> Bm1=subs(B,x,-1) [2, 2, 0, 0] [2, 2, 0, 0] [0, 0, 2, 2] [0, 0, 2, 2] >> escalona(Bm1) [1, 1, 0, 0] [0, 0, 1, 1] [0, 0, 0, 0] [0, 0, 0, 0] >> B3=subs(B,x,3) [-2, 2, 0, 0] [ 2, -2, 0, 0] [ 0, 0, -2, 2] [ 0, 0, 2, -2] >> escalona(B3) [1, -1, 0, 0] [0, 0, 1, -1] [0, 0, 0, 0] [0, 0, 0, 0] V−1 = {(−α, α, − β, β) | α, β ∈ R}. {V1 = (−1, 1, 0, 0), V2 = (0, 0, −1, 1)} é base para V−1 , pois gera V−1 ((−α, α, − β, β) = α(−1, 1, 0, 0) + β(0, 0, −1, 1)) e é L.I.(um vetor não é múltiplo escalar do outro). Sejam W1 = V1 , W2 = V2 − projW1 V2 = √ √ √ √ V2 − 0̄ = V2 . Sejam U1 = (1/||W1 ||)W1 = (−1/ 2, 1/ 2, 0, 0) e U2 = (1/||W2 ||)W2 = (0, 0, −1/ 2, 1/ 2). {U1 , U2 } é base ortonormal de V−1 . V3 = {(α, α, β, β) | α, β ∈ R}. {V3 = (1, 1, 0, 0), V4 = (0, 0, 1, 1)} é base para V3 , pois gera V−1 ((α, α, β, β) = α(1, 1, 0, 0) + β(0, 0, 1, 1)) e é L.I.(um vetor não é múltiplo escalar do outro). Sejam W3 = V3 , W4 = V4 − projW3 V4 = V4 − 0̄ = V4 . Sejam √ √ √ √ U3 = (1/||W3 ||)W3 = (1/ 2, 1/ 2, 0, 0) e U4 = (1/||W4 ||)W4 = (0, 0, 1/ 2, 1/ 2). {U1 , U2 } é base ortonormal de V3 . Como a matriz A é simétrica, autovetores associados a autovalores diferentes são ortogonais (Proposição 6.6 na página 414). Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Capı́tulo 6. Diagonalização 579 Portanto, {U1 , U2 , U3 , U4 } é uma base ortonormal de autovetores de A. √ −1/√2  1/ 2 P=  0 0  0 √0 −1/√2 1/ 2 (h) >> A=[0,0,0,0;0,0,0,0;0,0,0,1;0,0,1,0]; >> B=A-x*eye(4) [-x, 0, 0, 0] [ 0, -x, 0, 0] [ 0, 0, -x, 1] [ 0, 0, 1, -x] >> p=det(B) p =x^2*(x^2-1) >> solve(p) [ 0][ 0][ 1][-1] >> Bm1=subs(B,x,-1) [1, 0, 0, 0] [0, 1, 0, 0] [0, 0, 1, 1] [0, 0, 1, 1] >> escalona(Bm1) [1, 0, 0, 0] [0, 1, 0, 0] [0, 0, 1, 1] [0, 0, 0, 0] √ 1/√2 1/ 2 0 0  0  √0  1/√2  1/ 2  e  D= −1 0 0 0 0 −1 0 0 0 0 3 0  0 0  0  3 >> B0=subs(B,x,0) [0, 0, 0, 0] [0, 0, 0, 0] [0, 0, 0, 1] [0, 0, 1, 0] >> escalona(B0) [0, 0, 1, 0] [0, 0, 0, 1] [0, 0, 0, 0] [0, 0, 0, 0] >> B1=subs(B,x,1) B1 = [-1, 0, 0, 0] [ 0, -1, 0, 0] [ 0, 0, -1, 1] [ 0, 0, 1, -1] >> escalona(B1) [1, 0, 0, 0] [0, 1, 0, 0] [0, 0, 1, -1] [0, 0, 0, 0] V0 = {(α, β, 0, 0) | α, β ∈ R}. {V1 = (1, 0, 0, 0), V2 = (0, 1, 0, 0)} é base para V0 , pois gera V−1 ((α, β, 0, 0) = α(1, 0, 0, 0) + β(0, 1, 0, 0)) e é L.I.(um vetor não é múltiplo escalar do outro). Claramente V1 · V2 = 0 e possuem norma igual à 1. Sejam U1 = V1 e U2 = V2 . {U1 , U2 } é base ortonormal de V0 . V1 = {(0, 0, −α, α) | α ∈ R}. {V3 = (0, 0, −1, √ 1)} é base √ para V1 , pois gera√V1 ((0,√0, −α, α) = α(0, 0, −1, 1)) e um vetor não nulo é L.I. Seja U3 = (1/||V3 ||)V3 = (0, 0, −1/ 2, 1/ 2). {U3 = (0, 0, −1/ 2, 1/ 2)} é base ortonormal de V1 . V−1 = {(0, 0, α, α) | α ∈ R}. {V4 = (0, 0, √ 1, 1)} é√base para V−1 , pois √ gera V√ −1 ((0, 0, α, α ) = α (0, 0, 1, 1)) e um vetor não nulo é L.I. Seja U4 = (1/||V4 ||)V4 = (0, 0, 1/ 2, 1/ 2). {U4 = (0, 0, 1/ 2, 1/ 2)} é base ortonormal de V−1 . Como a matriz A é simétrica, autovetores associados a autovalores diferentes são ortogonais (Proposição 6.6 na página 414). Portanto, Julho 2010 Reginaldo J. Santos 580 Respostas dos Exercı́cios {U1 , U2 , U3 , U4 } é uma base ortonormal de autovetores de A.   1 0 0 0 0 1 0 0   P =  0 0 −1/√2 1/√2  √ √ 0 0 1/ 2 1/ 2  e 0  0 D= 0 0 0 0 0 0  0 0  0  −1 0 0 1 0 6.2.2. Como a matriz é simétrica ela é diagonalizável. Além disso, também por ser simétrica, autovetores associados a autovalores diferentes são ortogonais. Assim, basta ortogonalizar dentro de cada autoespaço. >> >> W2 >> >> W4 >> U1 >> U2 >> U3 W1=V1; W2=V2-proj(W1,V2) = [ 2, -1, 0, 2] W3=V3; W4=V4-proj(W3,V4) = [ -1, -2, -2, 0] U1=W1/no(W1) = [ 0, 2/3, -2/3, U2=W2/no(W2) = [ 2/3, -1/3, 0, U3=W3/no(W3) = [ -2/3, 0, 1/3, 1/3] 2/3] 2/3]  0  2/3 P = [ U1 U2 U3 U4 ] =  −2/3 1/3 2/3 −1/3 0 2/3 −2/3 0 1/3 2/3  1/3 2/3  2/3  , 0  2  0 D= 0 0 0 2 0 0 0 0 2 0  0 0  0  4 6.3. Aplicação ao Estudo de Cônicas (página 463) 6.3.1. >> A=[9,-2;-2,6]; >> syms x y; X=[x;y]; >> expr=simplify(X.’*A*X-30) 9 x2 − 4 xy + 6 y2 − 30 >> [P,D]=diagonal(A)   √ √ 2 5/5 √5/5 −√ P= 2 5/5 5/5 D=[5, 0] [0,10] >> syms x1 y1; X1=[x1;y1]; >> expr=subst(expr,X,P*X1) Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Capı́tulo 6. Diagonalização 581 5 x1 2 + 10 y1 2 − 30 >> expr=expr/30 x1 2 /6 + y1 2 /3 − 1 >> elipse(sqrt(6),sqrt(3),P) 6.3.2. >> A=[3,-4;-4,-12]; >> expr=simplify(X.’*A*X+81) 3 x2 − 8 xy − 12 y2 + 81 >> [P,D]=diagonal(A) √  √  4 17/17 √17/17 −√ P= 17/17 4 17/17 D=[-13,0] [ 0,4] >> expr=subst(expr,X,P*X1) −13 x1 2 + 4 y1 2 + 81 >> expr=expr/81 2 − 13 81 x1 + 4 81 y1 2 + 1 >> hiperbx(9/sqrt(13),9/2,P) 6.3.3. >> A=[2,-2;-2,-1]; >> expr=simplify(X.’*A*X+K*X+24) 2 x2 − 4 xy − y2 + 24 >> [P,D]=diagonal(A)  √  √ √5/5 −2√ 5/5 P= 2 5/5 1 5/5 D =[-2, 0] [ 0, 3] >> expr=subst(expr,X,P*X1) −2 x1 2 + 3 y1 2 + 24 >> expr=expr/24 Julho 2010 Reginaldo J. Santos 582 Respostas dos Exercı́cios 4 y x‘ 3 2 y‘ 1 0 x −1 −2 −3 −4 −3 −2 −1 8 0 1 2 3 y 6 4 2 x‘ y‘ 0 x −2 −4 −6 −8 −8 −6 Um Curso de Geometria Analı́tica e Álgebra Linear −4 −2 0 2 4 6 8 Julho 2010 Capı́tulo 6. Diagonalização 583 − x1 2 /12 + y1 2 /8 + 1 >> hiperbx(sqrt(12),sqrt(8),P) 6.3.4. >> A=[21,3;3,13]; >> expr=simplify(X.’*A*X-132) 21 x2 + 6 xy + 13 y2 − 132 >> [P,D]=diagonal(A) √  √  10/10 3√ 10/10 √ P= −3 10/10 10/10 D=[12, 0] [ 0,22] >> expr=subst(expr,X,P*X1) 12 x1 2 + 22 y1 2 − 132 >> expr=expr/132 x1 2 /11 + y1 2 /6 − 1 >> elipse(sqrt(11),sqrt(6),P) 6.3.5. >> A=[4,-10;-10,25]; >> K=[-15,-6]; >> expr=simplify(X.’*A*X+K*X) 4 x2 − 20 xy + 25 y2 − 15 x − 6 y >> [P,D]=diagonal(A) √   5 √ 2 − 29 29 √29 √ 29 P= 2 5 29 29 29 29 D =[0, 0] [0, 29] >> expr=subst(expr,X,P*X1) √ 29 y1 2 − 3 29x1 >> expr=expr/29 √ 3 y1 2 − 29 29x1 Julho 2010 Reginaldo J. Santos 584 Respostas dos Exercı́cios 8 y 6 x‘ 4 y‘ 2 0 x −2 −4 −6 −8 −8 −6 −4 −2 4 0 2 4 6 8 y 3 2 y‘ 1 0 x −1 −2 −3 −4 −5 −4 −3 Um Curso de Geometria Analı́tica e Álgebra Linear −2 −1 0 1 x‘2 3 4 5 Julho 2010 Capı́tulo 6. Diagonalização 585 >> parabx(3/(4*sqrt(29)),P) 6.3.6. >> A=[9,3;3,1]; K=[-10*10^(1/2),10*10^(1/2)]; >> expr=simplify(X.’*A*X+K*X+90) √ √ 9 x2 + 6 xy + y2 − 10 10x + 10 10y + 90 >> [P,D]=diagonal(A) √  √  10/10 3√ 10/10 √ P= −3 10/10 10/10 D =[0, 0] [0, 10] >> expr=subst(expr,X,P*X1) 10 y1 2 − 20 y1 − 40 x1 + 90 >> expr=subst(expr,y1,y2+1) 10 y2 2 + 80 − 40 x1 >> expr=subst(expr,x1,x2+2) 10 y2 2 − 40 x2 >> expr=expr/10 y2 2 − 4 x2 >> paraby(1,P,[2;1]) 6.3.7. >> A=[5,-3;-3,5]; >> K=[-30*(2)^(1/2),18*(2)^(1/2)]; >> expr=simplify(X.’*A*X+K*X+82) √ √ 5 x2 − 6 xy + 5 y2 − 30 2x + 18 2y + 82 >> [P,D]=diagonal(A) √  √  2/2 −√ 2/2 P= √ 2/2 2/2 D =[2, 0] [0, 8] >> expr=subst(expr,X,P*X1) 2 x1 2 + 8 y1 2 − 12 x1 + 48 y1 + 82 Julho 2010 Reginaldo J. Santos 586 Respostas dos Exercı́cios 2 y‘ y 1.5 x‘ 1 0.5 0 x −0.5 −1 −1.5 −2 −1 −0.5 0 4 0.5 1 1.5 2 2.5 3 y 2 y‘ y" 0 x −2 −4 −6 x‘ x" −8 −10 −6 −4 Um Curso de Geometria Analı́tica e Álgebra Linear −2 0 2 4 6 8 Julho 2010 Capı́tulo 6. Diagonalização 587 >> X0=[3;-3]; >> expr=subst(expr,X1,X2+X0) 2 x2 2 − 8 + 8 y2 2 >> expr=expr/8 x2 2 /4 − 1 + y2 2 >> elipse(2,1,P,X0) 6.3.8. >> A=[5,6;6,0]; >> K=[-12*(13)^(1/2),0]; >> expr=simplify(X.’*A*X+K*X-36) √ 5 x2 + 12 xy − 12 13x − 36 >> [P,D]=diagonal(A) √ √   2/ √13 3/√13 P= −3/ 13 2/ 13 D =[-4, 0] [ 0, 9] >> expr=subst(expr,X,P*X1) −4 x1 2 + 9 y1 2 − 24 x1 − 36 y1 − 36 >> X0=[-3;2]; >> expr=subst(expr,X1,X2+X0) −4 x2 2 − 36 + 9 y2 2 >> expr=expr/36 − x2 2 /9 − 1 + y2 2 /4 >> hiperby(2,3,P,X0) 6.3.9. >> A=[6,-2;-2,9]; >> K=[-4*5^(1/2),-18*5^(1/2)]; >> expr=simplify(X.’*A*X+K*X-5) √ √ 6 x2 − 4 xy + 9 y2 − 4 5x − 18 5y − 5 >> [P,D]=diagonal(A) Julho 2010 Reginaldo J. Santos 588 Respostas dos Exercı́cios 5 y 4 3 x‘ x" 2 y‘ 1 y" 0 x −1 −2 −3 −4 −5 −2 −1 0 1 2 10 3 4 5 6 7 8 y 8 6 y" 4 2 y‘ 0 x x" −2 −4 −6 Um Curso de Geometria Analı́tica e Álgebra Linear −4 −2 0 2 x‘ 4 6 Julho 2010 Capı́tulo 6. Diagonalização  P= √ 2/√5 1/ 5 589 √  −1/√ 5 2/ 5 D =[5, 0] [0, 10] >> expr=subst(expr,X,P*X1) 5 x1 2 + 10 y1 2 − 26 x1 − 32 y1 − 5 >> X0=[26/10;32/20]; >> expr=subst(expr,X1,X2+X0) 5 x2 2 − 322 5 + 10 y2 2 >> expr=expr*5/322 25 322 x2 2 − 1 + 25 161 y2 2 >> elipse(sqrt(322)/5,sqrt(161)/5,P,X0) 6.3.10. >> A=[1,3^(1/2);3^(1/2),-1]; >> K=[6,0]; >> expr=simplify(X.’*A*X+K*X) √ x2 + 2 xy 3 − y2 + 6 x >> [P,D]=diagonal(A)  √  3/2 √ −1/2 P= 1/2 3/2 D =[ 2, 0] [ 0,-2] >> expr=subst(expr,X,P*X1) √ 2 x1 2 − 2 y1 2 + 3 3x1 − 3 y1 >> X0=[-3*3^(1/2)/4;-3/4]; >> expr=subst(expr,X1,X2+X0) 2 x2 2 − 9/4 − 2 y2 2 >> expr=expr*4/9 8 9 x2 2 − 1 − 8 9 y2 2 >> hiperbx(3/sqrt(8),3/sqrt(8),P,X0) Julho 2010 Reginaldo J. Santos 590 Respostas dos Exercı́cios y 7 y" 6 x" 5 4 y‘ 3 x‘ 2 1 0 x −1 −2 −2 −1 0 1 2 3 4 2 5 6 7 8 y y‘ 1 x‘ y" 0 x x" −1 −2 −3 −4 −4 −3 Um Curso de Geometria Analı́tica e Álgebra Linear −2 −1 0 1 2 Julho 2010 Capı́tulo 6. Diagonalização 591 6.3.11. >> A=[8,-8;-8,8]; >> K=[33*2^(1/2),-31*2^(1/2)]; >> expr=simplify(X.’*A*X+K*X+70) √ √ 8 x2 − 16 xy + 8 y2 + 33 2x − 31 2y + 70 >> [P,D]=diagonal(A) √ " √ # 2/2 − 2/2 P= √ √ 2/2 2/2 D =[0, 0] [0, 16] >> expr=subst(expr,X,P*X1) 16 y1 2 + 2 x1 − 64 y1 + 70 >> expr=subst(expr,y1,y2+2) 16 y2 2 + 6 + 2 x1 >> expr=subst(expr,x1,x2-3) 16 y2 2 + 2 x2 >> expr=expr/16 y2 2 + x2 /8 >> parabx(-1/32,P,[-3;2]) 6.3.12. >> A=[1,-3;-3,-7]; >> K=[10,2]; >> expr=simplify(X.’*A*X+K*X+9) x2 − 6 xy − 7 y2 + 10 x + 2 y + 9 >> [P,D]=diagonal(A) √ √ # " 1/ 10 −3/ 10 P= √ √ 3/ 10 1/ 10 D =[-8, 0] [ 0, 2] >> expr=subst(expr,X,P*X1) Julho 2010 Reginaldo J. Santos 592 Respostas dos Exercı́cios −8 x1 2 + 2 y1 2 + 8 5 √ 10x1 − 14 5 √ 10y1 + 9 >> X0=[1/10^(1/2);7/10^(1/2)]; >> expr=subst(expr,X1,X2+X0) −8 x2 2 + 2 y2 2 >> hiperby(4,1,P,X0,’d’) Esta é uma cônica degenerada. A equação representa as duas retas y002 = 4x 002 , ou y00 = ±2x 00 . Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Capı́tulo 6. Diagonalização 593 y 4 x‘ x" 2 y‘ y" 0 x −2 −4 −6 −8 −10 −8 −6 −4 −2 0 2 4 y 6 4 y" x" 2 y‘ x‘ 0 x −2 −4 −8 Julho 2010 −6 −4 −2 0 2 4 Reginaldo J. Santos Bibliografia [1] Howard Anton e Chris Rorres: Álgebra Linear com Aplicações. Bookman, São Paulo, 8a. edição, 2001. [2] José L. Boldrini, Sueli I. R. Costa, Vera L. Figueiredo e Henry G. Wetzler: Álgebra Linear. Ed. Harbra Ltda., São Paulo, 3a. edição, 1986. [3] Paulo Boulos e Ivan de C. e Oliveira: Geometria Analı́tica - um tratamento vetorial. Makron Books, São Paulo, 3a. edição, 2005. [4] Frederico F. C., filho: Introdução ao MATLAB. Departamento de Ciência da Computação - UFMG, Belo Horizonte, Fevereiro de 2000. [5] Carlos A. Callioli, Hygino H. Domingues e Roberto C. F. Costa: Álgebra Linear e Aplicações. Atual Editora, São Paulo, 6a. edição, 1995. [6] Adilson Gon¸calves e Rita M. L. de Souza: Introdução à Álgebra Linear. Edgard Blücher, Rio de Janeiro, 1977. [7] Alésio de Caroli, Carlos A. Callioli e Miguel O. Feitosa: Matrizes, Vetores, Geometria Analı́tica. Nobel, São Paulo, 1976. 594 Capı́tulo 6. Diagonalização 595 [8] João Pitombeira de Carvalho: Álgebra Linear - Introdução. Livros Técnicos e Cientı́ficos Editora S.A., Rio de Janeiro, 2a. edição, 1977. [9] John B. Fraleigh e Raymond A. Beauregard: Linear Algebra. Addison Wesley, Reading, Massachusetts, 3a. edição, 1995. [10] Stephen H. Friedberg, Arnold J. Insel e Lawrence E. Spence: Linear Algebra. Prentice Hall, Upper Saddle River, New Jersey, 3a. edição, 1997. [11] Emı́lia Giraldes, Vitor H. Fernandes e Maria P. M Smith: Curso de Álgebra Linear e Geometria Analı́tica. Mc Graw Hill, Lisboa, 1995. [12] G. H. Golub e C. F. Van Loan: Matrix Computations. Johns Hopkins U.P., Baltimore, 3a. edição, 1996. [13] Stanley I. Grossman: Elementary Linear Algebra. Saunders College Publishing, New York, 5a. edição, 1994. [14] David R. Hill e David E. Zitarelli: Linear Algebra Labs with MATLAB. Macmillan Publishing Company, New York, 1994. [15] Morris W. Hirsch e Stephen Smale: Differential Equations, Dynamical Systems and Linear Algebra. Academic Press, Inc., New York, 1974. [16] Kenneth Hoffman e Ray Kunze: Álgebra Linear. Livros Técnicos e Cientı́ficos Ed. S.A., Rio de Janeiro, 3a. edição, 1979. [17] Bernard Kolman e David R. Hill: Introdução à Álgebra Linear com Aplicações. LTC, Rio de Janeiro, 8a. edição, 2008. [18] Serge Lang: Introduction to Linear Algebra. Springer, New York, 2a. edição, 1986. [19] Serge Lang: Linear Algebra. Springer Verlag, New York, 3a. edição, 1987. [20] David C. Lay: Álgebra Linear e suas Aplicações. Livros Técnicos e Cientı́ficos Editora S.A., Rio de Janeiro, 2a. edição, 1999. [21] Steven Leon, Eugene Herman e Richard Faulkenberry: ATLAST Computer Exercises for Linear Algebra. Prentice Hall, Upper Saddle River, New Jersey, 1996. Julho 2010 Reginaldo J. Santos 596 Respostas dos Exercı́cios [22] Steven J. Leon: Álgebra Linear com Aplicações. Livros Técnicos e Cientı́ficos Editora S.A., Rio de Janeiro, 5a. edição, 1998. [23] Elon L. Lima: Coordenadas no Espaço. SBM, Rio de Janeiro, 1993. [24] Elon L. Lima: Álgebra Linear. IMPA, Rio de Janeiro, 2a. edição, 1996. [25] Elon L. Lima: Geometria Analı́tica e Álgebra Linear. IMPA, Rio de Janeiro, 2008. [26] Seymour Lipschutz: Álgebra Linear. McGraw-Hill, São Paulo, 3a. edição, 1994. [27] Mathworks Inc.: Student Edition of MATLAB Version 5 for Windows. Prentice Hall, Upper Saddle River, New Jersey, 1997. [28] Carl D. Meyer: Matrix Analysis and Applied Linear Algebra. SIAM, Philadelphia, 2000. [29] Ben Noble e James W. Daniel: Applied Linear Algebra. Prentice Hall, Upper Saddle River, New Jersey, 3a. edição, 1988. [30] Nathan M. dos Santos: Vetores e Matrizes. Thomson, São Paulo, 4a. edição, 2007. [31] Reginaldo J. Santos: Álgebra Linear e Aplicações. Imprensa Universitária da UFMG, Belo Horizonte, 2010. [32] Reginaldo J. Santos: Introdução à Álgebra Linear. Imprensa Universitária da UFMG, Belo Horizonte, 2010. [33] Reginaldo J. Santos: Matrizes Vetores e Geometria Analı́tica. Imprensa Universitária da UFMG, Belo Horizonte, 2010. [34] Shayle R. Searle: Matrix Algebra Useful for Statistics. John Wiley and Sons, New York, 1982. [35] Georgi E. Shilov: Linear Algebra. Dover Publications Inc., New York, 1977. [36] Carl P. Simon e Lawrence Blume: Mathematics for Economists. W. W. Norton and Co. Inc., New York, 1994. [37] Alfredo Steinbruch e Paulo Winterle: Álgebra Linear. Makron Books, São Paulo, 2a. edição, 1987. [38] Alfredo Steinbruch e Paulo Winterle: Geometria Analı́tica. Makron Books, São Paulo, 2a. edição, 1987. Um Curso de Geometria Analı́tica e Álgebra Linear Julho 2010 Bibliografia 597 [39] Gilbert Strang: Linear Algebra and its Applications. Harcourt Brace Jovanovich, Inc., Orlando, 3a. edição, 1988. [40] Gilbert Strang: Introduction to Linear Algebra. Wellesley-Cambridge Press, Wellesley, 1993. Julho 2010 Reginaldo J. Santos Índice Alfabético Ângulo entre planos, 253 entre reta e plano, 277 entre retas, 250 entre vetores, 169 Assı́ntota, 440 Autoespaço, 391 Autovalor(es), 384 Autovetor(es), 384 axiss, 158, 201 Cadeia de Markov, 15 Cı́rculo, 435 clf, 64 Cofator de um elemento, 100, 101 Combinação linear, 104, 154, 196, 284 Complemento ortogonal, 354 Cônicas, 410, 428 (não) degeneradas, 428 identificação de, 428, 455 Conjugado de uma matriz, 424 Base canônica, 313, 349 de subespaço, 312 ortogonal, 349 ortonormal, 349 box, 158, 201 Decomposição polar de uma matriz, 422 Dependência linear, 289 Desigualdade de Cauchy-Schwarz, 340 Desigualdade triangular, 340 desvet, 158, 201 det, 124 598 Índice Alfabético 599 Determinante, 99 de Vandermonde, 125 desenvolvimento em cofatores do, 102, 107 propriedades do, 104 detopelp, 124 diag, 21 diagonal, 463 Diagonalização de matrizes, 382 de matrizes simétricas, 410 Dimensão, 314 Distância de um ponto a um plano, 257 de um ponto a uma reta, 260 de uma reta a um plano, 277 entre dois planos, 265 entre dois pontos, 168 entre duas retas, 266 paramétricas da reta, 228 paramétricas do plano, 224 vetorial da reta, 229 Escalar, 4 escalona, 64 Espaço (espaços) Rn , 280 solução, 307 vetoriais, 283 Excentricidade da elipse, 435 da hipérbole, 442 eye, 20 eig, 406 Eixo(s) da elipse, 435 eixos, 65, 158, 201 Elipse, 428 excentricidade da, 435 elipse, 464 Equação (equações) da reta, 228 geral do plano, 209 linear, 30 na forma simétrica da reta, 235 Geradores, 310 Gerar, 310 Gram-Schmidt (processo de ortogonalização), 349 Grandezas vetoriais, 132 Julho 2010 Foco(s) da elipse, 430 da Hipérbole, 438 da parábola, 446 Hipérbole, 436 hiperbx, 464 hiperby, 464 Identidade de Lagrange, 204 Identidade polar, 353 Identificação de cônicas, 428, 455 Reginaldo J. Santos 600 Independência linear, 289 Interpolação polinomial, 89 inv, 406 Lei do paralelogramo, 353 lin, 248 lineplan, 248 lineseg, 158, 201 Matriz (matrizes), 1 (definida) positiva, 422 escalonada, 38 escalonada reduzida, 38 anti-simétrica, 26 aumentada, 32 coluna, 3, 150, 282 coluna de, 2 companheira, 126, 408 conjugado de, 424 de rotação, 365, 422 de transição, 15 de Vandermonde, 91 decomposição polar de, 422 determinante de, 99 diagonal, 23, 97 diagonal (principal) de, 2 diagonalizável, 382 diferença entre, 13 do sistema linear, 31 elementar, 52 elemento de, 2 Um Curso de Geometria Analı́tica e Álgebra Linear Índice Alfabético entrada de, 2 equivalente por linhas, 45 identidade, 10 iguais, 3 inversa de, 71 invertı́vel, 71 linha, 3, 150, 282 linha de, 2 múltiplo escalar de, 4 multiplicação por escalar, 4 não invertı́vel, 71 nilpotente, 27, 407 nula, 10 ortogonal, 360, 413 potência, 14 produto de, 5 propriedades de, 9 quadrada, 2 raiz quadrada de, 422 semelhantes, 407 simétrica, 26 singular, 71 soma de, 3 submatriz principal de, 422 traço de, 27 transposta de, 8 triangular inferior, 103 triangular superior, 125 matvand, 64 Menor de um elemento, 99 Julho 2010 Índice Alfabético Método de Gauss, 43 Método de Gauss-Jordan, 39 Mudança de coordenadas, 356 Múltiplo escalar, 4, 139, 282 no, 200 Norma de um vetor, 166, 338 Notação de somatório, 6, 9, 28 numeric, 21, 406 oe, 64 opel, 64 Operação elementar, 32 Parábola, 444 parabx, 464 paraby, 464 pe, 200 Pivô, 34 plan, 248 Plano (planos), 209 vetor normal do, 209 concorrentes, 301 equação geral do, 209 equações paramétricas do, 224 mediador, 275 paralelos, 301 plotci, 65 plotf1, 65 po, 158, 201 Polinômio caracterı́stico, 386 Julho 2010 601 poline, 248 poly2sym, 64 poly2sym2, 65 Pontos colineares, 157 coplanares, 195 poplan, 248 Posições relativas de dois planos, 301 de duas retas, 299 de plano e reta, 302 Processo de ortogonalização de Gram-Schmidt, 349 Produto vetorial em Rn , 354 escalar ou interno, 170, 338 propriedades do, 175 misto, 190 vetorial, 179 propriedades do, 183 vetorial duplo, 204 Produto vetorial duplo, 204 Projeção ortogonal, 175, 343 Projeção Ortográfica, 368 pv, 201 Raiz quadrada de uma matriz, 422 randi, 21, 406 Regra da mão direita, 181 Regra de Cramer, 118 Reta (retas), 228 concorrentes, 250 Reginaldo J. Santos 602 diretriz da parábola, 446 equação vetorial da, 229 equações na forma simétrica da, 235 equações paramétricas da, 228 geratriz do cone, 435 paralelas, 250 reversas, 250 vetor diretor da, 228 rota, 158, 201 Rotação, 365 Segmento (de reta) orientado, 132 Sistema de coordenadas, 358 cartesianas, 141 retangulares, 141 retangulares no espaço, 145 Sistema de equações lineares, 30 Sistema homogêneo, 47 solução trivial de, 47 Sistema(s) linear(es), 30 conjunto solução de, 31 consistente, 63 equivalentes, 34 homogêneo, 47 solução (geral) de, 31 Solução geral de sistema linear, 31 trivial de sistema homogêneo, 47 solve, 21 Soma de subespaços, 324 Subespaço(s), 307 Um Curso de Geometria Analı́tica e Álgebra Linear Índice Alfabético dimensão de, 314 gerado por, 310 soma de, 324 Submatriz principal, 422 subs, 64, 406 subst, 248, 463 sym, 21, 406 syms, 20 tex, 158, 201 Translação, 365 Variáveis livres, 42 Vértice(s) da elipse, 435 da hipérbole, 442 da parábola, 450 Vetor (vetores), 3, 132, 281 ângulo entre, 169 canônicos, 184 colineares, 139 combinação linear de, 284 componentes de, 141, 145, 147, 150 comprimento de, 166 coplanares, 195 de estado, 15 diferença de, 137, 282 geradores, 310 iguais, 281 independência linear de, 289 linearmente (in)dependentes, 289 Julho 2010 Índice Alfabético 603 multiplicação por escalar, 139, 143, 149, 282 múltiplo escalar, 139, 282 norma de, 166, 338 normal ao plano, 209 nulo, 137, 282 ortogonais, 169, 341 paralelos, 139 produto escalar ou interno de, 170, 338 produto misto de, 190 produto vetorial de, 179 simétrico, 137, 282 soma de, 134, 143, 149, 282 unitário, 168, 349 unitários, 348 zeros, 20 zoom3, 158, 201 Julho 2010 Reginaldo J. Santos