Descargue como DOCX, PDF, TXT o lea en línea desde Scribd
Descargar como docx, pdf o txt
Está en la página 1de 17
Instituto Universitario Politcnico Santiago Mario
Escuela Ing. Electrnica
Ctedra Algebra Lineal Sede Barcelona
Espacios Vectoriales
Facilitador(a): Benavides, Anabel Participantes: 25.479.060 Mrquez, Johanna 25.772.702 Rodrguez, Jackelin 25.852.732 Berra, Jhonathan 25.614.934 Suarez, Carlos 25.722.369 Pinto, Edinson 2 do Semestre Seccin FD
Barcelona, junio de 2014 INTRODUCCIN
Los vectores son una estructura algebraica creada a partir de un conjunto no vaco, una operacin interna, llamada suma, definida para los elementos del conjunto, y una operacin externa, los vectores tienen diversas funcionabilidades, pero principalmente nos permiten determinar valores de un cuerpo en movimiento en un espacio, o sub-espacio, por lo tanto, podemos decir que son de suma importancia para el desarrollo y desempeo de todos nosotros a la hora de buscar con exactitud algn dato de un cuerpo en movimiento.
Los vectores estn compuestos por distintos elementos como lo son los espacios y los sub-espacios vectoriales, don podemos encontrar a su ves la estructura del espacio vectorial, las dimensiones, la suma de sub-espacios y los teoremas de los sub-espacios vectoriales, entre otros, por ello debemos prestar la debida atencin a los puntos ya sealados anteriormente.
DESARROLLO
Espacios vectoriales Es una estructura algebraica creada a partir de un conjunto no vaco, una operacin interna, llamada suma, definida para los elementos del conjunto, y una operacin externa , llamada producto por un escalar, definida entre dicho conjunto y otro conjunto, con estructura de cuerpo, con 8 propiedades fundamentales. A los elementos de un espacio vectorial se les llama vectores y a los elementos del cuerpo, escalares.
Estructura de grupo Es una estructura algebraica que consta de un conjunto con una operacin que combina cualquier pareja de sus elementos para formar un tercer elemento. Para que se pueda calificar como un grupo, el conjunto y la operacin deben satisfacer algunas condiciones llamadas axiomas de grupo, estas condiciones son: tener la propiedad asociativa, tener elemento identidad y elemento inverso.
Estructura del espacio vectorial Un espacio vectorial sobre un cuerpo , como el cuerpo de los nmeros reales o los nmeros complejos, es un conjunto no vaco, dotado de dos operaciones para las cuales ser cerrado:
Operacin interna tal que: 1) tenga la propiedad conmutativa, es decir
2) tenga la propiedad asociativa, es decir
3) tenga elemento neutro , es decir
4) tenga elemento opuesto, es decir
Y la operacin producto por un escalar:
Operacin externa tal que: 5) tenga la propiedad asociativa:
6) sea elemento neutro del producto:
7) tenga la propiedad distributiva del producto respecto la suma de vectores:
8) tenga la propiedad distributiva del producto respecto la suma de escalares:
Sub-espacios vectoriales Un subconjunto no vaco S del espacio vectorial R n se dice que es un sub-espacio cuando contiene todas las combinaciones lineales que se pueden formar con miembros de S. Dado un espacio vectorial V, se dice que un subconjunto S de V es un sub-espacio vectorial si contiene al vector 0, y si al efectuar las operaciones de suma y producto por escalar entre vectores de S, el resultado permanece en S, se puede decir que S es cerrado para las operaciones suma y producto por escalar.
Teoremas del sub-espacio vectorial 1. Teorema de Caracterizacin de sub-espacios vectoriales: Sea U V un sub- conjunto (U 6= ) del espacio vectorial V. La condicin necesaria y suciente para que U sea sub-espacio vectorial de V es que se verique: a) u1, u2 U u1 + u2 U b) R, ~u U u U 2. Teorema de Caracterizacin de sub-espacios vectoriales II: Sea U V un Sub-conjunto (U 6= ) del espacio vectorial V. La condicin necesaria y suciente para que U sea sub-espacio vectorial de V es que se verique: , B, u1, u2 U u1 + u2 U 3. Sea un espacio vectorial V y U1 y U2 dos sub-espacios de V. La condicin necesaria y suciente para que U1 y U2 formen suma directa es que U1 U2 = {~0}.
Bases y dimensin de un espacio vectorial Se llama base de un espacio o sub-espacio vectorial a un sistema generador de dicho espacio o sub-espacio, que sea a la vez linealmente independiente. Propiedades de las bases. 1. Una base de S es un sistema generador mnima de S, lo ms pequeo posible. 2. Adems es un conjunto independiente mxima dentro de S, lo ms grande posible. 3. Una base de S permite expresar todos los vectores de S como combinacin lineal de ella, de manera nica para cada vector. Ejemplo: La base cannica o base natural, o base estndar de n: e1 = (1,0,. . . ,0) e2 = (0,1,. . . ,0) en = (0,0,. . . ,1) Son linealmente independientes porque forman un determinante no nulo. Son sistema generador de n porque todo vector (a1, a2,. . ., an) n se puede expresar como combinacin lineal de ellos: (a1,a2,. . . ,an)= a1(1,0,. . . ,0)+ a2(0,1,. . . ,0)+ . . . + an(0,0,. . . ,1)
La dimensin es el mximo nmero de vectores independientes que podemos tener en el espacio o sub-espacio. En otras palabras, es el mximo rango que puede tener un conjunto de vectores de dicho espacio Propiedades de la dimensin. 1. Significado fsico de la dimensin: el espacio tiene dimensin 3, los planos dimensin 2, las rectas dimensin 1, el punto dimensin 0. El sub- espacio {0} es el nico de dimensin 0. 2. La dimensin de un sub-espacio en n, coincide con el nmero de parmetros libres en su forma paramtrica. (1 parmetro=recta, 2 parmetros= plano...) 3. Si S y T son sub-espacios y S est contenido en T, entonces dim S dim T. Adems, si se da la igualdad, dim S = dim T, entonces ambos espacios han de coincidir. 4. El rango de una familia de vectores, es igual a la dimensin del sub- espacio que generan. Es decir: si v1,v2,. . . vn generan un cierto sub-espacio S, y si el rango de dicho conjunto es r, entonces dim S = r. Si un cierto conjunto de vectores tienen rango 2, entonces generan un plano; etc. Ejemplo: En 3, sea S el sub-espacio generado por: (1,0,2), (0,1,2), (3,3,3), (2,2,0). Observamos que el rango de este conjunto (= rango de la matriz que forman, por filas o por columnas) es 3. As por la propiedad 4, tenemos que dim S = 3. Pero como estamos en 3, por la propiedad 3 ha de ser S=3 . Combinacin lineal Un vector se dice que es combinacin lineal de un conjunto de vectores si se puede expresar como suma de los vectores de multiplicados cada uno de ellos por un coeficiente escalar , es decir:
As, es combinacin lineal de vectores de si podemos expresar como una suma de productos por escalar de una cantidad finita de elementos de . Ejemplo: El vector (20, 12, 37) es una combinacin lineal de los vectores (1, 3, 5) y (6, 2, 9):
: Se dice que es combinacin lineal de y de , porque podemos escribir sin ms que despejar la . De la misma manera, despejando oportunamente, cada una de estas variables se podra expresar como combinacin lineal de las otras dos. Los escalares dicen cunto de cada vector del conjunto necesito para que, cuando se combinen linealmente dichos elementos, pueda formar el vector en cuestin. Teorema: El conjunto de todas las combinaciones lineales de los vectores de un sistema S es un sub-espacio vectorial de V. Dicho sub-espacio recibe el nombre de sub-espacio generado por S y se denota por L(S) o h v1, v2.., vpi, L(S) = h v1, v2 ..., vpi = {1v1 + 2v2 + ... + pup / i R} Recprocamente el sistema S recibe el nombre de sistema generador del sub-espacio L(S).
Suma de sub-espacios: Dados U1 y U2 dos sub-espacios de un espacio vectorial V, se llama suma de U1 y U2 al conjunto U1 + U2 denido de la forma: U1 + U2 = {u V, u1 U1, u2 U2 / u = u1 + u2} La suma de dos sub-espacios U1 y U2 de un espacio vectorial de V es un Sub- espacio vectorial de V . Suma directa de dos sub-espacios: Sean U1 y U2 dos sub-espacios vectoriales de un mismo espacio V, se dice entonces que U1 y U2 forman suma directa si todo vector u U1 +U2 se descompone como suma de un vector ~u1 de U1 ms otro ~u2 U2 de forma nica. Ser denotada por el smbolo U1 U2
Valores y Vectores Propios Los vectores propios, autovectores o eigenvectores de un operador lineal son los vectores no nulos que, cuando son transformados por el operador, dan lugar a un mltiplo escalar de s mismos, con lo que no cambian su direccin. Este escalar recibe el nombre valor propio, autovalor, valor caracterstico o eigenvalor. A menudo, una transformacin queda completamente determinada por sus vectores propios y valores propios. Un espacio propio, autoespacio, eigenespacio o sub-espacio fundamental asociado al valor propio es el conjunto de vectores propios con un valor propio comn. Clculo de valores propios y vectores propios de matrices Si se quiere calcular los valores propios de una matriz dada y sta es pequea, se puede calcular simblicamente usando el polinomio caracterstico. Sin embargo, a menudo resulta imposible para matrices extensas, caso en el que se debe usar un mtodo numrico. Clculo simblico Clculo de los valores propios Una herramienta importante para encontrar valores propios de matrices cuadradas es el polinomio caracterstico: decir que es un valor propio de A es equivalente a decir que el sistema de ecuaciones lineales A v = v A v - v = 0 (factorizando por v queda) (A - I) v = 0 (donde I es la matriz identidad) tiene una solucin no nula v (un vector propio), y de esta forma es equivalente al determinante: La funcin p() = det(A - I) es un polinomio de pues los determinantes se definen como sumas de productos. ste es el polinomio caracterstico de A: los valores propios de una matriz son los ceros de su polinomio caracterstico. Todos los valores propios de una matriz A pueden calcularse resolviendo la ecuacin. Si A es una matriz nn, entonces tiene grado n y A tiene como mximo n valores propios. El teorema fundamental del lgebra dice que esta ecuacin tiene exactamente n races (ceros), teniendo en cuenta su multiplicidad. Todos los polinomios reales de grado impar tienen un nmero real como raz, as que para n impar toda matriz real tiene al menos valor propio real. En el caso de las matrices reales, para n par e impar, los valores propios no reales son pares conjugados. Clculo de los vectores propios Una vez que se conocen los valores propios , los vectores propios se pueden hallar resolviendo el sistema de ecuaciones homogneo: Una forma ms sencilla de obtener vectores propios sin resolver un sistema de ecuaciones lineales se basa en el teorema de Cayley-Hamilton que establece que cada matriz cuadrada satisface su propio polinomio caracterstico. Ejemplo de matriz sin valores propios reales: Un ejemplo de matriz sin valores propios reales es la rotacin de 90 grados en el sentido de las manecillas del reloj cuyo polinomio caracterstico es y sus valores propios son el par de conjugados complejos i, -i. Los vectores propios asociados tampoco son reales. Ejemplo: Considrese la matriz
Que representa un operador lineal R R. Si se desea computar todos los valores propios de A, se podra empezar determinando el polinomio caracterstico:
Y porque p(x) = - (x - 2)(x - 1)(x + 1) se ve que los valores propios de A son 2, 1 y -1. El teorema de Cayley-Hamilton establece que cada matriz cuadrada satisface su propio polinomio caracterstico. Es decir:
Efectivamente, para el caso del valor propio 2, se puede comprobar que De donde (1, 1, -1) es un vector propio asociado a 2.
Clculo numrico En la prctica, los valores propios de las matrices extensas no se calculan usando el polinomio caracterstico. Calcular el polinomio resulta muy costoso, y extraer las races exactas de un polinomio de grado alto puede ser difcil de calcular y expresar: el teorema de Abel-Ruffini implica que las races de los polinomios de grado alto (5 o superior) no pueden expresarse usndose simplemente races ensimas. Existen algoritmos eficientes para aproximar races de polinomios, pero pequeos errores en la estimacin de los valores propios pueden dar lugar a errores grandes en los vectores propios. En consecuencia, los algoritmos generales para encontrar vectores propios y valores propios son iterativos. La manera ms fcil es el mtodo de las potencias: se escoge un vector aleatorio y se calcula una secuencia de vectores unitarios:
Esta sucesin casi siempre converger a un vector propio correspondiente al mayor valor propio. Este algoritmo es sencillo, pero no demasiado til aisladamente. Sin embargo, hay mtodos ms populares, como la descomposicin QR, que se basan en l. Propiedades Multiplicidad: La multiplicidad algebraica de un valor propio de A es el orden de como cero del polinomio caracterstico de A; en otras palabras, si es una de las races del polinomio, es el nmero de factores (t ) en el polinomio caracterstico tras la factorizacin. Una matriz nn tiene n valores propios, contados de acuerdo con su multiplicidad algebraica, ya que su polinomio caracterstico tiene grado n. Un valor propio de multiplicidad algebraica 1 recibe el nombre de "valor propio simple". Por ejemplo, se pueden encontrar exposiciones como la siguiente en artculos de teora de matrices: "los valores propios de una matriz A son 4,4,3,3,3,2,2,1,"lo que significa que la multiplicidad algebraica de 4 es dos, la de 3 es tres, la de 2 es dos y la de 1 es uno. Se emplea este estilo porque la multiplicidad algebraica es la clave de muchas demostraciones matemticas en teora de matrices. Anteriormente se ha definido la multiplicidad geomtrica de un valor propio como la dimensin del espacio propio asociado, o el ncleo (espacio propio de los vectores propios del valor propio nulo) de I - A. La multiplicidad algebraica tambin puede entenderse como una dimensin: es la dimensin del espacio propio generalizado (1. er sentido) asociado, que es el ncleo de la matriz (I - A) k para k suficientemente grande. Es decir, es el espacio de los vectores propios generalizados (1. er sentido), donde un vector propio generalizado es cualquier vector que toma valor 0 s I - A se aplica suficientes veces en sucesin. Cualquier vector propio es un vector propio generalizado, as que cualquier espacio propio est contenido en el espacio propio generalizado asociado. Esto proporciona una demostracin simple de que la multiplicidad geomtrica es siempre menor o igual a la algebraica. El primer sentido no debe de confundirse cn el problema de valores propios generalizados tal y como se muestra ms adelante. Por ejemplo : Slo tiene un valor propio = 1. El polinomio caracterstico es , as que este valor propio tiene multiplicidad algebraica 2. Sin embargo, el espacio propio asociado es el eje, que normalmente recibe el nombre de eje x, generado por el vector unitario , as que la multiplicidad geomtrica es 1. Los vectores propios generalizados pueden usarse para calcular la forma normal de Jordan de una matriz (comentado ms adelante). El hecho de que los bloques de Jordan en general no son diagonales sino nilpotentes est directamente relacionado con la distincin entre vectores propios y vectores propios generalizados. Teoremas de descomposicin para matrices generales El teorema de descomposicin es una versin del teorema espectral en una clase concreta de matrices. Este teorema se explica normalmente en trminos de transformacin coordinada. Si U es una matriz invertible, puede verse como una transformacin entre un sistema de coordenadas a otro, donde las columnas de U son las componentes de la nueva base de vectores expresados en trminos de la base anterior. En este nuevo sistema las coordenadas del vector se representan por , que puede obtenerse mediante la relacin y, por otra parte, se tiene . Aplicando sucesivamente , y , a la relacin proporciona con , la representacin de A en la nueva base. En esta situacin, se dice que las matrices A y son semejantes. El teorema de descomposicin declara que, si se eligen como columnas de n vectores propios linealmente independientes de A, la nueva matriz es diagonal y sus elementos en la diagonal son los valores propios de A. Si esto es posible, entonces A es una matriz diagonalizable. Un ejemplo de una matriz no diagonalizable es la matriz A ya mostrada:
Hay muchas generalizaciones de esta descomposicin que pueden tratar con el caso no diagonalizable, diseadas con diferentes propsitos: la descomposicin de Schur declara que toda matriz es equivalente a una matriz triangular. la descomposicin en valores singulares, donde es diagonal con U y V matrices unitarias, los elementos de la diagonal de no son negativos y reciben el nombre de valores singulares de A. Esta descomposicin tambin puede hacerse en matrices no cuadradas. la forma normal de Jordan, donde y no es diagonal sino diagonal por bloques. El nmero y tamao de los bloques de Jordan estn determinados por las multiplicidades geomtrica y algebraica de los valores propios. La descomposicin de Jordan es un resultado fundamental. A partir de ella se puede deducir inmediatamente que una matriz cuadrada est descrita completamente por sus valores propios, incluyendo la multiplicidad. Esto muestra matemticamente el importante papel que desempean los valores propios en el estudio de matrices. como consecuencia inmediata de la descomposicin de Jordan, cualquier matriz A puede escribirse de forma nicacomo A=S + N donde S es diagonalizable, N es nilpotente (por ejemplo, tal que N q =0 para un cierto q), y S cumple la propiedad conmutativa del producto (SN=NS). Otras propiedades de los valores propios El espectro es invariante bajo transformaciones semejantes: las matrices A y P -1 AP tienen los mismos valores propios para cualquier matriz A y cualquier matriz invertible P. El espectro es tambin invariante a la trasposicin de las matrices: A y A T tienen los mismos valores propios. Dado que una transformacin lineal en espacios de dimensiones finitas es biyectiva si y slo si es inyectiva, una matriz es invertible si y slo si cero no es un valor propio de la matriz. Otras consecuencias de la descomposicin de Jordan son: una matriz es matriz diagonalizable si y slo si las multiplicidades geomtrica y algebraica coinciden para todos sus valores propios. En particular una matriz nn que tiene n valores propios diferentes es siempre diagonalizable; Dado que la traza, o la suma de elementos de la diagonal principal de una matriz se preserva en la equivalencia unitaria, la forma normal de Jordan constata que es igual a la suma de sus valores propios. De forma similar, dado que los valores propios de una matriz triangular son las entradas de la diagonal principal su determinante es igual al producto de los valores propios (contados de acuerdo con su multiplicidad algebraica). Algunos ejemplos de la localizacin del espectro de ciertas subclases de matrices normales son: Todos los valores propios de una matriz hermtica (A = A * ) son reales. Adems, todos los valores propios de una matriz definida positiva son positivos; Todos los valores propios de una matriz antihermetica (A = A * ) son imaginarios puros; Todos los valores propios de una matriz unitaria (A -1 = A * ) tienen valor absoluto uno. Si A es una matriz mn con m n, y B es una matriz nm, entonces BA tiene los mismos valores propios de AB ms n m valores propios nulos. A cada matriz se le puede asociar una norma vectorial, que depende de la norma de su dominio, el operador norma de una matriz cuadrada es una cota superior del mdulo de sus valores propios, y por tanto de su radio espectral. Esta norma est directamente relacionada con el mtodo de las potencias para calcular el valor propio de mayor mdulo. Para matrices normales, el operador norma (la norma eucldea) es el mayor mdulo entre de sus valores propios. Vector propio conjugado Un vector propio conjugado es un vector que tras la transformacin pasa a ser un mltiple escalar de su conjugado, donde el escalar recibe el nombre de valor propio conjugado de la transformacin lineal. Los vectores propios y valores propios conjugados representan esencialmente la misma informacin y significado que los vectores propios y valores propios, pero aparecen cuando se utiliza un sistema de coordenadas alternativo. La ecuacin correspondiente es: Por ejemplo, en teora de electromagnetismo disperso, la transformacin lineal A representa la accin efectuada por el objeto dispersor, y los vectores propios representan los estados de polarizacin de la onda electromagntica. En ptica, el sistema coordenado se define a partir del punto de vista de la onda, y lleva a una ecuacin de valor propio regular, mientras que en radar, el sistema coordenado se define desde el punto de vista del radar, y da lugar a una ecuacin de valor propio conjugado. Problema de valor propio generalizado Un problema de valor propio generalizado (2 sentido) es de la forma
Donde A y B son matrices. Los valores propios generalizados (2 sentido) pueden obtenerse resolviendo la ecuacin
El conjunto de matrices de la forma , donde es un nmero complejo, recibe el nombre de lpiz si B es invertible, entonces el problema original puede escribirse en la forma que es un problema de valores propios estndar. Sin embargo, en la mayora de situaciones es preferible no realizar la inversin, y resolver el problema de valor propio generalizado con la configuracin original. Si A y B son matrices simtricas con entradas reales, entonces los valores propios son reales. Esto se aprecia tan fcilmente a partir de la segunda formulacin equivalente, pues la matriz no es necesariamente simtrica si A y B lo son. La aplicacin de moleculares orbitales expuesta ms adelante proporciona un ejemplo de este caso.
CONCLUSION
Luego de investigar e indagar acerca de la informacin que hemos obtenido podemos concluir en que los vectores son de vital importancia a la hora de realizar clculos algebraicos, que los sub-espacios son un subconjunto no vaco S del espacio vectorial R n se dice que es un sub-espacio cuando contiene todas las combinaciones lineales que se pueden formar con miembros de S, que los teoremas de los sub-espacios vectoriales nos sirven para resolver diferentes casos presentes en el mismo, que se llama base de un espacio o sub-espacio vectorial a un sistema generador de dicho espacio o sub-espacio, que sea a la vez linealmente independiente, y la dimensin es el mximo nmero de vectores independientes que podemos tener en el espacio o sub- espacio. En otras palabras, es el mximo rango que puede tener un conjunto de vectores de dicho espacio.