Algebra 3
Algebra 3
Algebra 3
Universidad de Panamá
Licenciatura en Matemáticas
Materia
Algebra 3
Facilitadora
Lineth Barrios
Estudiantes:
Los módulos son estructuras algebraicas que generalizan el concepto de espacio vectorial
sobre un cuerpo a un anillo arbitrario. Un módulo sobre un dominio de integridad es un
conjunto acompañado de una operación de suma interna y una operación de producto
externo, que cumplen ciertas propiedades y están sujetas a las leyes algebraicas del
dominio de integridad.
Además, los módulos sobre un dominio de integridad presentan una estrecha relación con
otros conceptos algebraicos importantes, como los ideales. De hecho, los ideales son
ejemplos particulares de submódulos de un módulo sobre un dominio de integridad. Esta
conexión entre los módulos y los ideales permite utilizar herramientas y técnicas de la
teoría de ideales para analizar y estudiar los módulos sobre un dominio de integridad.
Dominio de integridad
Teoremas
-Teorema de la base de los módulos libres: Todo módulo libre sobre un dominio de
integridad tiene una base bien definida y todo submódulo de un módulo libre es libre.
Demostraciones
1.Probemos que ( Z ,+ ,∙ ¿ es un dominio de integridad
( 0 ) 0 ≠ 0 ; premisa
´
de la conmutatividad 0 =0
{0 ≠ 0´ , a+0=a , b+ 0´ =b }⊢ ⊥
∴ por reducción alo absurdo se concluye que
{ a+0=a , b+0´ =b } ⊢ ( 0=0´ )
Esto implica que el neutro aditivo es único demostrando así que el dominio de integridad
es único.
( a )(−a )=(−1)(a)
( b )(−a+b ) =(−a)(−b)
( c ) a (−b )=−(ab)
Por conmutatividad
( D 2 ) a , bϵD ⊢ab=ba
Por asociatividad
Por distributiva
Neutro aditivo
Inverso aditivo
Solución
Demostrar
Demostrar
3 Sea a,b,ϵD ⊢ (−a ) b=−(ab)
Teorema de Diagonalización
Teorema de diagonalización: Sea A una matriz cuadrada de tamaño n×n con entradas en
un cuerpo K. Si A tiene n vectores propios linealmente independientes, entonces A es
diagonalizable, lo que significa que existe una matriz invertible P tal que P^(-1)AP es una
matriz diagonal.
-Lema del espacio propio: El lema del espacio propio es un resultado utilizado en la
demostración del teorema de diagonalización. El lema establece que si A es una matriz
cuadrada y v es un vector propio asociado a un valor propio λ, entonces cualquier múltiplo
de v también es un vector propio asociado a λ.
Es importante destacar que no todas las matrices son diagonalizables. Algunas matrices
pueden tener valores propios repetidos o no tener suficientes vectores propios
linealmente independientes, lo que impide la diagonalización. En estos casos, se pueden
utilizar técnicas alternativas, como la forma canónica de Jordan, para analizar la estructura
de la matriz.
-Lema del polinomio mínimo: El lema del polinomio mínimo establece que si una matriz A
tiene un polinomio mínimo que se factoriza completamente en K[x], donde K es el cuerpo
sobre el cual está definida la matriz, entonces A es diagonalizable. El polinomio mínimo es
el polinomio mónico (con coeficiente principal igual a 1) de menor grado que se anula en
A.
-Lema de la matriz diagonalizable: Sea A una matriz cuadrada de tamaño n×n con entradas
en un cuerpo K. Si A tiene n valores propios distintos, entonces A es diagonalizable.
Corolarios:
Demostración:
Demostración
1. Considera el espacio vectorial V sobre el cuerpo de los números complejos, dado
por V=C3, y sea T: V -> V una transformación lineal definida por la matriz:
[ ]
2 0 0
A= 1 1 1
0 0 3
Solución:
a) Para demostrar que v1 es un vector propio de A con valor propio asociado λ1,
debemos verificar que se cumple la ecuación A·v1 = λ1·v1. Calculamos:
[ ][ ] [ ]
2 0 0 1 2
A . v 1= 1 1 1 . 1 = 3
0 0 3 1 3
λ 1. v 1=2. [ 1 ] =[ 2 ]
[ 11]
Observamos que A·v1 = λ1·v1, por lo tanto, v1 es un vector propio de A con valor propio
λ1= 2.
b) Para encontrar una base del subespacio propio correspondiente a λ1, debemos
encontrar vectores v2 y v3 que sean linealmente independientes con respecto a v1 y
también sean vectores propios de A con valor propio λ1 = 2. Buscamos vectores no nulos
que cumplan la ecuación A·vi = λ1·vi para i = 2, 3.
[ 20]
Observamos que A·v2 = λ1·v2, por lo tanto, v2 es un vector propio de A con valor propio
λ1 = 2. De manera similar, calculamos:
[ ][ ] [ ]
2 0 0 0 0
A . v 3= 1 1 1 . 0 = 2
0 0 3 1 3
λ 1. v 3=2. [ 0 ]= [ 0 ]
[ 02]
Vemos que A·v3 = λ1·v3, por lo tanto, v3 es un vector propio de A con valor propio λ1 = 2.
Ahora, para diagonalizar la matriz A, formamos una matriz P con los vectores propios
como columnas:
[ ]
1 0 0
P= [ v 1 v 2 v 3 ] = 1 1 1
1 0 1
Calculamos:
[ ]
1 0 0
(−1)
P = −1 1 1
0 0 1
[ ] [ ][ ] [ ]
1 0 0 2 0 0 1 0 0 2 0 0
(−1)
D=P . A . P= −1 1 1 . 1 1 1 . 1 1 1 = 0 0 0
0 0 1 0 0 3 1 0 1 0 0 3
[ ]
2 0 0
D= 0 0 0
0 0 3
Problema 2
Sea V un espacio vectorial sobre el cuerpo de los números reales, dado por V = R 4, y
considera la transformación lineal T: V -> V definida por la matriz:
[ ]
4 1 3 3
1 4 −2 2
A=
3 −2 4 −1
3 2 −1 4
b) Para cada valor propio, encuentra una base para el subespacio propio correspondiente.
c) Diagonaliza la matriz A si es posible.
Solución:
Calculamos:
A−λI =[ 4 λ 1 3 3]
[ 1 4 −λ 2 ]
[ 3 −2 4 − λ ]
[ 3 2 −1 4 −λ ]
λ1 = 2
λ2 = 5
λ3 = 7
λ4 = 10
b) Para cada valor propio, encontraremos una base para el subespacio propio
correspondiente.
Para λ1 = 2: Resolvemos el sistema (A - 2I)·v = 0 para encontrar los vectores propios
correspondientes a λ1.
Calculamos:
[ ]
2 1 3 3
1 2 −2 2
( A−2 I )=
3 −2 2 −1
3 2 −1 2
[ ][ ][ ]
2 1 3 3 v1 0
1 2 −2 2 v2 0
. =
3 −2 2 −1 v 3 0
3 2 −1 2 v4 0
Resolviendo este sistema de ecuaciones, encontramos una solución particular v1 = (1, -1,
0, 0) y una solución general v = (v1, v2, v3, v4) = (1, -1, 0, 0)·t, donde t es un escalar. Por lo
tanto, una base para el subespacio propio correspondiente a λ1 = 2 es {v1} = {(1, -1, 0, 0)}.
Repetimos este proceso para los demás valores propios:
Para λ2 = 5: Resolviendo el sistema (A - 5I)·v = 0, encontramos una base para el subespacio
propio correspondiente a λ2 = 5: {v2} = {(1, -1, 2, 1)}.
Para λ3 = 7: Resolviendo el sistema (A - 7I)·v = 0, encontramos una base para el subespacio
propio correspondiente a λ3 = 7: {v3} = {(1, 1, -1, 1)}.
Para λ4 = 10: Resolviendo el sistema (A - 10I)·v = 0, encontramos una base para el
subespacio propio correspondiente a λ4 = 10: {v4} = {(1, 1, 2, 1)}.
c) Para diagonalizar la matriz A, necesitamos verificar que los vectores propios obtenidos
en la parte b) formen una base para V. En este caso, vemos que los vectores propios son
linealmente independientes, ya que no se pueden expresar como combinación lineal unos
de otros. Por lo tanto, podemos construir la matriz P con los vectores propios como
columnas:
P= [ v 1 v 2 v 3 v 4 ] =[ 1 1 1 1 ]
[ −1 −1 1 1 ]
[ 0 2 −1 2 ]
[0 1 1 1]
La matriz P es invertible, ya que los vectores propios son linealmente independientes. Para
diagonalizar A, calculamos la matriz D = P(-1)·A·P:
D = P(-1)·A·P
Diagonalizando la matriz A, obtenemos la matriz diagonal D, que será la matriz
diagonalizada si es posible.
Sobre un dominio de integridad, nos referimos a un conjunto con una estructura similar a
un espacio vectorial, pero donde el escalar proviene de un dominio de integridad en lugar
de un campo. A continuación, te proporcionaré algunas definiciones, lemas, propiedades,
corolarios y proposiciones relacionadas con los módulos sobre un dominio de integridad.
Definiciones:
Lemas
Propiedades
Corolarios
Demostraciones:
Demostración
Consideremos ahora el ideal I generado por los elementos r en R tales que rm = 0 para
algún m en M. Como R es un dominio de ideales principales, I es un ideal principal
generado por un único elemento a en R. Por lo tanto, existe un elemento a en R tal que I =
Ra.
Problema 2
Supongamos, por el contrario, que todos los elementos en el conjunto {m1, m2, ..., mn}
pueden ser expresados como combinaciones lineales de los demás elementos. En ese
caso, podemos construir una cadena de submódulos:
{0} ⊂ <m1> ⊂ <m1, m2> ⊂ <m1, m2, m3> ⊂ ... ⊂ <m1, m2, ..., mn> = M
Ese elemento que no puede ser expresado como una combinación lineal de los demás
elementos es un generador cíclico para M, ya que cualquier elemento en M se puede
expresar como un múltiplo de ese elemento.
Dummit, D. S., & Foote, R. M. (2004). Abstract Algebra (3rd ed.). Wiley.
Lang, S. (2002). Algebra (3rd ed.). Springer.
Hungerford, T. W. (2012). Algebra (Graduate Texts in Mathematics, Vol. 73).
Springer.
Herstein, I. N. (2008). Topics in Algebra (2nd ed.). Wiley.
Artin, M. (2010). Algebra (2nd ed.). Pearson.
Lang, S. (2005). Undergraduate Algebra (3rd ed.). Springer.
Rotman, J. J. (2010). Advanced Modern Algebra (2nd ed.). American Mathematical
Society.
Aluffi, P. M. (2009). Algebra: Chapter 0. American Mathematical Society.
Gallian, J. A. (2017). Contemporary Abstract Algebra (9th ed.). Cengage Learning.
Hungerford, T. W. (2014). Abstract Algebra: An Introduction (3rd ed.). Cengage
Learning.
Dummit, D. S., & Foote, R. M. (2009). Álgebra abstracta (3a ed.). Limusa.
Herstein, I. N. (1998). Álgebra moderna (Traducción de la 2a ed.). Grupo Editorial
Iberoamérica.
Lang, S. (2007). Álgebra lineal (3a ed.). Addison Wesley.
Grillet, P. A. (2007). Álgebra abstracta (2a ed.). Proyecto Gutenberg.
Bosch, S., & Roselló, M. (2012). Álgebra y geometría. Universidad de Barcelona.