Libro Math
Libro Math
Libro Math
Tonatiuh Matos(1)
Petra Wiederhold(2)
(1) Departamento de Fı́sica, Centro de Investigación y de Estudios
Avanzados del IPN, A.P. 14-740, 07000 México D.F., México.
E-mail address, 1: [email protected]
URL: http://www.fis.cinvestav.mx/~tmatos
1. Prefacio vi
2. Nomenclatura viii
Part 1. PRELIMINARES 1
3. Conjuntos 2
4. Mapeos 4
5. Producto Cartesiano y Relaciones 8
6. Operaciones 11
7. El Conjunto Ordenado ℜ 12
Part 2. ÁLGEBRA 17
Chapter 3. MATRICES 41
1. Mapeos Lineales y Matrices 41
2. Isomorfismos 43
3. Ecuaciones Lineales 47
4. Transpuesta e Inversa de Matrices 49
Chapter 4. DETERMINANTES 53
1. Definición 53
2. Matrices Similares 57
3. Invariantes de Matrices Similares (Vectores y Valores Propios) 58
1. Introducción 63
2. Forma Canónica de Jordan 69
3. Forma Canónica Natural 73
1. Prefacio
Este trabajo es el resultado de la impartición durante 20 años de las materias
de Matemáticas y de Métodos Matemáticos en los Departamentos de Fı́sica, de
Ingenierı́a Eléctrica y de Control Automático del Centro de Investigación y de Es-
tudios Avanzados del IPN (Cinvestav), ası́ como en el Instituto de Fı́sica y Matemá
ticas de la Universidad Michoacana, en México. También se ha impartido parte del
material, incluyendo la parte de topologı́a en cursos especiales de geometrı́a difer-
encial en las anteriores instituciones y en el Astronomisch-Physikalisches Institut de
la Friederich-Schiller-Universitët de Jena, Alemania, en el Institut fër Theoretische
Physik, de la Technische Universitë Wien y en el Departament of Physics of the
University of British Columbia, en Vancouver, Canada. El temario es básicamente
el correspondiente al de la mayorı́a de las instituciones donde se imparte la carrera
de Fı́sica y Tecnologı́a avanzada en México, como son el CINVESTAV, la UNAM
o la UAM, la Universidad Michoacana, la Veracruzana, etc. y estoy seguro que en
otros paı́ses de Ispanoamérica. Este material tiene como objetivo suplir la terrible
deficiencia de no haber un curso en español, que corresponda a los temarios de las
instituciones de habla ispana, hablado en lenguage espa nol.
El objetivo del libro es multiple. El principal es dar al estudiante la idea
fundamental de lo que son las matemáticas: las matemáticas son la herramienta
que nos ayuda a pensar. Es por eso que el objetivo de estos cursos no ha sido
informativo, sino mas bien formativo. Con estos cursos nosotros pretendemos que
el estudiante adquiera una formación mı́nima de matemáticas para la investigación
en las ciencias y las ingenierı́as. El avance de las ciencias naturales y de la ingenierı́a
hace cada vez mas necesario que el estudiante no solo aprenda a calcular en las
ramas de las matemáticas que se utilizan en su campo, sino que aprenda a utilizar
los teoremas y los resultados emanados de la matemática en toda su connotación.
Es por eso que el libro inicia con definiciones muy elementales, pero necesarias
para entender el resto del material. Sin embargo, el libro no esta pensado para
que el estudiante se convierta en matemático profesional. Esta es la razón por la
que para los teoremas que nosotros consideramos demasiado largos de demostrar,
no se incluye su demostración, solo se enuncian sus postulados con sus premisas
y se utilizan. El libro no pretende ser un compendio completo de matemáticas,
ni siquiera de las matemá ticas que se utilizan en alguna rama en especial. Cada
capı́tulo de este libro podrı́a extenderse a ser un libro gigante de cada tema. Ese
no es el objetivo del libro. Mas bien pretende introducir al estudiante a cada
tema, para que cuando necesite de éste, pueda recurrir a libros especializados del
tema particular, pero pueda entender este libro especializado con un mı́nimo de
dificultad. Los temas tocados por el libro son los temas básicos tı́picos de un curso
de matemáticas: Álgebra, Análisis, Variable Compleja, Ecuaciones Diferenciales
y Topologı́a, que son los tópicos mı́nimos que un matemático deberı́a dominar.
Esta experiencia en la enseñanza de las matemáticas es la que se utiliza en este
libro, para que el estudiante adquiera un mı́nimo de formación en matemáticas
para su investigación en ciencias o en ingenierı́a. La parte de topologı́a diferencial
o variedades diferenciales se agrega, ya que esta área de las matemáticas se ha
convertido en una excelente herramienta para la mecánica clásica, la mecánica
cuántica, la termodinámica, el control automático, entre otras ramas de la ciencia
y la tecnologı́a.
1. PREFACIO vii
2. Nomenclatura
2.1. Conjuntos.
Definición 0.1. .
La unión de A con B : A ∪ B
La interseccion entre A y B : A ∩ B
Conjunto vacio φ
A es subconjunto de B: A ⊂ B
El complemento del conjunto A: Ac
La diferencia entre A y B : A \ B
El conjunto potencia de A: P(A)
2.2. Mapeos.
Definición 0.2. .
Mapeo o función f de E en F : f : E → F
Dominio de definición de f : Df
Dominio de valores de f : Vf
Composición de mapeos: (g ◦ f )(x) = g(f (x))
Mapeo inverso: f −1
Imagen del conjunto X : f (X)
Imagen inversa: f −1 (Y )
2.3. Producto Cartesiano y Relaciones.
Definición 0.3. .
Producto cartesiano: A × B
Relación entre dos conjuntos: (a, b) ∈ R o aRb o a ∼ b
Clase de equivalencia de x : [x]
El conjunto de todas las clases de equivalencia: E
Conjunto cociente: E =E / ∼
Operación binaria: ϕ : E × E ⇀ E
Ejemplo 0.4. ϕ(x, y) = x + y, ϕ(x, y) = x · y, ϕ(x, y) = x − y, x, y ∈ E,
etc.
2.4. Conjuntos Especiales.
Definición 0.5. .
Los números Naturales: N
Los números Enteros: Z
Los números Racionales: Q
Los números Reales: ℜ
Los números Complejos: C
2.5. En los reales ℜ.
Definición 0.6. .
Conjunto parcialmente ordenado: (A, ≤)
Los Reales positivos: ℜ+ = {x ∈ ℜ : x > 0}
Los Reales negativos: ℜ− = {x ∈ ℜ : x < 0}.
El mı́nimo de A: min A
El máximo de A: max A
El supremo de x: sup x
El ı́nfimo de x: inf x
2. NOMENCLATURA ix
2.6. Álgebra.
Definición 0.7. .
Grupo o Semigrupo: (A, ·)
Grupo Cociente: E/H
Anillo: (A, +, ·)
Espacio Vectorial: (K, V, +, ·) o simplemente V
Álgebra: (A, +, ·, ◦)
Espacios isomofos: V1 ∼ = V2
Subespacios: V1 ⊂sub V1
Cerradura lineal de X : L(X)
Linealmente independiente: l.i.
La Dimensión de V : dim V = n
El conjunto de las Transformaciones lineales o mapeos lineales: L(V1 , V2 ) :=
Hom(V1 , V2 )
El nucleo de f : ker f
El Rango de f : Rgf := dim f (V1 )
2.7. Matrices.
Definición 0.8. .
La transpuesta de A: AT
El Rango de A : RgA
La inversa de una matriz A : A−1
1 0
..
La matriz identidad: I = .
0 1
El determinante de A : det A
La Traza de la matriz A: Tr A
Delta de Kronecker: δkj = (I)ij
Matriz caracteristica de A: A − λI
Polinomio carateriztico de A: det (A − λI)
Ecuación caracteristica de A: det (A − λI) = 0.
Matrix polinomial: U (λ)
2.8. Variable Compleja.
Definición 0.9. .
Parte Real de z: Re(z)
Parte imaginaria: Im(z)
Módulo de z: |z|
Complejo conjugado: z̄
Lı́mite de f : limz→z1 f (z) = z2
df
La derivada de f en z: dz
2
Función armónica: ∇ u = 0
2.9. Espacios Unitarios y Métricos.
Definición 0.10. .
Espacio Euclidiano o Espacio Unitario: (E, (·, ·))
Espacio normado: (E, k · k)
Norma de x: k x k
x CONTENTS
x es perpendicular u ortogonal a y: x ⊥ y
Complemento ortogonal de H: H ⊥
Espacio métrico: (X, ρ)
Distancia entre x y y: ρ (x, y)
Bola de centro x ∈ X y radio r > 0 : Br (x)
Una sucesión: (xn ) o xn
Convergencia de una sucesión: lim xn = x o xn → x
n→∞
Definición 0.11. .
El conjunto de funciones continuas en [a, b] : C ([a, b])
El espacio de polinomios definidos en [a, b] : Pn ([a, b])
Conjunto de las funciones trigonométricas: T ([−π, π])
Polinomio de grado n: pn o pn (x).
Polinomios de Legendre: Pn o Pn (x)
Polinomios de Bessel Jn
Polinomios de Hermite: Hn o Hn (x)
Polinomios de Laguerre: Ln
Polinomios de Tchebichef de primera clase: Tn
Polinomios de Tchebichef de segunda clase: Un
Polinomios de Jacobi: Pnν,µ
Polinomios de Gegenbauer: Cnλ
El espacio de las funciones periodicas en [a, b] : Fp ([a, b])
Espacio Pseudo-Euclidiano o Espacio de Lorentz: L
Grupo de isometrias del espacio métrico (X, ρ) : Iso (X, ρ)
2.10. Espacios de Hilbert y Banach.
Definición 0.12. Sistema
P ortonormal: {xi }i∈I
Serie de Fourier: iǫI (x, xi ) xi
Operador adjunto de A: A∗
Operador hermitiano de A: A†
2.11. Espacios con Medida.
Definición 0.13. Álgebra o Álgebra-σ sobre Ω: F
Conjuntos de Borel: E
Espacio Medible: (Ω, F )
Medida: µ o m
Espacio con Medida: (Ω, F , µ)
Medida de Dirac: δx
Función indicadora: χA
2.12. Ecuaciones Diferenciales.
Definición 0.14. .
La ecuación del oscilador armónico y ′′ + ω 2 y = 0.
Ecuación diferencial de Legendre:
d2 d
1 − x2 dx 2 Pn − 2x dx Pn + n (n + 1) Pn = 0
d2 d
Ecuación diferencial de Bessel: x2 dx 2
2 Jn + x dx Jn + x − n
2
Jn = 0
d2 d
Ecuación diferencial de Hermite: dx 2 H n − 2x H
dx n + 2nH n = 0
d2 d
Ecuación diferencial de Laguerre: x dx2 Ln + (1 − x) dx Ln + nLn = 0
2. NOMENCLATURA xi
El interior de A: Å
La frontera de A: ∂A
El conjunto de funciones continuas: M ap(X, Y ) = C 0 (X, Y )
Las proyecciones de X × Y : Πx
La inclusión de A en X: i : A ֒→ X
hom
Espacios topológicos homeomorfos: X ∼ Y
El grupo de automorfismos: (Aut(X), ◦)
Camino o trayectoria: c
Reparametrización de c: ϕ∗ (c)
2.15. Variedades Diferenciales.
Definición 0.17. .
Variedad real de dimensión n: (M n , τM N )
Carta sobre M n : cα = (Uα , ψα , Vα )
Dominio de la carta: Uα
Sistema de coordenadas sobre Uα: (Uα , ψα )
Parametrización de Uα : ψα−1 , Vα
Imagen de la carta cα : Vα = ψα (Uα )
i-ésima función coordenada sobre ℜn : ri
i-ésima función coordenada del sistema de coordenadas xiα := ri ◦ ψα
Funciones de transición: ψαβ := ψβ ◦ ψα−1
Funciones suaves sobre M n : C ∞ (M n , ℜ)
Funciones suaves en la vecindad de x: C ∞ (M n , x, ℜ)
Imagen recı́proca o “Full-back” de F : F ∗
dif
Variedades difeomórficas: M m = ∼ Nn
n
Espacio tangente en x: Tx M
∂ ∂
Vector en Tx M n : ∂x i
x
tal que ∂x i
x
(f ) := ∂r∂ i f ◦ ψ −1 ψ
∂ (x)
Base coordenada de Tx M n : i
∂x x i=1,··· ,n
2.16. 1-Formas.
Definición 0.18. .
La diferencial de F en x: dFx = Fx∗
Espacio cotangente en x: Tx∗ M n
Campos vectoriales en M n : T M n
1-formas en M n : T ∗ M n
Producto ó paréntesis de Lie: [X, Y ]
ϕ-relacionados: dϕx (Xx ) = Yϕ(x)
X ϕ-invariante o invariante bajo ϕ : X ◦ ϕ∗ = ϕ∗ ◦ X , o dϕx (Xx ) = Xϕ(x)
Imagen reciproca o “pull-back”: Fy∗
Part 1
PRELIMINARES
3. Conjuntos
Toda construcción matemática inicia con elementos básicos fundamentales, ax-
iomas y postulados que se aceptan de antemano. Estos elementos son la base de
toda la estructura matemática que vamos a construir aquı́. Para nosotros, la base
de nuestra construcción van a ser los conjuntos y suponemos que el lector está
familiarizado con los conceptos básicos de la teorı́a de conjuntos. Sin embargo,
para especificar la notación que usaremos a lo largo del libro, vamos a recordar
algunos conceptos básicos, sin detenernos mucho en ellos. Nombramos, por lo gen-
eral, conjuntos mediante letras mayúsculas y elementos mediante letras minúsculas.
Recordamos que si A y B son conjuntos, entonces:
* a ∈ A denota que el elemento a pertenece al conjunto A;
* a 6∈ A denota que el elemento a no pertenece al conjunto A;
* El conjunto A ∪ B = {a | a ∈ A o a ∈ B} es la unión de A y B;
* El conjunto A ∩ B = {a | a ∈ A y a ∈ B} es la intersección de A y B;
* φ denota el conjunto vacio, el conjunto que no tiene ningún elemento;
* A ⊂ B, al igual que A j B, denotan que el conjunto A es subconjunto del
conjunto B, lo cual significa que para cualquier elemento x ∈ A implica que x ∈ B;
* A ⊂ B puede también denotar que A j B, con A 6= B, es decir, A es un
subconjunto propio de B;
* A y B son iguales, A = B, siempre cuando A ⊂ B y B ⊂ A;
* Sea E el conjunto que denota el conjunto universo, es decir, el conjunto
de todos los elementos existentes (o de interés). Entonces, para cualquier conjunto
A (siendo entonces un subconjunto de E), Ac = {x ∈ E | x 6∈ A} es el conjunto
complementario (o conjunto complemento) de A;
* El conjunto A \ B = {x ∈ A | x 6∈ B} es el conjunto diferencia entre A y
B.
* El conjunto P(A) = {B | B ⊂ A} es el conjnto de todos los subconjuntos
de A, y se le llama el conjunto potencia de A.
Cuando se trabaja con conjuntos es siempre muy útil la representación de los
conjuntos mediante los Diagramas de Venn, vean por ejemplo la figura 1. Cada
conjunto se representa por una figura en el plano, por ejemplo un cı́rculo o una
elipse, entendiendo que los elementos del conjunto quedan representados por puntos
pertenecientes a la figura. Por ejemplo, el caso de dos conjuntos que se intersectan
se refleja entonces por el hecho de que las figuras correspondientes tienen puntos en
común. A continuación vamos a resumir algunas de las reglas fundamentales para
trabajar con conjuntos.
Proposición 0.19. Sean E un conjunto universo, y A, B, C subconjuntos de
E. Entonces vale lo siguiente:
1) E c = φ, φc = E,
2) (Ac )c = A,
3) A ∪ Ac = E, A ∩ Ac = φ,
4) A ∩ A = A, A ∪ A = A,
5) A ∪ E = E, A ∩ E = A,
6) A ∪ φ = A, A ∩ φ = φ,
7) A ∩ B = B ∩ A, A ∪ B = B ∪ A,
8) (A ∪ B)c = Ac ∩ B c ,
9) (A ∩ B)c = Ac ∪ B c .
10) A ∪ (B ∩ A) = A, A ∩ (B ∪ A) = A.
3. CONJUNTOS 3
S
Figure 1.T Diagramas de Venn para la unión A B, la inter-
sección A B, el complemento Ac y la resta de conjuntos A \ B.
Estos diagramas son muy utilizados para explicar gráficamente las
propiedades de conjuntos.
11) Si A ∪ B = E y A ∩ B = φ , entonces A = B c y B = Ac .
12) (A \ B) ∩ C = (A ∩ C) \ (B ∩ C).
Ac ∩ B c :
Sea x ∈ (A ∪ B)c . Eso significa que x 6∈ (A ∪ B), ası́ que, es falso el hecho
que x ∈ A o x ∈ B. Por lo tanto, x 6∈ A y x 6∈ B, es decir, x ∈ Ac ∩ B c ,
lo cual demuestra que (A ∪ B)c ⊂ Ac ∩ B c . Para mostrar la inclusión contraria,
Ac ∩ B c ⊂ (A ∪ B)c , tomemos un elemento x ∈ Ac ∩ B c , eso significa que x 6∈ A y
a la vez x 6∈ B, lo cual implica que x 6∈ A ∪ B, ası́ que, x ∈ (A ∪ B)c , completando
la demostración.
4. Mapeos
Los mapeos son la estructura matemática que asocia elementos entre conjuntos.
Vamos a definir los mapeos porque los vamos a utilizar intensivamente durante todo
el texto y porque el concepto del mapeo es fundamental en matemáticas. En la
literatura se usan como conceptos sinónimos al de mapeo también aplicación o
función. La definición de mapeo es la siguiente:
Definición 0.22. Sean E y F conjuntos. Un mapeo o función f de E en F
(denotado por f : E → F ),asocia a cada elemento de E, un único elemento de F .
Vean la figura 2.
3) A = ℜ, B = ℜ\{0},
4) A = ℜ\{0}, B = ℜ\{0},
5) A = ℜ, B = ℜ ∪ {zapato},
6) A = ℜ, B = S 1 , donde S 1 es el cı́rculo.
A × B = {(a, b) | a ∈ A, b ∈ B},
Alternativamente, un mapeo puede entenderse también como un producto
cartesiano de dos conjuntos desde las primeras entradas representan el dominion
de la función y la segunda entrada el codominio. Un caso especial del producto
cartesiano es cuando todos los conjuntos son iguales, E = E1 = E2 = · · · = En .
Entonces, el producto cartesiano E × E × · · · × E se denota por E n , y se nombra
la potencia n-ésima del conjunto E : E n = {(e1 , e2 , ..., en ) | ei ∈ E}.
Ejemplo 0.47. El Espacio Vectorial Euclidiano ℜn es un ejemplo bien conocido
de la potencia de un conjunto, ℜn = ℜ × · · · × ℜ = {(a1 , . . . , an ) | ai ∈ ℜ para todo
i ∈ {1, . . . , n}}. En particular, tenemos el Plano Euclidiano ℜ2 = ℜ × ℜ = {(a, b) |
a, b ∈ ℜ}.
Partiendo ahora del concepto de producto cartesiano podemos definir el im-
portante concepto de relación, el cual es básico para el álgebra. Una relación es
básicamente un subconjunto del producto cartesiano, formalmente se define como:
Definición 0.48. Sean E1 , . . . , En , conjuntos y E = E1 × E2 × · · · × En el
conjunto cartesiano de estos. Una relación sobre E es un subconjunto de E.
En particular, si todos los conjuntos E son los mismos, para un conjunto E =
E×E×...×E, cualquier subconjunto de la potencia n-ésima de E se llama relación
n-ária sobre E. Ver figura 5.
El caso más importante es el caso n = 2, la relación se llama entonces relación
binaria sobre E. Si denotamos la relación por R, entonces R ⊂ E × E, ası́ que R
es un conjunto de pares ordenadas (a, b) con a, b ∈ E. En lugar de (a, b) ∈ R se
usa también la notación aRb o, se usa un sı́mbolo apropiado, por ejemplo a ∼ b o
a ≤ b o a k b o a ≡ b.
5. PRODUCTO CARTESIANO Y RELACIONES 9
Las relaciones de equivalencia tienen una gran importancia, debido a que dan
lugar a una descomposición del conjunto en donde se definen en clases. Esta descom-
posición separa los conjuntos en subconjuntos disjuntos dando ası́ una clasificación
natural del conjunto con esta propiedad. Es por eso que las clases de equivalencia
son muy importantes en matemáticas. Por ejemplo, esta descomposición es la base
de la construcción de estructuras cocientes. Veamos esto en la siguiente definición.
Definición 0.53. Sea ∼ una relación de equivalencia sobre E. Para x ∈ E, la
clase de equivalencia de x se define como [x] = {y ∈ E | x ∼ y}. El conjunto E
de todas las clases de equivalencia se llama el conjunto cociente de E, el cual se
denota también por E/ ∼, vean la figura 6:
E = E/ ∼= {[x] | x ∈ E} = {{y ∈ E | y ∼ x} | x ∈ E}
Debido a la reflexividad de una relación de equivalencia ∼ sobre E, la clase
[x] es un conjunto no vacı́o pues contiene a x. Es evidente que toda clase [x] es
un subconjunto de E. Por lo tanto, la unión de todas las clases de equivalencia
es igual al conjunto E. Aplicando la simetrı́a de ∼, es claro que, para x, y ∈ E,
x ∼ y implica que tanto x ∈ [y] como también y ∈ [x]. Tomando en cuenta además
la transitividad de la relación, es fácil deducir que [x] = [y] sı́ y sólo sı́ x ∼ y.
Observese también que clases distintas de equivalencia son disjuntas entre sı́, en
resumen podemos escribir esto en el siguente lema.
Lema 0.54. Si ∼ es una relación de equivalencia sobre E, y [x] es la clase de
equivalencia de x, para x ∈ E, entonces
a) x ∈ [x];
b) x ∼ y sı́ y sólo sı́ [x] = [y] , para x, y ∈ E;
c) si [x] 6= [y] entonces [x] ∩ [y] = φ, para x, y ∈ E.
6. OPERACIONES 11
6. Operaciones
El álgebra abstracta se basa en propiedades de operaciones entre los elementos
de un conjunto. Por eso, aquı́ repasamos y formalizamos conceptos elementales
relacionados con operaciones.
Definición 0.57. Sea E un conjunto. Una operación (binaria) sobre E es
un mapeo ϕ : E × E ⇀ E, con Dϕ = E × E.
Notación 0.58. Para denotar una operación, usualmente se usa un sı́mbolo
apropiado, por ejemplo +, ×, ·, −.
Las operaciónes son clasificadas segun sus propiedades. Estas propiedades son
fundamentales y definen muchas veces a la operación misma. Según las propiedades
de las operaciones se van a definir las estructuras algebraicas. Estas propiedades
son:
Definición 0.59. Una operación ϕ se llama
· Asociativa si ϕ(ϕ(a, b), c) = ϕ(a, ϕ(b, c)), a, b, c ∈ E
· Conmutativa si ϕ(a, b) = ϕ(b, a) a, b ∈ E
· Con elemento neutro si existe e ∈ E tal que ϕ(a, e) = ϕ(e, a) = a para
toda a ∈ E
· Invertible por la izquierda si para todo b, c ∈ E, existe a ∈ E tal que
ϕ(a, b) = c
· Invertible por la derecha si para todo b, c ∈ E, existe a ∈ E tal que
ϕ(b, a) = c
Ejemplo 0.60. Tomemos de nuevo los números reales ℜ. La operación + :
ℜ × ℜ → ℜ, con +(a, b) = a + b, es tal que para todo a, b, c ∈ ℜ, se tiene que +:
· Es Asociativa ya que +(+(a, b), c) = +(a + b, c) = (a + b) + c = a + (b + c) =
ϕ(a, ϕ(b, c)), a, b, c ∈ E
· Es Conmutativa ya que +(a, b) = +(b, a)
· Existe 0, elemento neutro tal que +(a, 0) = +(0, a) = a
· Es Invertible por la izquierda y por la izquierda ya que existe siempre un
número tal que +(a, b) = +(b, a) = c
12
Comentario 0.61. .
a) Cada operación binaria, tiene maximalmente un elemento neutro. Para
demostrar esto, supongamos que ϕ tiene dos elementos neutros e1 y e2 . Entonces
ϕ(e1 , e2 ) = e1 y ϕ(e2 , e1 ) = e2 , pero debido a que e1 y e2 son neutros, se obtiene
e1 = e2 .
b) Otra manera de entender que significa que ϕ es invertible por la izquierda
es la siguiente. Sean b, c ∈ E y consideremos a x como una incognita. Entonces ϕ
es invertible por la izquierda si la ecuación ϕ(x, b) = c siempre se puede resolver.
En particular esto sucede para el caso especial c = e (para el neutro de ϕ), ası́ que
para cualquier b ∈ E, existe a ∈ E tal que ϕ(a, b) = e. Al elemento a se le llama el
elemento inverso izquierdo de b.
c) Análogamente, ϕ es invertible por la derecha significa que la ecuación ϕ(b, x) =
c, con b, c ∈ E para una incognita x, siempre se puede resolver. O sea, existe a ∈ E
tal que ϕ(b, a) = e. A este elemento a se le llama el elemento inverso derecho de b.
Si la operación es invertible (por la izquierda en este caso), implica que existe
x = b−1 que cumple con esta identidad. b−1 es la expresión que se acostumbra para
denotar el inverso de b.
7. El Conjunto Ordenado ℜ
En esta sección veremos a los números reales como un conjunto ordenado, el
orden en estos números es de suma importancia, por eso que les dedicamos una
sección especial. Los números reales son conjuntos ordenados y las operaciones en
ℜ se “portan bien” con respecto al orden. Para comenzar, daremos la definición de
qué significa ordenado. Es un concepto que utilizamos mucho, pero necesita una
definición formal. Veamos esto:
Definición 0.62. Si A es un conjunto y ≤ es una relación binaria, reflexiva,
antisimétrica y transitiva sobre A, entonces ≤ se llama orden parcial sobre A, y
(A, ≤) se llama conjunto parcialmente ordenado.
Como vemos, esta definición se puede aplicar a cualquier conjunto no necesari-
amente de números, el orden parcial es un concepto muy general. En los números
naturales, enteros, racionales, y reales, con su orden parcial ≤ en ℜ definido por
x ≤ y sı́ y sólo sı́ existe k ∈ ℜ, k ≥ 0 tal que x + k = y, todos los números estan
ralacionados entre si, es decir, para cualesquiera dos números x, y , o vale x ≤ y o
bien y ≤ x.
Definición 0.63. Un orden parcial sobre A se llama orden (lineal) si para
todo a, b ∈ A se sigue a ≤ b o b ≤ a.
Notación 0.64. Para efectuar cálculos en (ℜ, +, ·, ≤), usaremos la notación:
x < y sı́ y sólo sı́ x ≤ y y x 6= y.
Comentario 0.65. Obsevemos que ℜ+ ∪ ℜ− ∪ {0} es una descomposición de
ℜ.
Comentario 0.66. N ⊂ ℜ+ y ℜ+ es cerrado bajo las dos operaciones de
(ℜ, +, ·).
Lema 0.67. Para todo a, b, c ∈ ℜ, a ≤ b implica a + c ≤ b + c , y a ≤ b y c ≥ 0
implica que a · c ≤ b · c. (“Monotonı́a” de + y ·; por eso (ℜ, +, ·, ≤) se llama campo
ordenado.)
7. EL CONJUNTO ORDENADO ℜ 13
ÁLGEBRA
CHAPTER 1
1. Grupos y Semigrupos
Los grupos han adquirido suma importancia en muchos campos de aplicación
de las matemáticas. En fı́sica y quı́mica la estructura de grupo es fundamental
tanto para entender las simetrı́as en teorı́as de campo, en teorı́as de partı́culas
elementales, como para resolver ecuaciones diferenciales no lineales. Los grupos
son estructuras básicas de las matemáticas. Vamos a iniciar con la definición de
semigrupo para a partir de esta definición, dar la definición de grupo.
Un grupo es un conjunto provisto de una operación con ciertas propiedades,
las cuales generalizan de forma abstracta operaciones que nos son familiares desde
niños para calcular con números. Antes de definir un grupo, consideramos entonces
un concepto todavı́a más simple, el de semigrupo:
Definición 1.1. Un semigrupo es un conjunto E provisto de una operación
binaria asociativa · sobre E, se donota por (E, ·).
El hecho que · es una operación binaria sobre E significa que, siempre cuando
a, b ∈ A, entonces a · b ∈ A. Veamos unos ejemplos:
Ejemplo 1.2. Sea A = {f : A ⇀ A} el conjunto de todos los mapeos del
conjunto A en sı́ mismo, y consideramos la operación ◦ de composición (concate-
nación) entre mapeos, entonces (A, ◦) es un semigrupo. Observamos que (A, ◦)
además tiene un elemento especial: un elemento neutro, el mapeo identidad IA
definido por IA (x) = x para todo x ∈ A, pues, definitivamente IA ◦ f = f ◦ IA para
cualquier f ∈ A.
Notación 1.3. Si un semigrupo E tiene un elemento identidad, es decir, si
tiene un elemento e ∈ E tal que e · a = a para todo a ∈ E, el semigrupo se llama
monoide.
19
20 1. ESTRUCTURAS ALGEBRAICAS BÁSICAS
el número −a. Asimismo, los números racionales Q, los reales R, y los complejos
C, cada uno con la suma ordinaria, son grupos abelianos.
Ejemplo 1.10. (Z, ·), el conjunto de los enteros con el producto ordinario, es
un semigrupo conmutativo, cuyo neutro es el número 1. Sin embargo, no es un
grupo, puesto que para cualquier entero a diferente de 1, su inverso multiplicativo
serı́a el número a−1 = a1 , el cual no es entero y el 0 no tiene inverso.
Ejemplo 1.11. El conjunto Q de los racionales, igualmente como el de los
reales R y el de los complejos C, con el producto ordinario ·, son semigrupos
conmutativos con el neutro 1, pero no son grupos. Eso se debe a que el número 0,
el cual es el neutro aditivo, no tiene inverso multiplicativo, puesto que 10 no es un
número. Por otro lado, es evidentemente que (Q \ {0}, ·), (R \ {0}, ·) y (C \ {0}, ·)
son grupos abelianos.
Ejemplo 1.12. Sea A un conjunto y F = {f : A ⇀ A, biyectiva}, el conjunto
de los mapeos biyectivos de A en sı́ mismo. Entonces (F , ◦) con la operación de
la composición, es un grupo, en general este grupo no es abeliano. El neutro de
este grupo (su unidad) es el mapeo identico IA : A ⇀ A definido por IA (x) = x
para toda x ∈ A. El elemento inverso para cada f ∈ F es el mapeo inverso f −1 ,
cuya existencia está asegurada para cualquier biyección. (F , ◦) se llama el grupo
de permutaciones del conjunto A, cada f ∈ F es llamado una permutación de A.
Ejercicio 1.13. .
1) Demuestre que Z2 = ({1, −1}, ·) es un grupo.
2) Sea el conjunto A = {a, b, c}. Defina un producto + en A de tal forma que
(A, +) sea un grupo.
3) ¿Se puede definir + de tal forma que (A, +) sea abeliano?
Ejercicio 1.14. Sea O(n) = {O | O es matriz n × n con OT = O−1 }. De-
muestre que este conjunto es un grupo con la multiplicación de matrices.
2. Homomorfismos
Las estructuras algebraicas suelen tener semejanzas entre ellas. Estas semejan-
zas se representan en matemáticas utilizando el concepto de mapeos muy epeciales
llamados morfismo. Los morfismos nos sirven para relacionar conjuntos con estruc-
turas entre sı́, de tal forma que con estos morfismo, uno puede estudiar propiedades
de algún conjunto usando otro, en donde estas propiedades sean más simples de
entender. En esta sección daremos sólo la definición de estos morfismos para grupos.
Definición 1.16. Sean (E, ·) y (F, ·) grupos y f : E ⇀ F . f se llama homo-
morfismo si f (a · b) = f (a) · f (b) para toda a, b ∈ E
Un homomorfismo se llama
· monomorfismo si f es mapeo 1 − 1
· epimorfismo si f es mapeo sobre
· isomorfismo si f es biyectiva
· automorfismo de E si f es isomofismo y f : E ⇀ E.
22 1. ESTRUCTURAS ALGEBRAICAS BÁSICAS
4. Anillos y Campos
Otras estructuras algebraicas de mucha importancia son los anillos y los cam-
pos. En esta sección veremos la definición de estos.
Definición 1.34. Sea A conjunto y · , + operaciones binarias sobre A es decir
· : A × A ⇀ A y + : A × A ⇀ A.
A la triada (A, +, ·) se le llama anillo si
1) (A, +) es grupo abeliano
2) (A, ·) es semigrupo
3) + y · son distributivos
Comentario 1.35. Explı́citamente, un conjunto con las operaciones + y · es
un anillo, si se cumple lo siguiente
1) Para toda a, b ∈ A, a + b ∈ A es asociativo.
2) Existe e tal que e + a = a + e = a para toda a ∈ A.A e también se le llama
el cero de A y se le denota por e = 0
3) Para toda a ∈ A existe −a tal que a + (−a) = 0
4) a + b = b + a para todos a, b ∈ A
5) a, b ∈ A, se sigue que a · b ∈ A, es decir, el producto es asociativo
6) Para toda a, b, c ∈ A se tiene que el producto es distributivo por la izquierda
con la suma, es decir c · (a + b) = c · a + c · b
7) Analogamente por la derecha, esto es (a + b) · c = a · c + b · c
Ejemplo 1.36. ({0}, +, ·) es un anillo trivial
(Z, +, ·) es el anillo de los enteros
(ℜ, +, ·) es el anillo de los reales
4. ANILLOS Y CAMPOS 25
Entre más ricas sean las estructuras algebraicas, más propiedades tienen. Ahora
veremos algúnas de las propiedades más interesantes de los anillos.
Sea (A, +, ·) anillo y 0 el neutro de la operación binaria +. Entonces se siguen
los siguientes lemás.
Las propiedades anteriores son bien conocidas en los números reales, pero se
cumplen en cualquier anillo. Algunos de los tipos especiales de anillos más usados
en la literatura son los siguientes
Sea (A, +, ·) anillo
Ejercicio 1.45. .
1) Exprese explı́citamente todas la propiedades de un campo.
2) Demuestre que (Z, +, ·), (Q, +, ·), (ℜ, +, ·), (C, +, ·), son anillos conmutativos
con unidad sin divisores de cero.
3) Demuestre que (Q, +, ·), (ℜ, +, ·) y (C, +, ·), son campos.
4) Demuestre que ({2n | n ∈ Z}, +, ·) es anillo conmutativo sin unidad sin
divisores de cero.
ka ⊕ kb = {m + n | m ∈ ka , n ∈ kb } = ka+b
Analogamente definimos en el semigrupo (H, ·)
ka ⊙ kb = {m · n | m ∈ ka , n ∈ kb }
= {m · n | m ∈ H + a, n ∈ H + b}
= {(k1 + a) · (k2 + b) = k1 · k2 + k1 · b + a · k2 + a · b, k1 , k2 ∈ H}
ESPACIOS VECTORIALES
Los espacios vectoriales son la estructura más rica que vamos a ver aquı́ con
detalle. Los espacios vectoriales son tan importantes en fı́sica, quı́mica, ingenierı́a,
etc. que les vamos a dedicar un capitulo completo a ellos solos. Los espacios
vectoriales más conocidos son los que se construyen sobre ℜn . En este capı́tulo
vamos a repasar estos espacios y despues vamos a generalizarlos a espacio vectoriales
arbitrarios. Estamos suponiendo que el lector esta familiarizado con ℜn , pero para
iniciar el tema, vamos a dar un resumen de sus propiedades más importantes.
1. El Espacio Vectorial ℜn
Resumen 2.1. Recordemos que el espacio vectorial ℜn , o escrito explicitamente
n
(ℜ , · , + , ⊙), es una estructura algebráica, definida sobre los reales, tal que:
X(ℜ, +, ·) es un campo que con la operación + es grupo Abeliano, con neutro
0ℜ y distributividad entre + y ·, y con la operacion ·, (ℜ\{0ℜ }, ·) es grupo Abeliano,
con neutro 1ℜ sin divisores de cero: a 6= 0ℜ , b 6= 0ℜ ⇒ a · b 6= 0ℜ
X(ℜn , +, ⊙) es espacio vectorial sobre (ℜ, +, ·) tal que (ℜn , +) son grupos
Abelianos con neutro 0ℜn
X(ℜn , ⊙) es un mapeo de ℜ⊙ℜn en ℜn (es un nuevo tipo de multiplicación); ⊙
es distributiva con + y asociativa con ·, es decir, si se tiene que, a, b ∈ ℜ, x, y ∈ ℜn
entonces:
a ⊙ (x + y) = (a ⊙ x) + (a ⊙ y)
(a + b) ⊙ x = (a ⊙ x) + (b ⊙ x)
(a · b) ⊙ x = a ⊙ (b ⊙ x)
X⊙ tiene neutro representado por 1ℜ y cumple que 1ℜ ⊙ x = x para todo x ∈ V.
En otras palabras, (ℜn , · , + , ⊙) es un espacio vectorial sobre el campo (ℜ, +, ·),
donde para x, y ∈ ℜn , x = (x1 , x2 , · · · , xn ), y = (y1 , y2 , · · · , yn ) se tiene:
(1) x + y = (x1 + y1 , x2 + y2 , · · · , xn + yn ),
(2) 0ℜn = (0, 0, · · · , 0),
(3) −(x1 , x2 , · · · , xn ) = (−x1 , −x2 , · · · , −xn ),
(4) ⊙ es la “multiplicación de escalares con vectores”, para k ∈ ℜ, k ⊙
(x1 , x2 , · · · , xn ) = (k · x1 , k · x2 , · · · , k · xn ).
Otros conceptos importantes a recordar de espacios vectoriales son:
XUn subespacio vectorial H de ℜn es un espacio vectorial tal que H ⊂ ℜn , y
(H, ·, +, ⊙) mismo es un espacio vectorial.
XLa interpretación geométrica de un punto en ℜn se suele dar de la forma
siguiente. Un punto x ∈ ℜn es un vector de traslación, determinado por valor y
dirección y representado por una flecha.
XLos Homomorfismos son mapeos lineales entre espacios vectoriales (ℜn , ·, +, ⊙)
y (ℜm , ·, +, ⊙) sobre el mismo campo ℜ:
29
30 2. ESPACIOS VECTORIALES
3. Subespacios Vectoriales
En la misma forma como hemos definido subgrupos y subanillos, se puede
definir subespacios vectoriales. Este concepto será el tema de esta sección. Su
definición formal es como sigue.
Definición 2.11. Sea V un espacio vectorial sobre un campo K y H ⊆ V.
H es un subespacio Vectorial de V, si H es espacio vectorial con las mismás
operaciones binarias.
Para demostrar que un espacio vectorial es subespacio de otro, afortunadamente
no es necesario probar todas las propiedades de espacio vectorial del subconjunto,
es suficiente con ver que las dos operaciones del subconjunto son cerradas, esto
es debido a que las operaciones ya cumplen con todas las propiedades de espacio
vectorial de entrada. Esta propiedad la enunciaremos como el siguiente lema.
32 2. ESPACIOS VECTORIALES
4. Homomorfismos
Los homomorfismos son una herramienta de mucha ayuda en espacios vectori-
ales. Para estudiar las propiedades de espacio vectorial, el espacio ℜn es sin duda
el más estudiado y el más simple. Basta entonces relacionar todos los espacios
homomorfos e isomorfos con el plano n-dimensional para haberlos estudiado todos.
Pero la sorpresa es que todos los espacios vectoriales de la misma dimensión, son
isomorfos. Esta es la razón por cuál el plano n-dimensional es tan interesante. Para
ver esto, iniciemos con la siguiente definición:
Definición 2.19. Sean (V1 , ·, +1 , ⊙1 ) y (V2 , ·, +2 , ⊙2 ) espacios vectoriales sobre
K. Un homomorfismo entre V1 y V2 es un mapeo que preserva las operaciones, es
4. HOMOMORFISMOS 33
Ejemplo 2.36. .
a) H 1 = {(a, b) ∈ ℜ2 | a, b ∈ ℜ, b = am} una recta que pasa por cero en ℜ2 .
Se tiene:
L(H 1 ) = {x = a1 (a, am) | a, m, a1 ∈ ℜ} = H 1
b) H 2 = {(a, b) ∈ ℜ2 | a, b ∈ ℜ, b = am + n, m · n 6= 0} una recta que no pasa
por el origen. Entonces:
L(H 2 ) = {x = a1 (a, am + n) | a1 b, m, n ∈ ℜ}
= {x = (a1 a, a1 am + a1 n) | a1 , b, m, n ∈ ℜ} = ℜ2
Por lo que, una recta que no pasa por el origen, no es un subespacio, genera ℜ2 .
X se llama linealmente
Pn dependiente si X no es linealmente independiente.
Es decir, si 0V = i=1 ai · xi implica que al menos un aj 6= 0. En tal caso 0V = aj ·
P Pn
xj + ni=1,i6=j ai ·xi de donde podemos despejar xj como xj = −a−1j i=1,i6=j ai ·xi .
O sea, xj depende de todas los demás vectores en forma lineal.
Al número minimo de vectores con los que podemos escribir todos los vectores
de algún espacio o subespacio, se le llama base. Su definición es como sigue.
Ejercicio 2.51. Den una base para el espacio P del ejercicio 2.8.
Ejercicio 2.52. Den una base para el espacio H1 del ejercicio 2.9 y otra para
el espacio H2 del ejercicio 2.10.
Ejercicio 2.53. Demuestren que H1 = H2 . De una fórmula para representar
las bases de los dos conjuntos hasta n = 5.
6. Transformaciones Lineales
Los homomorfismos entre espacios vectoriales son de tal importancia, que in-
cluso reciben un nombre especial. En esta sección veremos estos homomorfismos,
sus propiedades más importantes y algúnos ejemplos representativos de homomor-
fismos entre espacios vectoriales.
Definición 2.54. Sean V1 y V2 espacios vectoriales sobre el mismo campo K.
Se define el conjunto Hom(V1 , V2 ) = {f : V1 ⇀ V2 | f es homomorfismo}
Notación 2.55. A los homomorfismo entre espacios vectoriales se les llama
transformaciones lineales o mapeos lineales y se denotan por L(V1 , V2 ) :=
Hom(V1 , V2 )
Vamos a escribir explı́citamente el concepto de transformación lineal. Sea f ∈
L(V1 , V2 ), esto implica que la suma y el producto en los espacios se conservan
bajo f , esto es f (x + y) = f (x) + f (y) para todos los vectores x, y ∈ V1 y
f (k · x) = k · f (x) para todo k ∈ K, x ∈ V2 . Si ahora tomamos como conjunto base
al conjuto de todas las transformaciones lineales, podemos introducir en L(V1 , V2 )
la estructura de espacio vectorial. Vamos a definir entonces la suma y el producto
como
(f ⊕ g)(x) = f (x) + g(x)
(k ⊙ f )(x) = k · f (x) k ∈ K, x ∈ V1
y observemos que (f ⊕ g) ∈ L(V1 , V2 ), ya que + está definida en V2 . Ası́ mismo
(k ⊙ f ) ∈ L(V1 , V2 ) ya que · está definido en K × V2 → V2 . Entonces se tiene que
f ⊕ g y k ⊙ f son mapeos de V1 en V2 . Éste es un resultado muy importante, porque
con él tenemos el siguiente lema.
Lema 2.56. Sean V1 y V2 espacios vectoriales. Entonces (L(V1 , V2 ), ·, ⊕, ⊙) es
un espacio vectorial sobre K
Ejercicio 2.57. Demostrar el lema.
La pregunta que surge inmediatamente después de definir los mapeos lineales, es
si la composición de mapeos lineales es también lineal y forma un espacio vectorial.
Para ver esto, sean f ∈ L(V1 , V2 ) y g ∈ L(V2 , V3 ) y g ◦ f : V1 ⇀ V3 Para ver si
g ◦ f ∈ L(V1 , V3 ), hay que checar las propiedades de espacio vectorial, dado que
f y g son lineales. Sean x, y ∈ V1 entonces la suma cumple con (g ◦ f )(x + y) =
g(f (x) + f (y)) = g ◦ f (x) + g ◦ f (y), por la propiedades de linearidad de ambas
funciones. Análogamente, sean x ∈ V1 , k ∈ K, entonces (g ◦ f )(k ·x) = g(f (k ·x)) =
g(k · f (x)) = k · (g ◦ f )(x), por lo que ambas propiedades se cumplen.
Otro caso interesante es cuando ambos espacios, el de salida y el de llegada son
el mismo, i.e., cuando V1 = V2 = V , entonces, claramente L(V, V ) es un espacio
vectorial sobre K con las operaciones + y · sobre V . Además, si f, g ∈ L(V, V )
implica que f ◦ g ∈ L(V, V ). Algunas propiedades de estos espacios son:
38 2. ESPACIOS VECTORIALES
7. Álgebras
La última estructura algebraica que veremos aquı́ es la de álgebra. Las álgebras
son más ricas en estructura que los espacios vectoriales, ya que en estas se definen
tres operaciones binarias. Para definir las álgebras usaremos el concepto de módulo.
Al igual que en los espacios vectoriales, los módulos se definen usando dos opera-
ciones binarias definidas en el conjunto con propiedades especiales. La definición
de un módulo es la siguiente.
Definición 2.58. Sea K anillo. (V, ⊕, ⊗) se llama módulo sobre K si:
1) (V, ⊕) grupo abeliano
2) ⊗ es mapeo de K × V en V, y para toda a, b ∈ K, y para toda x, y ∈ V se
tiene:
a) (a · b) ⊗ x = a ⊗ (b ⊗ x) es asociativa,
b) a ⊗ (x ⊕ y) = (a ⊗ x) ⊕ (a ⊗ y)
c) (a + b) ⊗ x = (a ⊗ x) ⊕ (b ⊗ x) son distributivos.
Es decir, un módulo consiste de un anillo K, de un grupo abeliano y de una
operación que combina elementos de K y V . Con este concepto es más sencillo
definir álgebra. Es más, un espacio vectorial, es un módulo muy particular, se
tiene:
Corolario 2.59. Un módulo (V, ⊕, ⊗) es un espacio vectorial, si se cumple
que:
a) K es un campo o semicampo.
b) 1K ⊗ x = x para toda x ∈ V.
Usando la definición de módulo, podemos definir el concepto de álgebra.
Definición 2.60. Una estructura (A, +, ·, ◦) sobre K se llama álgebra si
1) K es anillo conmutativo con unidad
2) (A, +, ·) módulo sobre K, con 1K · x = x, para toda x ∈ A
3) ◦ es mapeo de A × A en A con las propiedades
a) k · (x ◦ y) = (k · x) ◦ y = x ◦ (k · y) para toda k ∈ K x, y ∈ A
(asociatividad).
b) z◦ (x+ y) = z◦ x+ z◦ y; (x+ y)◦ z = x◦ z+ y ◦ z, para todos x, y, z ∈ A
(distributividad).
Ejemplo 2.61. Sea V espacio vectorial sobre el campo K, x ∈ V y k ∈ K.
L = (L(V, V ), +, ·, ◦) es un álgebra sobre el campo K con las siguientes operaciones
en L(V, V ).
+ : L(V, V ) × L(V, V ) ⇀ L(V, V )
(f, g) → (f + g)(x) = f (x) + g(x),
7. ÁLGEBRAS 39
· : K × L(V, V ) ⇀ L(V, V )
(k, g) → (k · f )(x) = k · f (x),
MATRICES
m
X
(3.1) f (x) = aj f (xj ).
j=1
Pn
Por otro lado, también y = i=1 bi yi tiene una representacion única en V2
en términos de los números bi ∈ K con i = 1, · · · ., n. Como esta representación
es única, se tiene entonces que hay una relación directa entre los números aj y bi .
Para ver esta relación, mapeamos linealmente el elemento base xk al espacio V2 . Se
tiene que f (xk ) ∈ V2 entonces
n
X
(3.2) f (xk ) = cik yi
i=1
m n
! n
X X X
f (x) = aj cij yi = bi yi = y
j=1 i=1 i=1
n
! n
! n
!
X X X
= a1 ci1 yi + a2 ci2 yi + · · · + am cim yi
i=1 i=1 i=1
X m
n X m
X m
X m
X
= aj cij yi = aj c1j y1 + aj c2j y2 + · · · + aj cnj yn
i=1 j=1 j=1 j=1 j=1
= b1 y1 + b2 y2 + · · · + bn yn ,
P
pero como la representación es única, se debe tener que bi = mj=1 cij aj , es decir,
los coeficientes de y son totalmente determinados por los coeficientes de ak y los
coeficientes cik ∈ K. Estos coeficientes cik los podemos ordenar en la forma más
conveniente
c11 c12 · · · c1m
c21 c22 · · · c2m
C= .
..
cn1 cn2 · · · cnm
y se llama matriz asocidada al mapeo f ∈ L(V1 , V2 ). Noten que estos coeficientes
dependen fuertemente de las bases usadas, pero cada par de bases en V1 y V2 fijan
k=1···m
y determinan unicamente el arreglo (matriz) C, del tipo C = (cik )i=1···n , del
tipo (n, m), (n renglones o lı́neas y m columnas). Analogamente, cada matriz C
determina unicamente el mapeo f ∈ L(V1 , V2 ). Por eso vamos a describir mapeos
lineales con matrices y vamos a asocior a cada matriz un mapeo lineal.
Si escribimos
a1 b1
a2 b2
x= . y y= .
.. ..
am bn
entonces Cx = y y f (x) = y corresponden a la aplicación del mepeo lineal f
a x, siendo ambas expresiones equivalentes. Transportemos las operaciones entre
mapeos a operaciones entre matrices. Vamos a ver esto con detalle.
Sean f, g ∈ L(V1 , V2 ), k ∈ K y x ∈ V1 , tal que
a1
x = ... ,
am
Entonces se tiene:
1.- La suma de mapeos se traduce a la suma de matrices, es decir (f + g)(x) =
f (x) + g(x), si a f corresponde la matriz C y a g la matriz D, se tiene que a
f + g corresponde a la matriz C + D. (C + D)(x) = Cx + Dx con la suma entre
matrices dada por (C + D) = cij + dij , donde ckj y dij son los coeficientes de C y
D repectivamente.
2. ISOMORFISMOS 43
2. Isomorfismos
En esta sección, trataremos particularmente con los mapeos lineales uno a uno
y sobre, los isomorfismo. Estos mapeos son muy importantes porque de ellos se
desprenden teoremas que pueden ser traducidos directamente a las matrices, que a
su vez se traducen en teoremas que serviran para resolver sistemas de ecuaciones
lineales. Estos sistemas son uno de los objetivos de este capitulo. Asi que veamos
las proposiciones correspondientes a isomorfismos. Empecemos por definir el Kernel
o núcleo de un mapeo lineal. En lo que sigue V1 y V2 son espacios vectoriales sobre
un cuerpo K.
Definición 3.2. Sea f ∈ L(V1 , V2 ) (no necesariamente biyectiva). El núcleo
de f es el conjunto ker f = {x ∈ V1 | f (x) = 0V2 }
Lema 3.3. Sea f ∈ L(V1 , V2 ). Si ker f es subespacio vectorial de V1 , entonces
f (V1 ) es subespacio vectorial de V2 .
Ejercicio 3.4. Demostrar el lema.
El lema anterior es válido para cualquier mapeo. Si especializamos este lema a
los isomorfismos, se tiene este otro lema.
Lema 3.5. Sea f ∈ L(V1 , V2 ). Si f es isomorfismo implica que ker f = {0V1 }.
Demostración 3.6. Es claro que 0V1 ∈ ker f , ya que f (0V1 ) = f (x − x) =
f (x) − f (x) = 0V2 , con x ∈ V1 . Por otro lado, cualquier elemento x ∈ ker f cumple
con f (x) = 0V2 . Si hubiera un elemento x ∈ V1 con x 6= 0V1 tal que x ∈ ker f ,
entonces f (x) = f (0V1 ) = 0V2 , lo cual contradice que f es un mapeo inyectivo.
Comentario 3.7. Si el ker f = {0V1 }, ya sabemos entonces que dim ker f = 0
En lo que sigue vamos a ver una proposión que nos ayudará a demostrar algúnos
resultados posteriores.
Proposición 3.8. Sean V1 y V2 espacios vectoriales sobre el campo K. Sea
{x1 , · · · , xm } base de V1 y sea f ∈ L(V1 , V2 ).
i) Si f es sobre, implica que V2 = L({f (x1 ), f (x2 ), · · · , f (xm )})
ii) Si f es isomorfismo, implica que {f (x1 ), · · · , f (xm )} es base de V2
Demostración 3.9. Denotamos a M = {f (x1 ), · · · , f (xm )}
P⊆: Sea y ∈ V2 , f sobre implica P
i) que existe x ∈ V1 , tal que f (x) = y, pero
x= m i=i a i xi implica que y = f (x) = m
Pm i=i ai f (xi ) ∈ L(M ).
⊇: Sea y ∈ L(M ) se tiene y = i=i ai f (xi ) ∈ V2 pues V2 es espacio vectorial.
ii) En particular f sobre implica que V2 = L(M P),r ya que M ⊆ V2 . Demostremos
que M es linealmente independiente. Sea 0V2 = i=i ai yi con elementos distintos
44 3. MATRICES
c) sumar m ∈ M a k · x con k ∈ K, x ∈ M.
d) eliminar un elemento m ∈ M con m = 0.
Llevando a cabo cualquiera de las acciones enumeradas arriba, el conjunto
L(M ) seguirá siendo el mismo. Estas acciones se pueden traducir a la matriz
correspondiente, estas serian:
a) Intercambiar renglones de la matriz de transformación.
b) Multiplicar renglones de la matriz por k ∈ K.
c) Sumar renglones por un múltiplo de otro renglón.
d) Eliminar un renglón de la matriz igual a cero.
O hacer lo mismo cambiando la palabra renglón por columna.
La receta, entonces, para encontrar el rengo de una transformación lineal, es
escribir la matriz de transfomación y reducirla con estas operaciones, hasta ponerla
en una manera conveniente para poder leer su rango. Vamos a ver un ejemplos de
este proceso.
Ejemplo 3.15. Sea f ∈ (ℜ2 , ℜ3 ) y sea la base
1 0
{x1 = , x2 = } ⊂ ℜ2
0 1
1 0 0
{y1 = 0 , y2 = 1 , y3 = 0 } ⊂ ℜ3
0 0 1
La transformación
2 1 2 1
f → A = 1 3 es tal que f (xk ) = 1 3 xk
−1 0 −1 0
k = 1, 2, esto es, los elementos de la base se mapean como
2 1
1 0
f( ) = 1 y f( )= 3
0 1
−1 0
por lo que, cualquier elemento de ℜ2 se leera en ℜ3 como
2 1 2 1
a1 1 0 a1
f( ) = f (a1 +a2 ) = a1 1 +a2 3 = 1 3
a2 0 1 a2
−1 0 −1 0
Este mismo proceso no cambia si usamos vectores renglón en vez de vectores columna,
lo que se haga para cada columna es análogo para cada renglón. Ahora vamos a
reducir la matriz de representación utilizando las operaciones que enunciamos an-
teriormente. Vamos a indicar arriba o abajo de cada matriz la operación que se va
a efectuar para pasar a la siguiente matriz. Se tiene:
×2 +
2 1 −1 2 1 0
A= 1 3 ∼ −3 1 ∼ 3 −5 ∼
−1 0 0 −1 0 −1
+ ×3/5
46 3. MATRICES
· · · ×1/5
1 0 1 0
0 −5 ∼ 0 1
−3/5 −1 −3/5 1/5
El rango de A es de hecho el número de columnas linealmente independientes de A.
Esto implica que Rg (A) = 2 y por tanto el rengo de f es también 2.
Ejercicio 3.16. Digan el rango de las siguientes transfomaciones lineales:
1.-
1 1 0 1
f( )= , f( )=
0 2 1 1
2.-
1 1 0 1 0 0
f ( 0 ) = 2 , f ( 1 ) = 1 , f ( 0 ) = −1
0 1 0 −2 1 0
3.-
1 1 0 4 0 2
f ( 0 ) = 2 , f ( 1 ) = 5 , f ( 0 ) = 1
0 −1 0 0 1 2
Ejercicio 3.17. Encuentren el núcleo de las siguientes transformaciones lin-
eales.
1.-
1 1 0 1 0 0
f ( 0 ) = 2 , f ( 1 ) = 1 , f ( 0 ) = −1
0 1 0 −2 1 0
2.-
1 1 0 1 0 0
f ( 0 ) = 2 , f ( 1 ) = 1 , f ( 0 ) = −1
0 0 0 −1 1 −1
Ejercicio 3.18. Utilizando transformaciones de invariancia, reduzca las sigu-
ientes matrices a una forma diagonal.
1.-
1 2
4 5
2.-
1 2 −1
4 5 0
2 0 −2
3.-
1 2 −1
4 5 0
2 1 2
4.-
1 2 −1 1
4 5 0 −1
2 1 2 2
−2 4 −2 1
3. ECUACIONES LINEALES 47
Ejercicio 3.19. Digan con solo ver las matrices diagonalizadas del ajercicio
anterior, cual es la dimensión del núcleo, el rango y cual de las tranformaciones es
biyectiva.
3. Ecuaciones Lineales
Todo lo aprendido hasta ahora en el capitulo de álgebra lineal, lo vamos a
aplicar en la resolución de sistemás de ecuaciones lineales. A partir de aquı́ usaremos
la matriz de representación de un mapeo para representar al mapeo mismo. Sea
A ∈ L(V1 , V2 ) con dim V1 = m y dim V2 = n. Sea A matriz del tipo (n, m) y sea
b ∈ V2 . Usaremos aquı́ a la letra b para representar un vector conocido, esto nos
ayudará para escribir el sistema de ecuaciones lineales con la notación estandard,
utilizada en la sección anterior.
Problema 3.20. Resolver el sistema de ecuaciones lineales
a11 l1 + · · · + a1m lm = b1
a21 l1 + · · · + a2m lm = b2
.. ..
. .
(3.3) an1 l1 + · · · + anm lm = bn
en donde los números li ∈ K son desconocidos y los coeficientes aij y bj son cono-
cidos.
Observe que encontrar una solución al sistema, es encontrar el conjunto de
números li ∈ K que hagan todas las identidades del sistema verdaderas. Vamos a
definir el conjunto de vectores {x, b} y la matriz A como
l1 b1 a1n · · · a1m
..
x = ... , b = ... y A = ... .
lm bn an1 · · · anm
El problema Ax = b escrito explicitamente, se ve como en (3.3). Entonces el
problema que nos hemos planteado es equivalente al problema de trasfomaciones
lineales ó matrices.
Problema 3.21. Encontrar x ∈ V , tal que Ax = b
A Ax = b se le llama ecuación lineal en x. De este problema surgen muchas
preguntas:
a) ¿Cuantas soluciones hay?
b) ¿La solución es unicamente determinada?
c) ¿Como escribir el conjunto de soluciones?
La existencia de una solución lo podemos resolver con ayuda del siguiente lema.
Lema 3.22. Si representamos el mapeo f como A(V1 ) = L({Ax1 , · · · , Axm }),
usando la base {x1 , · · · , xm } de V1 , tenemos que Ax = b tienen solución sii b ∈
L({Ax1 , · · · , Axm }) y esto se cumple sii L({Ax1 , · · · , Axm }) = L({Ax1 , · · · , Axm , b}).
Demostración 3.23. De la proposición 3.8 se sigue el resultado.
Esto implica la igualdad de la dimensión de los dos espacios, es decir
◦ ◦ ◦ ◦
x + x − y es solución. Pero x es única, por lo que x = x + (x − y), se sigue que
x = y. Implica entonces que A es uno a uno.
◦ ∧ ◦ ∧
⇐) Sea A uno a uno, x es solución y sea x también solución. Ax = Ax = b.
◦ ∧
Pero A uno a uno implica que x = x.
además A uno a uno implica que el ker A = {OV2 } .
4 5 6
Ejercicio 3.29. Demostrar que A = −2 2 1 tiene una solución
1 1 1
única.
Con estas proposiciones ya es entonces posible obtener la solución del sistema
de ecuaciones. La solución se construye usando la siguiente proposición.
◦
Proposición 3.30. Sea x una solución al sistema Ax = b. El conjunto de
◦ ◦
todas las soluciones del sistema es {x + h | h ∈ ker A} =not x + ker A.
◦ ◦
Demostración 3.31. i) Sea ◦y ∈ x + ker A, esto implica que y = x + h, con
h ∈ ker A es solución ya que A x + h = b + 0 = b.
◦
◦
◦
ii) Sea y solución, entonces y = x + y − x . Sı́ escribimos h = y − x, se
◦
◦
◦
tiene que y = x + h. Pero Ah = A y − x = Ay − Ax = b − b = 0. Por lo que
◦
h ∈ ker A. Por lo tanto y ∈ x + ker A.
En el caso de que el núcleo de la transformación sea solo el conjunto con el
cero, se tiene que la transformación correspondiente es biyectiva. Sólo en este caso
la solución del sistema correspondiente es única, ya que le podemos sumar a la
solución sólo el vector cero. En terminos del rango, esto quiere decir lo siguiente.
Proposición 3.32. Sea A matriz del tipo (n, m). Supongamos que Ax = b
◦ ◦
tiene solución x, entonces x es unicamente determinada sı́ y sólo sı́ Rg (A) = m.
Vamos a resumir todos los resultados sobre soluciones de un sistema de ecua-
ciones. Podemos poner los diferentes casos en una tabla como sigue.
Resumen 3.33. Sea A del tipo (n, m), con Ax = b sistema de ecuaciones. Se
tiene que
A matriz (n, m) Ax = b (inhomogeneo) Ax = 0 (homogeneo)
◦
Rg (A, b) 6= Rg (A) no hay solución sólo la solución trivial x = 0
Rg (A, b) = Rg (A) = r
solución única sólo la solución trivial
r=m
r<m más de una solución soluciones no triviales
Definición 3.42. Una matriz A del tipo (n, n) se llama regular sı́ Rg(A) = n.
Se llama singular si Rg(A) 6= n.
Es decir, A regular implica que existe su inversa A−1 y además Rg (A) = n.
Comentario 3.43. Si A es regular la solución de Ax = b es x = A−1 b y es
única.
Ejercicio
3.44. Seanlas matrices
1 −1 2 0 −1 2 1 −1 2
M = 2 3 −1 N = 2 0 −1 S = 2 −2 2
1 −1 0 1 −1 0 1 −1 0
Usando el método de Gauβ-Jordan, encuentre la inversa de M, N y S.
Ejercicio
3.45.
Sean el vector
1
b = −1
2
52 3. MATRICES
DETERMINANTES
1. Definición
Al igual que los grupos y los anillos, el conjunto de las matrices puede separarse
en clases. Las matrices son objetos matemáticos de cierta complejidad, es por eso
que es muy interesante analizar cantidades que sean invariantes en las diferentes
clases de las matrices. Como veremos más adelante, los determinantes son canti-
dades invariantes en las clases y pertenecen al campo en donde se definieron las
matrices. Estas cantidades se le pueden asociar a las matrices cuadradas. Como
veremos en la siguiente sección, los determinantes también son muy útiles para
calcular las soluciones de sistemás de ecuaciones lineales. Por ahora daremos su
definición y algúnas de sus propiedades.
Sea A matriz cuadrada sobre el campo K del tipo (n, n), asociada al mapeo
lineal f ∈ L (V1 , V2 )
a11 · · · a1n
..
A = ... .
an1 ··· ann
Definición 4.1. Se asocia a A de manera única, un número de K llamado el
determinante de A, definido como
a11 · · · a1n
det A = ... .. = X (sgnP ) a a · · · a ,
. 1i1 2i2 nin
an1 ann P
Para el caso de una matriz (3, 3) también existe una fórmula simple. De la
definición de determinante se obtiene
a b c
det d e f = aei + bf g + cdh − ceg − bdi − af h
g h i
El determinante es muy útil para saber si una matriz es regular. Esto se logra
usando el siguiente lema.
Lema 4.2. Sea A matriz del tipo (n, n). A es regular sı́ y sólo sı́ det A 6= 0
−1
−1
Demostración 4.3. =⇒)
−1
A regular implica
−1
que existe A , entonces A ·
A = I, pero det A·A = (det A) det A . Como det I = 1, se sigue que
(det A) det A−1 = 1, por lo que det A 6= 0.
Ejercicio 4.4. Demuestre la otra dirección ⇐=) del lema.
−1
Corolario 4.5. A regular implica que det A−1 = (detA)
Existe un método muy usado para calcular la inversa de una matriz, usando
los cofactores. Para ver esto, primero definamos la matriz adjunta.
Definición 4.6. La matriz adjunta se define como
adj (A) = (adj (A))ij = Cij
donde los Cij son los cofactores de la matriz A
Recordemos que el determinante de A se calcula como det A = Σni=1 aik Cik .
Vamos a introducir una proposición, sin demostración, que generaliza esta última
expresión.
Proposición 4.7. Se puede generalizar la expresión para detA como det Aδkj =
Σni=1 aik Cij donde δkj es la delta de Kronecker definida por
1 si k = j
δkj =
0 si k 6= j
la cual también puede ser representada por la matriz identidad I, i.e. (I)kj = δkj
Es por eso que en términos de la matriz adjunta, el determinante se escribe
entonces como (det A) I = Σni=1 aik Cij = A (adj (A)). Esta última fórmula nos da
un método para calcular la inversa, esto es
−1
A−1 = (det A) (adj (A))
Finalmente, ya vimos que det A 6= 0 implica que A es regular y además que
Rg (A) = n. Entonces implica que existe una única solución del sistema Ax = b.
Existe también un método que usa determinantes para resolver este sistema. A
este método se le conoce como Teorema de Cramer, el cual enunciaremos aquı́ sin
demostración.
Teorema 4.8. de Cramer. Sea A matriz de tipo (n, n) y Ax = b sistema de
ecuaciones lineales.
a11 · · · a1n b1
.. ..
A= . . b = ...
an1 ann bn
si det A = |A| =
6 0 entonces la solución al sistema
l1
x = ...
ln
56 4. DETERMINANTES
3l1 + 2l2 − l3 = 1
l1 − l2 + 3l3 = 9
4l1 − 6l2 + l3 = 2
2l1 + 3l2 − 4l3 = −8
2)
3l1 + 2l2 − l3 = 1
l1 − l2 + 3l3 = 9
2l1 + 3l2 − 4l3 = −8
3)
3l1 + 2l2 − l3 = 0
l1 − l2 + 3l3 = 0
2l1 + 3l2 − 4l3 = 0
2. MATRICES SIMILARES 57
4)
3l1 + 2l2 − l3 = 0
l1 − l2 + 3l3 = 0
4l1 − 6l2 + l3 = 0
5)
3l1 + 2l2 − l3 = 1
l1 − l2 + 3l3 = −2
4l1 − 6l2 + l3 = 2
2l1 + 3l2 − 4l3 = −8
2. Matrices Similares
El conjunto de matrices se puede separar en clases de equivalencia. Esta sepa-
ración es muy conveniente ya que en muchas ocaciones va a ser suficiente trabajar
con algún elemento de la clase y no con una matriz en general. A la relación que
separa a las matrices en clases, se le llama similaridad y es de lo que nos ocuparemos
en esta sección.
Definición 4.11. Dos matrices A, B del tipo (n, n, ) se llama similares sı́
existe una matriz regular U del tipo (n, n) tal que A = U BU −1 .
Notación 4.12. A la transformación B ⇀ U BU −1 se le llama transfor-
mación de similaridad.
La transformación de similaridad es una relación de equivalencia y es justo este
hecho lo que da a esta transformaciń su importancia. Esta afirmación la pondremos
en la siguiente proposición.
Proposición 4.13. La similaridad en el conjunto de todas las matrices (n, n)
es una relación de equivalencia.
Demostración 4.14. Veamos que la relación es
1) reflexiva: A es similar a A pues U = I es regular.
2) simétrica: A = U BU −1 implica que B = U −1 AU
3) transitiva: A = U BU −1 y B = SCS −1 con U y S regulares, entonces
existe W = U S tal que A = U BU −1 = U SCS −1 U −1 = (U S) CS −1 U −1 =
U SC (U S)−1 .
Ahora vamos a ver algunas de las propiedades más interesantes de matrices
similares. Para esto, supongamos que tenemos una matriz que es la suma de muchas
matrices. Para transformar esta matriz a su similar, es suficiente en conocer la
similaridad de cada sumando y luego sumarlas todas. Esta propiedad la podemos
enunciar como un lema.
Lema 4.15. Para transformar una suma de matrices en su similar, se suman
las similares de cada matriz.
Demostración 4.16. Se tiene U (A1 + · · · + An ) U −1 = U A1 U −1 + · · · +
U An U −1 .
De la misma forma, podemos transformar potencias de matrices
58 4. DETERMINANTES
Ahora ya tenemos un primer criterio para saber cuando dos matrices pertenecen
a la misma clase, con esta proposición, al menos sabemos que si det A 6= det B o
Rg (A) 6= Rg (B) entonces A y B no son similares. Vamos a introcir otro criterio
para saber si dos matrices no son similares. Para esto iniciamos con la siguiente
definición.
Definición 4.27. Sea A la matriz que representa al automorfismo f ∈ L (V, V )
con dim V = n. A cada x ∈ V , con x 6= 0V , que cumple Ax = λx para algún
λ ∈ K, se le llama vector propio (eigen vector) de A y λ se le llama valor
propio (eigen valor) asociado a x.
El sistema Ax = λx puede ser escrito de la manera más conveniente como
(4.1) (A − λI) x = O
donde I es la matriz identidad y O es la matriz con ceros en todas las entradas.
(4.1) es un sistema homogeneo de ecuaciones lineales que en principio podemos
resolver con caulquiera de los métodos que ya hemos expuesto. Observemos que el
sistema (4.1) tiene soluciones no triviales, diferentes de cero, si Rg (A − λI) < n,
pero esto sucede si det (A − λI) = 0K . Este hecho da pie a la siguiente definición.
Definición 4.28. A la matriz A − λI se le llama la matriz caracteristica
de A. Al polinomio det (A − λI) se le llama polinomio carateriztico de la
ecuación (4.1). det (A − λI) = 0 se le llama la ecuación caracteristica de A.
Una de las propiedades más importantes de los polinomios caracteristicos es la
siguiente
Teorema 4.29 (Cayley-Hamilton). Toda matriz es raiz de su polinomio car-
acteristico.
Demostración 4.30. Sea A matriz y P = A − λI. Sea B la matriz adjunta
de P , por lo que det(P )I = P (adj(P )), es decir
| A − λI | I = (A − λI) B.
Como B es una matriz polinomial de grado n − 1 y det(P ) es un polinomio de
grado n, se tiene que la ecuación anterior se puede reescribir como
(a0 + a1 λ + · · · + an λn ) I = (A − λI) B0 + B1 λ + · · · + Bn−1 λn−1
donde det(P ) = a0 +a1 λ+· · ·+an λn es el polinomio caracteristico y las matrices Bi ,
con i = 1, · · · , n − 1 son las matrices que forman la matiz polinomial B. Igualemos
coeficientes de igual grado en λ de ambos lados de la ecuación anterior, de donde
se obtiene
a0 I = AB0 ;
a1 I = AB1 − B0 ;
a2 I = AB2 − B1 ;
..
.
an−1 I = ABn−1 − Bn−2 ;
an I = −Bn−1 .
60 4. DETERMINANTES
FORMAS CANONICAS
1. Introducción
Ya hemos separado al conjunto de matrices en clases de equivalencia. Ahora
buscaremos representantes diversos que sean simples en estas clases de equivalen-
cia. Ya sabemos que estos representantes puede ser cualquier miembro de la clase.
Sin embargo, los representantes más simples para trabajar serán siempre los que
contengan un mayor número de ceros en sus componentes. Estos representantes
simples son generalmente diagonales o cuasidiagonales. Para obtener estos repre-
sentantes hay que tomar varias cosas en cuenta. Ya sabemos que invariantes de
matrices similares son, entre otros, el rango, el determinante y los valores propios.
Sin embargo, estos invariantes sirven para saber cuando dos matrices no son sim-
ilares. Por ejemplo, si Rg(A) 6= Rg(B), esto implica que A y B no son similares.
Sin embargo, si Rg(A) = Rg(B), esto no implica que A y B son similares.
Para ver si dos matrices están en la misma clase de equivalencia con la relación
de similaridad, se encuentra un representante simple de la clase y se compara éste
con las matrices que deben ser similares. Si cada una es similar al representante,
las matrices son similares. En otras palabras, sean por ejemplo A y B, ¿son A ∼ B
similares? Si [C] es un representante de una clase tal que A ∼ [C], se ve si B ∼ [C].
A estos representantes simples se les llama formás canónicas. Para introducir las
formás canónicas, vamos primero a dar algúnas definiciones útiles.
c11 0 ··· 0
0 c22 0
C= .. ..
. .
0 0 ··· cnn
c11 c12 ··· c1n c12 0 ··· 0
0 c22 c2n c21 c22
C= .. .. .. , ó C = .. ..
. . . . .
0 cnn cn1 cn2 ··· cnn
63
64 5. FORMAS CANONICAS
Lo que sigue es análogo al proceso anterior, hay que diagonalizar este bloque.
Vamos a multiplicar el segundo renglón por 3x4 + 2x y restarlo con el tercer renglón
multiplicado por −2x3 . Se obtiene
1 0 0
0 −2x3 −2x3 + 4x2 + 1
4 3
3
3 2
4
0 0 −2x + 2x − 2x + 1 −2x − −2x + 4x + 1 3x + 2x
donde hemos dividido el segundo renglón entre −2x3 , para obtener en la diagonal
un polinomio que divida al ultimo de la diagonal. Observemos que el determinante
de la matriz original es justamente ± 10x7 − 16x6 + 5x4 − 10x3 − 2x , como era
de esperarse.
5 3 3
(5.1) A = −3 −1 −3 y
−3 −3 −1
−1 −3 3
(5.2) B = 6 8 −6
6 6 −4
mostremos que estas dos matrices son similares. Primero notemos que sus determi-
nantes son iguales, i.e., det A = det B = −4. Si esto no fuera asi, A y B no pueden
ser similares. También notemos que A y B tienen la misma traza trA = trB = 3.
Entonces si pueden ser similares. El determinante y la traza nos dan una guia
para ver si las dos matrices son similares, pero no es suficiente. Las dos matri-
ces pueden tener incluso el mismo polinomio caracteristico, pero aun asi no ser
similares. Vamos a ver si A − λI y B − λI son equivalentes. Se tiene
5−λ 3 3
A − λI = −3 −1 − λ −3
−3 −3 −1 − λ
−3 −3 −1 − λ
∼ −3 −1 − λ −3
5−λ 3 3
1 0 0
∼ 0 2−λ −2 + λ
0 3 − (5 − λ) 3 − 1/3 (1 + λ) (5 − λ)
1 0 0
∼ 0 2−λ 0
0 0 3 − 1/3 (1 + λ) (5 − λ) + λ − 2
1 0 0
∼ 0 2−λ 0
0 0 − (1 + λ) (2 − λ)
68 5. FORMAS CANONICAS
y
−1 − λ −3 3
B − λI = 6 8 − λ −6
6 6 −4 − λ
6 6 −4 − λ
∼ 6 8 − λ −6
−1 − λ −3 3
1 0 0
∼ 0 2−λ −2 + λ
0 −3 + 1 + λ 3 − 1/6 (4 + λ) (1 + λ)
1 0 0
∼ 0 2−λ 0
0 0 3 − 1/6 (4 + λ) (1 + λ) − 2 + λ
1 0 0
∼ 0 2−λ 0
0 0 − (−2 + λ) (1 + λ)
es decir, ambas tienen la misma reducción usando operaciones elementales, por lo
que las dos matrices son similares.
Observen cómo el elemento central de la diagonal divide al último. Esto es
muy interesante, en este caso se puede demostrar que A y B son ceros (raices) del
polinomio (1 + λ) (2 − λ). Por el teorema de Cayley-Hamilton sabemos que A y B
2
son ceros de su polinomio caracteristico (1 + λ) (2 − λ) , pero en este caso hay un
polinomio de grado menor (1 + λ) (2 − λ) con esa cararteristica. Esto da pie a la
siguiente definición.
Definición 5.12. Sea A matriz y m(x) polinomio. m se llama polinomio
mı́nimo de A, si m es el polinomio con menor grado que existe, tal que m(A) = 0.
Existe una relación muy interesante entre los polinomios caracteristico y mı́nimo,
ya que éste último divide al primero. Esta afirmación la podemos ver en la siguiente
proposición.
Proposición 5.13. El polinomio minimo de una matriz divide siempre a su
polinomio caracteristico.
Demostración 5.14. Sea P (x) el polinomio caracteristico de la matriz A y m
es su polinomio mı́nimo, se debe tener que P (x) = p1 (x)m(x) + p2 (x), donde p1 (x)
y p2 (x) son polinomios. Esto implica que P (A) = p1 (A)m(A) + p2 (A) = 0, pero
como m(A) = 0, se sigue que p2 (A) = 0.
Es claro entonces que si el polinomio caracteristico es de la forma P (x) =
(x − λ1 )n1 (x − λ2 )n2 · · · (x − λs )ns , el polinomio minimo tiene que ser de la forma
m(x) = (x − λ1 )m1 (x − λ2 )m2 · · · (x − λs )ms , con mi ≤ ni para todo i = 1, · · · , s.
La pregunta que sigue es, ¿si dos matrices son similares, como encuentro la
matriz que las relaciona? Ya vimos que las matrices A y B de los ejercicios 5.11
anteriores son similares, estas deben estar relacionadas entre si, tal que debe de
existir algúna matriz no sigular U que cumpla A = U BU −1 . Esta pregunta es la
2. FORMA CANÓNICA DE JORDAN 69
que nos va a ocupar en la sección siguiente, pero por ahora encontremos la matriz
de relación de forma directa en un ejercicio.
Ejercicio 5.15. Encontrar los valores propios y los vectores propios de las
matrices A y B ((5.1) y (5.2)) del ejemplo 5.11. Ver si sus vectores propios son l.i.
En caso que si, construir la matriz diagonal de la clase correspondiente. Encontrar
las matrices U que relacionan a A y B con la matriz diagonal. Encontrar entonces
la matriz U que relaciona a A y B.
Ejercicio 5.16. Mostrar que si λ es valor propio de f y f es invertible, en-
tonces λ−1 es valor propio de f −1 .
Ejercicio 5.17. Mostrar que una matriz y su transpuesta tienen el mismo
polinomio caracteristico.
Ejercicio 5.18. Sea A matriz cuadrada 2 × 2. Mostrar que el polinomio car-
acteristico de A esta dado por
x2 − (trA) x + det A
Pn=2
donde trA = i=1 (A)ii es la traza de A. (Ayuda: Mostrar primero que para todo
polinomio ax2 +bx+c con raices x1 , x2 , se tiene que x1 +x2 = −b/a y x1 x2 = c/a.)
Ejercicio 5.19. Sea A matriz cuadrada 3 × 3. Mostrar que el polinomio car-
acteristico de A esta dado por
1h 2 i
x3 − (trA) x2 + (trA) − trA2 x − det A
2
Ejercicio 5.20. Sea A matriz cuadrada 4 × 4. Mostrar que el polinomio car-
acteristico de A esta dado por
1h 2 i 1h 3 i
x4 −(trA) x3 + (trA) − trA2 x2 − (trA) − 3 trA2 (trA) + 2 trA3 x−det A
2 6
donde
0 1 0 ··· 0
0 0 1 ··· 0
.. .. ..
Nn = . . .
0 ··· 0 1
0 ··· 0 0
Las matrices Nn son matrices n × n y tienen la asombrosa propiedad de
ser nilpotentes de grado n, es decir, (Nn )n = 0. Esta propiedad es crucial
para definir la forma canónica de Jordan. Pero primero observemos la siguiente
proposición.
Proposición 5.22. El polinomio cararteristico de las células de Jordan n × n
n
son de la forma (l − x) .
Demostración 5.23. Se puede ver por cálculo directo que det(J − xI) =
n
(l − x) .
Antes de ver el teorema de Jordan, vamos a observar una propiedad muy in-
teresante de las matrices.
Lema 5.24. El determinante de una matriz cuasidiagonal A es igual al producto
de los determinantes de las matrices de su diagonal.
Demostración 5.25. Sea
A1 0 ··· 0
..
0 A2 .
A=
..
..
. .
0 ··· As
entonces A se puede escribir como
A1 0 · · · 0 I 0 ··· 0 I 0 ··· 0
.. .. ..
0 I . . .
A= 0 A2 ··· 0 I
. . . .. .. ..
.. .. .. . . .
0 ··· I 0 ··· I 0 ··· As
donde las matrices I son matrices identidad de dimensión conveniente. Se sigue
que det A = det A1 det A2 · · · det As
Con esta propiedad ya podemos definir la forma canónica de Jordan a través
del siguiente
Teorema 5.26. Sea A matriz cuadrada de orden n sobre el cuerpo de los
números complejos, (o sobre un cuerpo algebraicamente cerrado) con polinomio
caracteristico P (x) = (x − λ1 )n1 · · · (x − λs )ns , con n = n1 + · · · + ns , y polinomio
minimo m(x) = (x − λ1 )m1 · · · (x − λs )ms . Entonces A es similar a una matriz de
Jordan, de la forma.
J11 0 ··· 0
..
0 J12 .
J = .
.
.. ..
0 ··· Jsk
2. FORMA CANÓNICA DE JORDAN 71
donde cada λi , con i = 1, · · · , s es representada por las células de Jordan Jik con
k = 1, · · · , ti tal que
1.- Existe al menos una célula de Jordan de orden mi y las demás tendrán
ordenes menores o iguales que mi .
2.- La suma de los ordenes de las células Jik es ni .
3.- El número de células de Jordan Jik , es únicamente determinado para cada
matriz A.
Demostración 5.27. Vamos a ver sólo una idea de la demostración. Con-
struyamos la representación de Jordan de A. Como el polinomio mı́nimo de A es
m, se tiene que m(A) = (A− λ1 I)m1 · · · (A− λs I)ms = 0. Podemos definir matrices
Ai con i = 1, · · · , s tales que (A1 − λ1 I)m1 = 0, · · · , (As − λs I)ms = 0 y escribir
A1 0 · · · 0
..
0 A2 .
det
.
− xI = (x − λ1 )m1 · · · (x − λs )ms
.. ..
.
0 ··· As
Definamos las matrices Ni = Ai − λi I. Claramente las matrices Ni son nilpo-
m
tentes tales que (Ni ) i = 0. Una representación de estas matrices esta dada por
las matrices nilpotentes
0 1 0 ··· 0
0 0 1 ··· 0
.. . .. ..
Ni = . .
0 ··· 0 1
0 ··· 0 0
Entonces podemos representar a la matriz A por una matriz de Jordan. La repre-
sentación quedará determinada al reducir la matriz de Jordan y la matriz A a su
forma equivalente. Además se sigue que:
1.- El orden de Ai es mi , al menos una vez.
2.- La suma de los ordenes de las células Jik es ni , debido a que J y A tienen
el mismo polinomio caracteristico.
3.- El número de células de Jordan Jik , es únicamente determinado para cada
matriz A ya que A y J son similares.
Ejemplo 5.28. Tomemos de nuevo la matriz A (5.1) del ejemplo 5.11
5 3 3
A = −3 −1 −3
−3 −3 −1
2
ya sabemos que su polinomio caracteristico esta dado por (1 + λ) (2 − λ) y su poli-
nomio mı́nimo por (1 + λ) (2 − λ). Entonces, siguiendo la regla del teorema, se
tiene que, según el polinomio caracteristico, el valor propio 1 aparece una vez en la
diagonal y el valor propio 2 aparece dos veces. Además, segun el polinomio mı́nimo,
los dos valores propios tiene una célula de Jordan de grado 1. Ası́, su forma de
Jordan será
2 0 0
(5.3) J = 0 2 0
0 0 −1
72 5. FORMAS CANONICAS
es la matriz
1 0 0
0 2−λ 0
0 0 − (1 + λ) (2 − λ)
Por lo que, su forma canónica de Jordan tendrá una célula de Jordan de orden
uno para el factor invariante 2 − λ y otra célula diagonal para el factor invariante
(1 + λ) (2 − λ) (ver (5.3)).
3 2
Ejercicio 5.32. Sea A una matriz con polinomio caracteristico (x − 2) (x − 1)
y polinomio minimo (x − 2)2 (x − 1) . ¿Cual es su forma canónica de Jordan?
Definición 5.34. Sea P (x) polinomio de grado n, tal que su coeficiente prin-
cipal sea 1, i.e.
P (x) = a0 + a1 x + · · · + an−1 xn−1 + xn
La matriz
0 1 0 ··· 0
0 0 1 ··· 0
.. .
.. .
.. .. ..
N = . . .
0 0 0 ··· 1
−a0 −a1 −a2 ··· −an−1
−x 1 0 ··· 0
0 −x 1 ··· 0
.. .. .. .. ..
det (N − Ix) = det . . . . .
0 0 0 ··· 1
−a0 −a1 −a2 ··· −an−1 − x
1 0 ··· 0 −x 0 ··· 0
−x 1 ··· 0 0 1 ··· 0
= a0 det . .. .. .. − a1 det .. .. . . .. + ···−
.. . . . . . . .
0 0 ··· 1 0 0 ··· 1
−x 1 ··· 0
0 −x ··· 0
(−an−1 − x) det . .. .. ..
.. . . .
0 0 ··· −x
Ejercicio 5.43. Sea A una matriz con polinomio caracteristico (x − 2)3 (x − 1)2
2
y polinomio minimo (x − 2) (x − 1) . ¿Cual es su forma canónica natural?
Ejercicio 5.44. Encontrar todas las formás canónicas naturales posibles de
3 2
una matriz que tiene polinomio caracteristico (x − 2) (x − 1) .
4 −6 1
Ejercicio 5.45. Sea A = −6 12 0 . Encuentre sus valores y vec-
−2 6 1
tores propios. Reduzca la matriz por operaciones elementales (invariantes) hasta
su forma más elemental. ¿Cual es su Rango? Encuentre P tal que A = P Ad P −1 ,
donde Ad es la forma diagonal de A.
−6 1 0
Ejercicio 5.46. Sea B = 12 0 1 Encuentre sus valores y vectores
6 1 1
propios. Reduzca la matriz por operaciones elementales (invariantes) hasta su
forma más elemental. ¿Cual es su Rango?
Ejercicio 5.47. Demuestre de forma sencilla que las matrices A y B anteriores
no son similares.
Ejercicio 5.48. Encuentre la forma canónica diagonal de las matrices carac-
teristicas de A y B
Part 3
VARIABLE COMPLEJA
CHAPTER 6
EL PLANO COMPLEJO
en el plano complejo. Estas deferencias las vamos a utilizar para hacer calculos muy
complejos en el plano real, simplificando la estructura y los calculos. Para iniciar
esta sección, vamos a definir primero una función compleja.
Definición 6.11. Una función en el plano complejo, es un mapeo f : C → C
tal que
a + ib → f (a, b) = u(a, b) + iv(a, b)
Las propiedades fundamentales de funciones reales se pueden extender al caso
de las funciones complejas. De una manera análoga a como se define continuidad
en funciones de variable real, en variable compleja se define continiudad. Solo que
la estructura compleja de estas funciones provocan cambios y sutilezas, que le dan
mucha riquza estructural a las funciones complejas. Vamos a ver esto con cuidado.
Vamos a iniciar con la definición de continuidad, de hecho es la misma definición
que se usa en variable real, o en análisis o en topologia mas adelante. Solo que aqui,
la definición implica algunos cambios interesantes.
Definición 6.12. Sea f : C → C. La función f se llama continua en z ∈ C,
si para toda ǫ > 0, con ǫ ∈ ℜ, uno puede encontrar δ > 0, δ ∈ ℜ, tal que
|z − z ′ | < δ, implica |f (z) − f (z ′ )| < ǫ
En palabras, f es continua en z, si para cualquier número z ′ suficientemente
cerca de z, f (z ′ ) es suficientemente cerca de f (z).
4) f (z) = z + z̄
5) f (z) = z̄
6) f (z) = z z̄
7) f (z) = z − 2z 2
8) f (z) = (z + 2)2
La definición de lı́mite en variable compleja es también análoga a la definición
de lı́mite en variable real. Formalmente la definición de lı́mite de funciones de
variable compleja es como sigue.
Definición 6.15. Sea f : C→ C, y z1 , z2 ∈ C. El lı́mite de f cuando z tiende
a z1 es z2 , si para toda N > 0 existe δ > 0 con N , δ ∈ ℜ tal que |z − z1 | < δ
implica |f (z) − z2 | < N
Notación 6.16. El lı́mite de f cuando z tiende a z1 es z2 se denota
lim f (z) = z2
z→z1
La relación entre lı́mite y continuidad esta dada por las siguientes dos proposi-
ciones.
Proposición 6.17. Si limz→z1 f (z) = z2 y f (z1 ) = z2 , se sigue que f es
continua.
Demostración 6.18. Sabemos que para toda N > 0 existe δ > 0, con N ,
δ ∈ ℜ tal que |z − z1 | < δ implica |f (z) − z2 | < N . Hagamos N = ǫ y z1 = z ′ y
2. FUNCIONES EN EL PLANO COMPLEJO 83
como f (z1 ) = f (z ′ ) = z2 , entonces se tiene que para toda ǫ > 0 existe δ > 0, tal
que |z − z1 | = |z − z ′ | < δ implica |f (z) − z2 | = |f (z) − f (z ′ )| < ǫ.
Proposición 6.19. Sea f : C → C continua en z1 , con f (z1 ) = z2 . Entonces
lim f (z) = z2
z→z1
Entonces
1)
lim [f (z) + F (z)] = w0 + W0
z→z0
2)
lim [f (z)F (z)] = w0 W0
z→z0
3)
f (z) w0
lim =
z→z0 F (z) W0
4) Si f (z) = u(x, y) + iv(x, y) se sigue
lim f (z) = lim u(x, y) + i lim v(x, y)
z→z0 x→x0 ,y→y0 x→x0 ,y→y0
donde en la ultima identidad hemos usados los teoremas de variable real. Entonces,
reagrupando de nuevo se tiene que
f (z) u0 + iv0
lim =
z→z0 F (z) U0 + iV0
Ejercicio 6.24. Demostrar el resto del teorema usando los teoremas similares
de lı́mites en variable real.
Con la propiedad 4) podemos utilizar los teoremas y métodos comunes de vari-
able real para obtener lı́mites de funciones en variable compleja. Este resultado lo
usaremos constentemente en adelante.
donde hemos escrito △z = x + iy, ası́ que el lı́mite y por tanto la derivada es 2.
El resultado del ejemplo anterior no es sorprendente, en variable real la función
anterior f (z) = 2z = 2x+2iy también es deribable. Sin embargo veamos el siguiente
ejemplo.
Ejemplo 6.27. Sea f (z) = x + 2iy, entonces la derivada de esta función esta
dada por
df f (△z) − f (0) x + 2iy x2 + 2y 2 + ixy
= lim = lim = lim
dz z=0 △z→0 △z x→0,y→0 x + iy x→0,y→0 x2 + y 2
pero este lı́mite no conmuta, ya que si tomamos primero x → 0 y luego y → 0, vean
la figura 4, obtenemos
df
=2
dz z=0
3. LA DERIVADA EN EL PLANO COMPLEJO 85
donde δ1 y δ2 son combinaciones lineales de las ǫ’s. Ahora bien, |∆x| ≤ |∆z| y
|∆y| ≤ |∆z|, por lo tanto |∆x/∆z| ≤ 1 y |∆y/∆z| ≤ 1. Ası́ que
′ ∆f ∂u ∂v ∂u ∂v
f (z) := lim = +i = −i +i
∆z→0 ∆z ∂x ∂x ∂y ∂y
ya que los últimos términos tienden a cero, cuando ∆z → 0. Por lo tanto la
derivada de f (z) existe.
En lo que sigue vamos a trabajar con funciones que son derivables en una región
o al menos no lo son en puntos definidos. Cuando una función es derivable en un
entorno, en una región del espacio complejo, se dice que es analı́tica ahi. El resto de
nuestro estudio de funciones de variable compleja se limitara al estudio de funciones
analı́ticas, o no analı́ticas en solo puntos bien definidos. Vamos a ver la definición
formal de función analı́tica.
3. LA DERIVADA EN EL PLANO COMPLEJO 87
∂u ∂v
= 2x; =2x
∂x ∂y
∂u ∂v
y = −2y; =2y
∂y ∂x
Es decir, las condiciones de Cauchy-Riemann se cumplen siempre, por lo que z 2 es
una función analı́tica.
Ejercicio 6.34. Usando las condiciones de Cauchy-Riemann, verificar cual de
las funciones del ejercicio 6.14 son analı́ticas y en que puntos no lo son.
Cuando un función compleja no es analı́tica en puntos determinados, se dice
que la función es singular en esos puntos. Al punto mismo se le llama singularidad
o polo. Formalmente se tiene.
Definición 6.35. Sea f : C ⇀ C analı́tica en cada punto en el entorno de z0 ,
pero no en z0 . Se dice que z0 es un punto singular de f .
Veamos un ejemplo de singularidad.
Ejemplo 6.36. Sea f (z) = 1/z. Su derivada es f ′ = −1/z 2. Esta función se
puede escribir como
1
f (z) =
x + iy
x iy
= 2 2
−i 2
x +y x + y2
por lo que u = x/ x2 + y 2 y v = −y/ x2 + y 2 . Entonces las condiciones de
Cauchy-Riemann son
∂u ∂v x2 − y 2
= =− 2 y
∂x ∂y (x2 + y 2 )
∂u ∂v 2xy
= − =− 2
∂y ∂x (x2 + y 2 )
88 6. EL PLANO COMPLEJO
2) P + Q es analı́tica.
4) P ◦ Q es analı́tica
4. Funciones Armónicas
Una conclusión inmediata de las condiciones de Cauchy-Riemman son el hecho
que las funciones reales que forman la función de variable compleja, cumplen la
4. FUNCIONES ARMÓNICAS 89
∂u ∂v ∂u ∂v
= , =−
∂x ∂y ∂y ∂x
entonces f ′ (z) existe. Si las funciones u y v tienen derivadas continuas y a su vez
derivables, se debe cumplir que
∂2v ∂2v
(6.1) =
∂x∂y ∂y∂x
Vamos a usar las condiciones de Cauchy-Riemann en la indentidad (6.1), se obtiene
que
∂2u ∂2u
+ 2 =0
∂x2 ∂y
Esta es es la ecuación de Laplace para la función u. A estas funciones se les llama
funciones armónicas. Formalmente tenemos.
∂2u ∂2u
+ 2 =0
∂x2 ∂y
se llama armónica.
∂2v ∂2v
+ =0
∂x2 ∂y 2
Entonces se tiene el siguiente lema.
Ejercicio 6.46. Diga cual de las funciones de los ejercicios 6.14 y 6.42 son
armónicas.
90 6. EL PLANO COMPLEJO
1 iz
cos (z) = (e + e−iz )
2
1 iz
sin (z) = (e − e−iz )
2
etc. Estas funciones elementales se derivan, suman ó multiplican igual que las fun-
ciones de variables reales. Sin embargo, las funciones ahora no se ven graficamente
igual a las de variable real. Por ejemplo, es fácil ver aquı́ también que se sigue la
identidad
ez = ex+iy = ex (cos(y) + i sin(y))
por lo que la exponencial de un número complejo es una función periódica, es decir,
ez+2ikπ = ez , para todo k = 0, ±1, ±2, · · · . Esto causa que la función inversa a la
exponencial no sea una función, ya que esta multivaluada. Por eso se acostrumbra
tomar a la función ln como la que se obtiene para k = 0.
Otra diferencia interesante es que las funciones trigonometicas y las hiperbolicas
estan relacionadas entre sı́. Por ejemplo, sin(z) = −i sinh(iz), o cos(z) = cosh(iz),
etc.
Ejercicio 6.47. Usando esta analogia, verifique cual de las siguintes funciones
son analı́ticas y armónicas y en que puntos.
1) f (z) = ez
2) f (z) = sin (z)
3) f (z) = cos (z)
4) f (z) = ln (z − 1)
5) f (z) = sinh (z)
6) f (z) = cosh (z)
7) f (z) = arcsin (z)
8) f (z) = arctan (z)
Definición 6.49. Sea γ una curva en C y P una partición del intervalo (0, 1)
con γ : (0, 1) → C. Si ti ∈ P, sea γ(ti ) = zi y ∆j z = zj − zj−1 , vean la figura 6.
Sea zj cualquier punto en la curva entre zj−1 y zj . La integral de f (z) a lo largo
de γ se define como.
Z n
X
f (z)dz = lim f (zj )∆j z
γ n→∞
j=1
donde las integrales del lado derecho son integrales de linea reales.
Demostración 6.51. Sea f = u(x, y) + iv(x, y) y sean
∆j z = zj − zj−1 = xj − xj−1 + i(yj − yj−1 ) = ∆j x + i∆j y
j = 1, · · · , n. De la definición.
Z n
X
f (z)dz = lim [u(x′j , yj′ ) + iv(x′j , yj′ )](∆j x + i∆j y)
γ n→∞
j=1
n
X
= lim [u(x′j , yj′ )∆j x − v(x′j , yj′ )∆j y] +
n→∞
j=1
n
X
+i lim [v(x′j , yj′ )∆j x + u(x′j , yj′ )∆j y]
n→∞
j=1
Estos últimos lı́mites son las integrales de linea de las funciones correspondientes,
ası́ se sigue el teorema.
Comentario 6.52. Si podemos representar γ en su forma paramétrica, tal que
γ : ℜ ⇀ C, t → γ(t) = φ(t) + iψ(t) = x + iy, entonces se tiene que dx = φ′ dt,
dy = ψ ′ dt y la integral
Z Z t2 Z t2
f (z)dz = (uφ′ − vψ ′ )dt + i (vφ′ + uψ ′ )dt
γ t1 t1
Ejemplo 6.55. Ahora tomemos otra trayectoria. Vayamos por el eje de las x
hasta el punto B = (2, 0) y luego subamos por la recta perpendicular hasta A = (2, i).
Por la trayectoria 0BA. A lo largo de 0B, z = x, dz = dx. A lo largo de BA ,
z = 2 + iy, dz = idy. Se obtiene
Z 2 Z 1
2
8 11 2 11
I2 = x dx + i(4 − y 2 ) − 4y dy = + i − 2 = + i
0 0 3 3 3 3
es decir 2+i
1 1 2 11
I2 = I1 = z 3 = (2 + i)3 = + i
3 0 3 3 3
R 2
Ejemplo 6.56. Evaluemos la integral I = γ z dz a lo largo del cı́rculo de
radio 1, como en la figura 8, es decir a lo largo de la trayectoria r2 = x2 + y 2 = 1.
Para hacer esta integral, conviene hacer un cambio de variable, sean x = r cos (θ),
y = r sin (θ), tal que x + iy = cos (θ) + i sin (θ) = eiθ . Entonces z = eiθ y por tanto
dz = ieiθ dθ sobre el cı́rculo. Se tiene que
Z 2π
1 2π
I2 = i e2iθ eiθ dθ = e3iθ 0 = 0
0 3
Ejemplo 6.57. Evaluemos ahora la integral
Z
1
I= dz
γ z
a lo largo del cı́rculo de radio 1, de nuevo como en la figura 8. también hacemos el
cambio de variable x = cos (θ), y = sin (θ). Se tiene que
Z 2π
I2 = i eiθ e−iθ dθ = 2πi
0
94 6. EL PLANO COMPLEJO
R
Ejercicio 6.58. Evaluar la integral γ f (z)dz, donde f (z) son las funciones
del ejercicio 6.42 y γ es la trayectoria dada por |z| = 1.
Las propiedades de las integrales en variable compleja es muy semajante a
las propiedades de las integrales de variable real. Sin embargo hay diferencias
sustanciales que es justamente lo que hace tan importante el estudio de las funciones
de variable compleja y su integración. Estas diferencias las veremos mas adelante,
por ahora veamos sus propiedades.
Proposición 6.59 (Propiedades de las integrales.). Sea f : C ⇀ C integrable,
γ y β trayectorias. Entonces, se cumple que
a)
Z Z
f (z)dz = − f (z)dz
γ −γ
b)
Z Z
kf (z)dz = k f (z)dz para toda k ∈ C
γ
c)
Z Z Z
(f (z) + g(z)) dz = f (z)dz + (z)dz
γ γ γ
Ejercicio 6.71. Usando los teoremas anteriores, diga en que regiones las fun-
ciones de los ejercicios 6.14 y 6.42 tienen integrales diferentes de cero para trayec-
torias cerrdas.
Análogamente al teorema fundamental del cálculo, aqui también se puede ver
que la integral de una función analı́tica, es su antiderivada. Por lo que la analogia
de la integración de funciones analı́ticas con funciones de variable real, es muy
profunda. Veamos este teorema.
Teorema 6.72. Sean f (z) : C ⇀ C y F (z) : C ⇀ C funciones analı́ticas. Si
Z z
F (z) = f (z ′ )dz ′ , entonces F ′ (z) = f (z)
z0
6. La Integral de Cauchy
Uno de los teoremas mas importantes en varaiable compleja y que mas vamos a
usar en adelante es el teorema de Cauchy. Bası́camente es una fórmula para evaluar
integrales que son singulares en un punto y queremos llevar a cabo la integral en
una región que contenga la singularidad. Como vimos, la integral cerrada de una
función analı́tica es cero. Pero la singularidad contenida en la región de integración
hace que la integral de la función singular ya no sea cero. Lo bonito del teorema
es que no solo nos dice que la integral existe, sino nos da una fórmula muy simple
para calcularla. Veamos este teorema.
Teorema 6.74 (de Cauchy). Sea f : C ⇀ C función univaluada y analı́tica
dentro y sobre una curva cerrada γ. Si z0 es cualquier punto interior a γ, se tiene
que Z
1 f (z)
f (z0 ) = dz
2πi γ z − z0
A esta integral se le llama fórmula de la integral de Cauchy.
Demostración 6.75. Sea γ una curva que contenga z0 , vean la figura 14. Sea
r0 = |z − z0 |, tal que γ0 = {z ∈ C | z − z0 | ≤ r} ⊆ γ(ℜ). Como f (z) es analı́tica, se
sigue que f (z)/ (z − z0 ) es analı́tica, salvo en z = z0 . Por el teorema de conexión
multiple de Cauchy, se tiene
Z Z
f (z) f (z)
− =0
γ z − z 0 γ0 z − z0
6. LA INTEGRAL DE CAUCHY 99
es decir: Z Z Z
f (z)dz dz f (z) − f (z0 )
= f (z0 ) + dz
γ z − z0 γ0 z − z0 γ0 z − z0
iθ iθ
Sobre γ0 , (z − z0 ) = r0 e , por lo que dz = ir0 e dθ, es decir
Z Z 2π −iθ
dz e
= ir0 eiθ dθ = 2πi
γ0 z − z 0 0 r0
Como f (z) es continua, esto implica que para toda ǫ ∈ ℜ, existe δ > 0 tal que
|z − z0 | < δ, implica que |f (z) − f (z0 )| < ǫ. Tomemos δ = r0 , entonces
Z Z Z
f (z) − f (z0 ) |f (z) − f (z0 )| ǫ
dz ≤ |dz| < |dz|
z − z0 |z − z0 | r0 γ0
γ0 γ0
Z 2π
ǫ ǫ
= |ir0 eiθ dθ| = 2π r0 = ǫ2π
r0 0 r0
Por lo que esta integral será más pequeña que 2πǫ, que tiene el valor tan pequeño
como se quiera. Por lo que esta integral es cero.
Una implicación inmediata, es que si derivamos la fórmula de Cauchy obten-
emos una fórmula equivalente. Es decir.
100 6. EL PLANO COMPLEJO
Corolario 6.76. Z
′ 1 f (z)
f (z0 ) = dz
2πi γ (z − z0 )2
Claramente este proceso se puede llevar a cabo para obtener las derivadas de
orden mayor. Lo que sigue es aprender a usar la fórmula. Para esto proponemos
los siguientes ejercicios.
Ejercicio
R 6.77. Realice las siguientes integrales
1) γ z 2 dz, donde γ es cualquier trayectoria cerrada.
R
2) γ cos(z)/(z + 1)2 dz, donde γ es un cı́rculo de radio 1/2 y centro en cero.
R
3) γ cos(z)/(z + 1)2 dz, donde γ es un cı́rculo de radio 2 y centro en cero.
R 2z+1
4) γ z+z dz, donde γ es un cı́rculo de radio 2 y centro en cero.
R 2z+12
5) γ z+z2 dz, donde γ es un cı́rculo de radio 1/2 y centro en cero.
R 3 2
−1
6) γ 4zz(z+z
2 −1) dz, donde γ es un cı́rculo de radio 2 y centro en cero.
R 4z3 +z2 −1
7) γ z(z2 −1) dz, donde γ es un cı́rculo de radio 1/2 y centro en cero.
R 2 −2z−1
8) γ z z+z 2 dz, donde γ es un cı́rculo de radio 1/2 y centro en 1.
El teorema y el corolario anteriores son de suma importancia para evaluar
integrales, tanto en el caso de variable compleja como en variable real. Mas adelante
6. LA INTEGRAL DE CAUCHY 101
dedicaremos una sección a este importante resultado. Por ahora vamos a intruducir
otra consecuencia directa de la fórmula de Cauchy que nos servira para la evaluación
de integrales. Este teorema es el siguiente.
Teorema 6.78. Sea f : C → C una función univaluada y analıtica en un punto,
entonces sus derivadas de todos los órdenes, f ′ (z), f ′′ (z), · · · , son también funciones
analı́ticas en dicho punto.
Demostración 6.79. f (z) analı́tica implica que f ′ (z) existe en algún entorno
para el cual f (z) es analı́tica. Si usamos el corolario anterior, encontramos que
Z
′′ 2! f ′ (z)
f (z0 ) = dz
2πi γ (z − z0 )3
Usemos el entorno |z − z1 | = r1 dentro del entorno cubierto por γ, entonces f ′′ (z0 )
existe y por tanto f ′ (z0 ) es analı́tica. Repitiendo el argumento se sigue que f (n) (z0 )
es analı́tica. Esto implica que si f = u + iv, entonces u y v, serı́an funciones de
clase C ∞ .
Este teorema nos conduce a la fórmula
Z
n! f (z)dz
(6.2) f (n) (z0 ) = n = 1, 2, · · ·
2πi γ (z − z0 )n+1
Claramente esta fórmula se cumple igual si en vez de una región conexa, se
toma una región de conexión múltiple que contenga en su interior al punto z0 . El
102 6. EL PLANO COMPLEJO
SERIES
La serie será convergente si su parte real y su parte imaginaria lo son por separado.
Para determinar si una serie converge entonces, se usan los métodos comunes en
la determinación de convergencia en variable real. Vamos a recordar brevemente
algunos criterios.
1)PCriterio de comparación. Si 0 ≤ Pa n ≤ bn , para toda n, entonces si la
∞ ∞
serie n=1 bn converge, también converge n=1 an .
2) Prueba del cociente. Sea an > 0 para todo n y
an+1
lim =r
n→∞ an
P∞
entonces n=1 an converge si r < 1.
3) Teorema de Leibniz. Si a1 ≥ a2 ≥ · · · ≥ 0 y
lim an = 0
n→∞
P∞
entonces la serie n=1 (−1)n+1 an = a1 − a2 + a3 − a4 · · · converge.
Para aplicar estos criterios de convergencia se toman la parte real y la imag-
inaria por separado y se aplica entonces a las series de variable compleja. Sin
embargo, podemos definir algo mas fuerte que convergente, que se llama absoluta-
mente convergete. Su definición es como sigue:
Definición 7.1. Una serie del tipo (7.1) convergente, se dice absolutamente
convergente si
∞
X
|z1 | + |z2 | + · · · + |zn | + · · · = |zn |
n=1
es convergente
103
104 7. SERIES
Si esta serie converge para algún valor zo , entonces la serie converge absolutamente
para todos los valores z tales que |z| < |zo |
P∞
Demostración 7.3. Por hipótesis se tiene que n=1 cn zon convege, por lo que
|cn zon | < M es acotado para toda n y para alguna M ∈ ℜ. Sea r = |z/zo|, entonces
n
n z
|cn z | = |cn zo | < M rn
n
zo
por lo que, usando el criterio de comparación de las series, se tiene que si r < 1,
la serie converge absolutamente.
Veamos otros ejemplos.
Ejemplo 7.4. Sea la serie
X∞
ein
S=
n=1
n2
Claramente podemos descomponer esta serie en su parte real y su parte imaginaria
como
X∞
cos(n) sin(n)
S= + i
n=1
n2 n2
P∞
Primero observemos que el módulo de los términos de la serie es n=1 1/n2 y ésta
serie es convergente, por lo que la serie S es absolutamente convergente. La dos
series por separado, la parte real y la imaginaria, también son convergentes, por lo
que S es convergente.
Ejemplo 7.5. Vamos a determinar si la serie
X∞
S= z n cos(in)
n=1
Asi que
f (z ′ ) f (z ′ ) f (z ′ ) f (z ′ ) n−1 f (z ′ )
= + (z−z 0 )+· · ·+ (z−z 0 ) + (z−z0 )n
z′ − z z ′ − z0 (z ′ − z0 )2 (z ′ − z0 )n (z ′ − z)(z ′ − z0 )n
Ahora dividimos esta identidad entre 2πi e integramos todos los términos usando
el teorema de Cauchy, para obtener
f (n−1) (z0 )
f (z) = f (z0 ) + f ′ (z0 )(z − z0 ) + · · · + (z − z0 )n−1 + Rn
n!
Z
(z − z0 )n f (z ′ )dz ′
Rn =
2πi γ1 (z ′ − z)(z ′ − z0 )n
n n
r 2πiM r1
|Rn | ≤ = r1 M r
→ 0
2πi (r1 − r)r1n r1 − r r1 n→∞
ya que r < r1 . Esto implica que tomando la serie hasta infinito obtenemos el valor
de la función en cualquier punto. Es decir,
X∞
f (n)
f (z) = f (z0 ) + (z − z0 )n
n−1
n!
Ejemplo 7.11. Los ejemplos más tı́picos de series de Taylor y Maclurin son
X∞
zn
exp (z) = 1 + para |z| < ∞
n=1
n!
∞
X z 2n−1
sin (z) = (−1)n+1 , para |z| < ∞
n=1
(2n − 1)!
∞
X z 2n
cos (z) = 1 + (−1)n , para |z| < ∞
n=1
(2n)!
∞
X z 2n−1
sinh (z) = , para |z| < ∞
n=1
(2n − 1)!
X∞
z 2n
cosh (z) = 1 + , para |z| < ∞
n=1
(2n)!
∞
X
1
= (−1)n z n , para |z| < 1
1 + z n=o
∞
1 X
= (−1)n (z − 1)n , para |z − 1| < 1
z n=o
3. Series de Laurent
Las series de Laurent son una forma de descomposición que se puede llevar a
cabo en cualquier función analı́tica. Las series de Laurent contienen coeficientes
que seran utilizados para la evaluación de integrales de una manera muy sencilla.
Vamos a iniciar con el teorema de las series de Laurent.
Teorema 7.13 (Series de Laurent). Sean γ1 y γ2 dos trayectorias circulares
concentricas, con centro en z0 . Sea z ′ un punto en γ1 ◦ γ2 , tal que |z ′ − z0 | = r1
o |z ′ − z0 | = r2 , con r2 < r1 . f (z) es analı́tica sobre γ1 y γ2 y en la región entre
ellas, como se muestra en la figura 1. Entonces f (z) puede representarse como una
serie de potencias de orden positivo y negativo como
108 7. SERIES
∞
X ∞
X bn
f (z) = an (z − z0 )n +
n=0 n=1
(z − z0 )n
donde
Z
1 f (z ′ )dz ′
an = n = 0, 1, · · ·
2πi γ1 (z ′ − z0 )n+1
Z
1 f (z ′ )dz ′
bn = n = 1, 2, · · ·
2πi γ2 (z ′ − z0 )−n+1
Notación 7.14. A estas series se les llama series de Laurent.
Demostración 7.15. La integral de Cauchy de f (z) es
Z Z
1 f (z ′ )dz ′ 1 f (z ′ )dz ′
f (z) = ′
−
2πi γ1 z − z 2πi γ2 z ′ − z
ya que dentro de esta trayectoria, f (z) es analı́tica. Si como en el teorema anterior
usamos la descomposición de z′ 1−z pero ahora en cada integral, obtenemos
Z
1 1 z − z0 (z − z0 )n−1 (z − z0 )n
f (z) = f (z ′ )dz ′ + + · · · + +
2πi γ1 z ′ − z0 (z ′ − z0 )2 (z ′ − z0 )n (z ′ − z0 )n (z ′ − z)
Z
1 1 z ′ − z0 (z ′ − z0 )n−1 (z ′ − z0 )n
− f (z ′ )dz ′ + + · · · + +
2πi γ2 z − z0 (z − z0 )2 (z − z0 )n (z − z0 )n (z − z ′ )
donde, de la misma forma que en el teorema de Taylor, el residuo
Z
(z − z0 )n 1
f (z ′ )dz ′ ′ n (z ′ − z)
2πi γ1 (z − z 0 )
3. SERIES DE LAURENT 109
tiende a cero para n → ∞. Sólo nos falta ver el segundo residuo dado por
Z ′ n
1 ′ ′ (z − z0 )
f (z )dz
2πi (z − z0 )n γ2 (z − z ′ )
pero por el mismo argumento que para el primer residuo, se puede ver que también
tiede a cero para cuando n tiende a infinito. Por lo que se sigue el teorema.
Ejercicio 7.16. Demuestre que el residuo de la serie
Z
1 (z ′ − z0 )n
f (z ′ )dz ′
n
2πi (z − z0 ) γ2 (z − z ′ )
tiende a cero para n → ∞
Para familiarizarnos con las series de Laurent, en lo que sigue vamos a dar
algunos casos particulares de ellas ası́ como algunas aplicaciones y ejemplos. Las
series de Laurent son muy generales, de hecho contienen a las de Taylor. Vamos a
iniciar con una proposición diciendo justamente esto.
Proposición 7.17. Si la función f es analı́tica dentro y fuera de una curva
|z − z0 | = r0 , su serie de Laurent se reduce a
∞
X
f (z) = an (z − z0 )n
n=0
Sin embargo, si ahora tomamos la región |z| > 1 esta expansión ya no es válida. Lo
que se acostumbra entonces es buscar que se cumplan las condiciones para que la
expansón pueda realizarse. Para esto hagamos lo siguiente, si |z| > 1, esto implica
110 7. SERIES
que |1/z| < 1, ası́ que hagamos la expansión usando este hecho. Por ejemplo,
podemos hacer
∞ ∞
1 1 1 X n −2n
X 1
f (z) = 3 −2
= 3
(−1) z = (−1)n 2n+3 para |z| > 1
z 1+z z n=1 n=0
z
ya que 1/z 2 < 1. Asi, la expresión en series de la función depende de la región
en donde queremos obtener la serie.
Ejemplo 7.20. Vamos a buscar la serie de Laurent de la función
1
f (z) =
(1 − z 2 )2
dentro de la esfera 0 < |z − 1| < 2. Para hacer esto utilizaremos la fórmula de las
series de Laurent en su forma intergral. Los coeficientes de la serie estan dados
por:
Z 1
dz ′
1 (1−z ′ 2 )2
an =
2πi γ1 (z ′ − 1)n+1
Z
1 dz ′
=
2πi γ1 (z ′ − 1)n+3 (1 + z ′ )2
1 dn+2 1
=
(n + 2)! dz n+2 (1 + z) z=1
2
1 (−1)n (n + 3)!
=
(n + 2)! (1 + z)n+4 z=1
(−1)n (n + 3)
= n = 0, 1, · · ·
2n+4
donde γ1 es una trayectoria alrededor de z = 1, y hemos usado la fórmula (6.2)
para las derivadas de la integral de Cauchy. De una manera semjante, vamos a
evaluar la integral para los coeficientes bn , tenemos:
Z 1
dz ′
1 (1−z ′2 )2
bn =
2πi γ1 (z ′ − 1)−n+1
Z
1 dz ′
= ′ −n+3
n = 1, 2, · · ·
2πi γ1 (z − 1) (1 + z ′ )2
Para n = 1, 2, el resultado es el mismo que para an , pero con n = −2, −1. Para
n ≥ 3, la función interior de la integral es analı́tica en z = 1 y la integral es cero.
Entonces la serie será:
X∞
1 (−1)n (n + 3)
2 2
= n+4
(z − 1)n
(1 − z ) n=−2
2
Ejercicio 7.21. Obtenga con detalle las expresiones de las series de las fun-
ciones siguientes
1) z 2 , dentro cualquier trayectoria cerrada.
2z+1
4) z+z 2 , dentro de un cı́rculo de radio 2 y centro en cero.
2z+1
5) z+z 2 , dentro de un cı́rculo de radio 1/2 y centro en cero.
4z 3 +z 2 −1
6) z(z 2 −1) , dentro de un cı́rculo de radio 2 y centro en cero.
4z 3 +z 2 −1
7) z(z 2 −1) , dentro de un cı́rculo de radio 1/2 y centro en cero.
z 2 −2z−1
8) z+z 2 , donde γ es un cı́rculo de radio 1/2 y centro en 1.
4. Polos y Residuos
Ya estamos listos para introducir el teorema más importante para resolver
integrales complicadas. Como ya conocemos la serie de Laurent de una función, se
pueden entonces conocer los coeficientes de la serie y con esto es posible conocer
los polos y también los residuos, como veremos mas adelante. La idea es muy
simple, los coeficientes de la serie son de hecho integrales de funciones, pero la
serie se puede encontrar por otros métodos. Entonces, conocidos los coeficientes,
podemos igualarlos a las integrales correspondientes. Estos coeficientes son los
que se necesita para poder evaluar integrales. Vamos a iniciar esta sección con la
siguiente definición.
Definición 7.24. Sea f : C→ C analı́tica en todos los puntos de la región R,
excepto en z0 ∈ R. Entonces z0 se llama punto singular aislado de f en R.
Notación 7.25. Otra manera de enunciar esta definición es diciendo que z0
es un punto singular aislado, si en toda la región alrededor de Rz0 = {z ∈ R | 0 <
|z − z0 | ≤ r1 }, f es analı́tica.
112 7. SERIES
Ası́, el residuo para 0 < |z| < 1 es K1 = 2. Ahora vamos a buscar la serie alrededor
del otro polo z = 1. Para hacer esto, busquemos una descomposición de la función
de tal forma que podamos expandirla en series alrededor de z = 1. Podemos hacer
5z − 2 5z − 5 + 3 1 3 1
= = 5+
z(z − 1) z−1 z z−1 z
3
= 5+ [1 − (z − 1) + (z − 1)2 − · · · ]
z−1
3
= 5 − 5(z − 1) + 5(z − 1)2 + − 3 + 3(z − 1) − 3(z − 1)2 + · · ·
z−1
3
= + 2 − 2(z − 1) + 2(z − 1)2 − · · ·
z−1
para 0 < |z − 1| < 1, por lo que el residuo es K2 = 3.
Ejercicio 7.31. Obtenga los residuos de las fuciones del ejercicio 7.21.
El cálculo anterior es genérico en funciones analı́ticas y es otro de los resultados
mas importantes de la variable compleja. Con este resultado ya podemos demostrar
el teorema de los residuos.
Teorema 7.32 (del Residuo). Sea f : C ⇀ C analı́tica en una región R, excepto
en un número finito de puntos singulares aislados, sea γ una curva cerrada que rodea
un número finito de esos puntos. Sean K1 , · · · , Kn los residuos de f alrededor de
estos puntos. Entonces
Z
f (z)dz = 2πi(K1 + K2 + · · · + Kn )
γ
O hagamos el desarrollo en series de otra forma alternativa que abarque los dos
polos, por ejemplo, para |z| > 1 podemos hacer
∞
X
5z − 2 5z − 2 1 1
= 1 = (5z − 2)
z(z − 1) z2 1 − z n=0
z n+2
por lo que el residuo aqui es 5, ası́ que al final, con cualquiera de las formas de
calcular la integral, obtenemos el mismo resultado, como debe ser.
Ejercicio 7.35. Usando el teorema del residuo, calcular las integrales sigu-
ientes R
cos(z)
1) γ (z+1) 2 dz
R 2z+1
2) γ z+z 2 dz
R 4z 3 +z 2 −1
3) γ z(z 2 −1) dz
R z 2 −2z−1
4) γ z+z 2 dz
R ez
5) γ (z 2 +1)5
dz
R cos(z)
6) γ (z−1)5 dz
R 3z 3 −z 2 +5z+1
7) γ (z 2 −1)2
dz
4. POLOS Y RESIDUOS 115
como antes.
Ejemplo 7.41. Encontremos los residuos de la función
z2
f (z) =
(z 2 + 9)(z 2 + 4)2
Esta función tiene 2 polos simples en ±3i y dos dobles en ±2i. Para calcular los
residuos usemos la fórmula (7.3)
z2 3
b1 = lim 2 2
=−
z→3i (z + 3i)(z + 4) 50i
y
z2 3
b1 = lim 2 2
=
z→−3i (z − 3i)(z + 4) 50i
Los polos dobles los calculamos usando la fórmula (7.4)
′
lim (z − 2i)2 f (z)
z→2i
′
z2 13i
= =−
(z 2 + 9)(z + 2i) 200
análogamente
′
lim (z − 2i)2 f (z)
z→−2i
′
z2 13i
= =
(z 2 + 9)(z − 2i) 200
La fórmula para obtener el residuo también puede ser usada para otros fines.
Por ejemplo, vamos a usarla para evaluar el lı́mite de la función
cosh(z) sinh(z)
g(z) = 2 −2
z2 z3
en cero.
Ejemplo 7.42. Tomemos la serie
sinh (z)
f (z) =
z4
Su función F (z) correspondiente debe ser
sinh (z)
F (z) = z m
z4
Si m ≥ 4, F (0) = 0. Pero si m = 3,
sinh(z)
F (z = 0) = =1
z z=0
Entonces
1 d2 F (z = 0) 1 sinh(z) cosh(z) sinh(z)
2
= −2 + 2
2! dz 2 z z2 z3 z=0
Que es justamente 1/2!F ′′ (0) = 1/2 limz→0 (sinh(z)/z − g(z)), que es el lı́mite que
buscamos. Para saber cual es su valor, vamos a evaluar la serie de Laurent de la
función f (z). Se obtiene
sinh (z) 1 11 1 1
f (z) = = 3+ + z + z3 + · · ·
z4 z 3! z 5! 7!
4. POLOS Y RESIDUOS 117
Por lo que sinh (z) /z 4 tiene un residuo igual a 1/6 y un polo triple en z = 0.
Usando este resultado podemos evaluar la función
1 ′′ 1 sinh(z) cosh(z) sinh(z) 1
F (0) = −2 2
+ 2 3 =
2! 2 z z z z=0 6
Como limz→0 sinh(z)/z−g(z) = 1/3 y limz→0 sinh(z)/z = 1, se tiene que limz→0 g(z) =
2/3
Como ya habrán notado, las singularidades de algúnas funciones tienen la car-
acteristica de poder ser eliminadas transfomando la función original en otra que
se convierte en analı́tica. A estas sigularidades se les llama removibles, porque de
hecho se pueden evitar, por ejemplo, multiplicando la función por algún factor,
como es el caso de la definición de la función F . Formalmente estas sigularidades
se definen como sigue.
Definición 7.43. Sea F1 : C ⇀ C analı́tica en una región R, excepto para
z = z0 ∈ C. Sea F (z) = F1 (z) para toda z 6= z0 y F (z0 ) = k, con F : C → C. Si
F (z) es analı́tica, se dice que z0 es una singularidad removible o evitable.
Para aclarar esta definición, veamos algunos ejemplos y ejercicios.
Ejemplo 7.44. Sea f : C ⇀ C analı́tica en R pero con un polo z = z0 de orden
m. Si definimos F = (z − z0 )m f (z), esta nueva función es analı́tica y tiene una
singularidad en z = z0 que es removible.
Ejemplo 7.45. Sea
1 1 1
f (z) = = 2 2
z (ez − 1) z 1+ z
2! + z3! + · · ·
Esta función es singular en z = 0 y tiene un polo doble. De hecho
1 1 1
= 2 (1 − z + · · · )
z (ez − 1) z 2
El residuo de f (z) es K1 = − 12 . Sin embargo, la función F = z 2 f (z) es analı́tica
en z = 0, por lo que z = 0 es un polo removible de F .
Ejercicio 7.46. Encontrar los polos y residuos de las siguientes funciones.
cos(z)
1) (z+1) 2
2z+1
2) z+z 2
4z 3 +z 2 −1
3) z(z 2 −1)
z 2 −2z−1
4) z+z 2
ez
5) (z 2 +1)5
cos(z)
6) (z−1)5
3z 3 −z 2 +5z+1
7) (z 2 −1)2
118 7. SERIES
5. Evaluación de Integrales
Una de las aplicaciones directas de los resultados anteriores es la posibilidad
de desarrollar algunos métodos para evaluar integrales que son muy complicadas.
Para explicar estos métodos, lo mas conveniente es dar ejemplos de como se utilizan
éstos. En esta sección veremos algunos ejemplos de evaluación de integrales usando
los resultados de variable compleja.
Z R Z Z
dx dz dz
+ =
−R x2 + 1 γR z2 + 1 γ z 2+1
Z Z
i dz i dz
= −
γ 2(z + i) γ 2(z − i)
1
= 2πi 0 − i = π
2
5. EVALUACIÓN DE INTEGRALES 119
2
2 γR es2 el semicı́rculo superior. γR es tal que |z| = R y como z + 1 ≥
donde
z − 1 = R − 1 se tiene
Z Z
dz |dz| πR R→∞
≤ = 2 → 0
z 2 + 1 R 2−1 R −1
γR γR
ası́ que
Z ∞
dx
=π
−∞ x2 + 1
Ejemplo 7.48. Evaluar
Z ∞ Z
x2 dx 1 ∞ x2 dx
=
0 (x2 + 9)(x2 + 4)2 2 −∞ (x2 + 9)(x2 + 4)2
Consideremos a la función
z2
f (z) =
(z 2 + 9)(z 2 + 4)2
Como vimos en el ejercicio 7.41, esta función tiene 2 polos simples en ±3i y dos
3i 3i 13i
dobles en ±2i, cuyos residuos estan dado por K3i = 50 , K−3i = − 50 , K2i = − 200
13i
y K−2i = 200 . Entonces la integral sobre el contorno se toma como en el ejemplo
anterior, será
Z R Z
dz dz
2 + 9)(z 2 + 4)2
+ 2 + 9)(z 2 + 4)2
−R (z γR (z
Z
dz
= 2 2 2
γ (z + 9)(z + 4)
3 i 13 i π
= 2πi(K1 + K3 ) = 2πi − =
50 200 100
Usando los mismos argumentos del ejemplo anterior, se llega a
Z ∞
dx π
2 2 2
=
0 (x + 9)(x + 4) 200
En general, si f (z) es de la forma
p(z)
f (z) =
q(z)
donde p(z) y q(z) son ambas analı́ticas, pero f (z) tiene un polo simple en z = z0 ,
con f (z0 ) 6= 0, esto implica que q(z0 ) = 0, pero q ′ (z0 ) 6= 0. Podemos escribir.
p(z0 ) + p′ (z0 )(z − z0 ) + p′′ (z0 )(z ′ − z0 )2 /2! + · · ·
f (z) =
q(z0 ) + q ′ (z0 )(z − z0 ) + q ′′ (z0 )(z − z0 )2 /2! + · · ·
de donde se sigue que
p(z0 ) + p′ (z0 )(z − z0 ) + · · ·
F (z) = (z − z0 )f (z) =
q ′ (z0 ) + q ′′ (z0 )(z − z0 )/2! + · · ·
es analı́tica. Del polo simple podemos calcular el residuo. Si observamos que
p(z0 )
b1 = lim F (z) = lim (z − z0 )f (z) =
z→z0 z→z0 q ′ (z0 )
120 7. SERIES
R∞ x2 dx 13
2) −∞ (x2 +4x+13)2 = 54 π
R∞ dx
3) −∞ 1+x6
= 32 π
R∞ x2 dx
4) −∞ 1+x6
= 31 π
R∞ sin(x) dx
5) −∞ 1+x6 =0
donde hemos usado la simetria de sin(θ) entre 0 ≤ θ ≤ π/2. Pero en este intervalo,
la función sin(θ) ≥ 2 θ/π, entonces podemos escribir:
Z π/2
θ
In ≤ 2 M R exp −2 hR dθ
0 π
e−hR − 1
(7.5) = −M π → 0
h R→∞
Consideremos la integral
Z
exp (izT )
dz
γ k2 − z 2
Para T > 0, γ es la trayectoria de la figura 4. Se tiene que
Z Z Z
exp (izT ) 1 exp (izT ) 1 exp (izT )
dz = dz − dz
γ k2 − z 2 2k γ z + k 2k γ z − k
1
= [exp (−ikT ) − exp (ikT )]
2k
i
= − sin (kT )
k
122 7. SERIES
Para T < 0, tomemos la misma trayectoria pero ahora con el simicirculo hacia
abajo, para que la integral (7.5) se integre de 0 a −π/2. Solo que en este caso los
polos quedan fuera de la trayectoria y por tanto la integral se anula, por lo que
Z ∞ i
exp (ixT ) − k sin (kT ) para T > 0
dx =
−∞ k 2 − x2 0 para T < 0
Ejemplo 7.53. Vamos a evaluar la integral
Z ∞
exp (i (xR + yT ))
dx dy
−∞ y − ix0 x2
Podemos llevar a cabo la integración parte por parte. Primero integremos con re-
specto a y. La integral que vamos a resolver se ve entonces como:
Z ∞ Z ∞
exp (iyT )
exp (ixR) dx dy
−∞ −∞ y − z0
donde z0 = ix0 x2 . Observemos que esta integral se puede llevar a cabo usando una
trayectoria como la del ejercicio anterior, donde solo se tiene el polo y = z0 . Ahora
bien, si T > 0, la trayectoria cubre el polo z0 , pero si T < 0 no lo cubre. Por lo
que se obtiene que
Z ∞ Z ∞ Z ∞
exp (iyT )
exp (ixR) dx dy = exp ixR − x0 x2 T dx
−∞ −∞ y − z0 −∞
para T > 0, y la integral es cero para T < 0. Queda resolver la integral anterior,
llamada la integral de Gauss. Para evaluarla, primero completemos el cuadrado
en la exponencial, se obtiene
Z ∞
2 2
e−R /4b e−bz dz
−∞
R∞ ex
2) −∞ (x2 +1)5
eiT x dx
R∞ 3x3 −x2 +5x+1 iT x
3) −∞ (x2 −1)2
e dx
R∞ cos(x) iT x
4) −∞ (x−1)5 e dx
5.3. Integrales de la forma.
Z 2π
F (sin (θ) , cos (θ))dθ
0
Para este tipo de integrales, la transformación
z = eiθ , dz = izdθ es siempre
1 −1 1
muy útil, ya que sin (θ) = 2i z − z y cos (θ) = 2i z − z −1 . Este método es
genérico y nosotros lo vamos a mostrar con un ejemplo.
Ejemplo 7.55. Vamos a evaluar la integral
Z 2π
dθ
(7.6) I= 5
0 4 + sin (θ)
efectuando la transfomación para este timpo de integrales, se obtiene:
Z
dz
I = 5 1
−1 )
γ iz 4 + 2i (z − z
Z
4dz
= 2 + 5iz − 2
γ 2z
Z
2dz
=
γ (z + 2i)(z + 21 i)
8
= π
3
donde la integración se hizo a lo largo de la curva γ dada por |z| = 1, como en la
figura 5.
Ejercicio
R 2π 7.56. Evalúen las integrales
1.- 0 (cos(θ) sin(θ))2 dθ
R 2π
2.- 0
cos(θ) sin2 (θ) dθ
R 2π dθ
3.- 0 1+2 sin2 (θ)
R 2π dθ
4.- 0 3 cos2 (θ)+2 sin2 (θ)
R 2π i cos(θ)dθ R 2π sin(θ)dθ
5.- 0 (cos2 (θ)+2 i sin(θ) cos(θ)−sin2 (θ)+1)3
− 0 (cos2 (θ)+2 i sin(θ) cos(θ)−sin2 (θ)+1)3
124 7. SERIES
En este capı́tulo veremos brevemente una parte de la geometrı́a del plano com-
plejo. Nos concentraremos únicamente a dos aspectos, las transformaciones con-
formes y las superficies de Riemann. Vamos a iniciar con las transformaciones
conformes.
1. Transformaciones Conformes
Las transformaciones conformes se llevan a cabo para poder simplificar un
problema. Son muy útiles en la solución de ecuaciones diferenciales, para resolver
problemas de fı́sica, quı́mica, ingenierı́a y matemáticas en general, entre otros. Su
definición es la siguiente:
Definición 8.1. Una transformación conforme en una región R ⊂ C es
una función Z : C → C tal que Z es analı́tica y
dZ
6= 0
dz
en R.
Lo interesante de la función Z es que transforma una región del dominio de
ella, en otro región diferente, es decir, a cada punto z = x + iy del plano complejo
(x, y), le asocia otro punto Z = u(x, y) + iv(x, y) del plano complejo (u, v). Para
ver esto, vamos algunos ejemplos.
Ejemplo 8.2. Traslaciones. El ejmplo más simple es sin duda una traslación
conforme. Sea Z(z) = Z(x, y) = z + z0 = x + x0 + i(y + y0 ). Entonces, un punto
x + iy en el plano complejo, se ve como otro punto x + x0 + i(y + y0 ) en el plano
conforme, como en la figura 1
el cual es un cı́rculo centrado en (0, −1/(2c)), de radio 1/(2c). Es decir, una recta
paralela al eje x, bajo una inversión es un cı́rculo. En la figura 3 se puede ver el
cı́rculo u2 + (v + 1/2)2 = 1/4, el cual es la inversión de la recta y = 1. En general,
una recta y = mx + b se verı́a tras una inversión como:
v = −m u − b(u2 + v 2 )
Esta última expresión se puede reescribir como
2
1 m 2 1 + m2
(8.2) v+ + u+ =
2b 2b 4b2
para b√6= 0, el cual es claramente un cı́rculo con centro en −1/(2b)(m, 1) y con
radio 1 + m2 /(2b), en el plano (u, v). En la figura 3 se puede ver el cı́rculo
(u + 1/2)2 + (v + 1/2)2 = 1/2, el cual es la inversión de la recta y = x + 1.
Concluimos que la inversión de una recta que pasa por el origen es siempre otra
recta con pendiente invertida o un cı́rculo, si la recta no pasa por el origen.
evidente en el ejemplo 8.4 de las inversiones conformes. Sin embargo, sean dos
rectas que se cruzan en el plano (x, y), por ejemplo y = m1 x + b1 y y = m2 x + b2
y supongamos que se cruzan en el punto (x0 , y0 ). En este punto se tiene que:
b2 − b1
x0 =
m1 − m2
m1 b 2 − m2 b 1
(8.3) y0 =
m1 − m2
Tomemos la inversión conforme de las rectas como en el ejemplo 8.4. Con estos
valores, también podemos escribir el punto de cruce (u0 , v0 ) de los cı́rculos corre-
spondientes en el plano (u, v), usando la fórmula (8.1) y los valores (8.3). En el
plano (u, v), la pendiente M de la recta tangente en cualquier punto (u, v) de los
cı́culos correspondietes a las rectas en (x, y) se obtiene derivando (8.2), es decir:
m
dv u+ 2b
(8.4) M= =− 1
du v+ 2b
Por supuesto el ángulo φ depende de z, pero para un punto fijo z0 éste ángulo es
una constante. En su forma polar, para que dos números complejos sean iguales, su
modulos y sus argumentos deben coincidir. Entonces, los argumentos de la ecuación
anterior son:
∆Z ∆Z
φ = arg lim = lim arg
∆z→0 ∆z ∆z→0 ∆z
= lim arg ∆Z − lim arg ∆z
∆z→0 ∆z→0
= θ−α
como se muestra en la figura 4. Supongamos que tenemos las dos curvas, C1 y C2
en el plano (x, y) y se cruzan en el punto z0 = x0 + iy0 . En el plano (u, v) estas
curvas son C1′ y C2′ . Para la curva 1 se tiene que φ = θ1 − α1 y para la curva 2
φ = θ2 − α2 , de tal forma que:
θ1 − θ2 = α1 − α2
2. Superficies de Riemann
En la sección anterior vimos como la función f : C → C, tal que f (z) = z 2
transforma puntos de un plano complejo a otro. En su forma polar, esta función
también se puede escribir como f (z = reiθ ) = r2 e2iθ . En particular, podemos
tomar un cı́rculo en el dominio de la función y ver como este se mapea en el
codominio. Claramente, una vuelta en el dominio implicará una doble vuelta en el
cı́rculo del codominio, alrededor de un cı́rculo que tiene el cuadrado del radio del
correspondiente en el dominio. En la sección 4 vimos que el inverso de esta función
2. SUPERFICIES DE RIEMANN 131
√
Figure 6. La transformación conforme Z = z, recorre solo la
mitad del plano (u, v).
el eje positivo de los reales ℜ+ con otro eje positivo de la parte real de otro plano
complejo, como se ve en la figura 7, de tal forma que un cı́rculo iniciando en el
punto 0, continúa hasta el punto 1 de ese plano, después sigue en el punto 1 del otro
plano y sigue hasta el punto 2 de ese plano y de ahi pasa al punto 2 del primer plano
complejo, hasta completar una vuelta en los dos plano. A estos dos planos juntos
se le llama √una superficie de Riemannm R, de tal forma que la función R → C,
con f (z) = z ahora es una función univaluada y biyectiva.
Ejemplo 8.11. Otro ejemplo similar es la función f : C → C donde f (z) = z 1/3 .
En este caso dos planos identificados como en el caso anterior no serán suficiente.
Para esta función se necesitan tres planos, como los de la figura 8. En esta superficie
de Riemann iniciamos en el punto 0, continuamos hasta e punto 1 de este plano
y de ahı́ pasamos al punto 1 del segundo plano, seguimos en este plano hasta el
punto dos y continuamos en el punto dos del tercer plano hasta al punto tres, que
nos conduce de nuevo al punto 3 del primer plano complejo. Si el dominio de
la función f es esta superficie de Riemann R, es decir, f : R → C, la función
f (z) = z 1/3 es biyectiva.
Ejemplo 8.12. Finalmente vamos a anlizar la función ln(z). En este caso
tenemos que ln(reiθ ) = ln(r) + iθ. Esta función (relación) tiene un número infinito
de puntos de multivaluación, ya que todos los valores de θ = θ + 2kπ, con k =
0, ±1, ±2, · · · , corresponden al mismo punto z = reiθ = reiθ+i2kπ . Para este caso
132 8. GEOMETRIA DEL PLANO COMPLEJO
ANALISIS
CHAPTER 9
1. Estructuras sobre ℜ y ℜn
En la parte de Álgebra estudiamos las estructuras algebráicas sobre ℜ y ℜn .
En particular, sabemos que ℜ es un campo ordenado donde la estructura algebraica
de campo nos da las reglas de cálculo de la adición, substracción, multiplicación
y división, las cuales se relacionan con el orden natural ≤ de los números reales.
Este orden es tanto un orden parcial como también lineal, y proporciona conceptos
como los de máximo, mı́nimo, cotas, supremo e infimo de subconjuntos, conceptos
de suma importancia en el análisis. También vimos que ℜn es un espacio vectorial
sobre ℜ , cuyas operaciones (adición entre vectores y multiplicación de escalares
con vectores) se basan enteramente en operaciones del campo ℜ. Conocemos con-
ceptos como subespacio vectorial, independencia lineal, cerradura lineal, base, di-
mensión, y homomorfismos (mapeos lineales) entre espacios vectoriales, los cuales
debemos tener presentes para poder estudiar los temas del análisis presentados en
este capı́tulo. Sin embargo, ℜ y ℜn tienen más estructuras, las cuales, normalmente
en un contexto práctico o de aplicación, supondremos nosotros aquı́ que el lector ha
conocido ya antes. Las siguientes secciones dentro de esta introducción recuerdan
estos conceptos dentro de nuestro conocimiento y lo ordena en un contexto nuevo.
1.1. ℜn como espacio vectorial normado. Recordamos que ℜ es un campo
ordenado y supondremos en este texto que la definición formal del valor absoluto
es un concepto muy sencillo y conocido.
Definición 9.1. Para x ∈ ℜ, se define el valor absoluto de x por |x| =
max{x, −x}.
Vemos que |x| es un numero real no negativo, pues obviamente
x, si x ≥ 0,
|x| = max{x, −x} = ,
−x, si x < 0
ası́ que, |·| es un mapeo de ℜ en ℜ+ . Observamos que x ∈ ℜ es un punto sobre
la lı́nea real, o, equivalentemente, un vector sobre la lı́nea real, apuntando desde
el origen 0 hacia el punto x. Es evidente que |x| es la longitud de este vector o
la distancia (igual a la longitud del segmento de lı́nea) entre 0 y x. Aplicando la
definición del valor absoluto y propiedades del máximo, es fácil deducir las siguientes
propiedades:
Lema 9.2. Para x, y ∈ ℜ:
1) |x| = 0 sı́ y sólo sı́ x = 0.
2) |−x| = |x|
3) |xy| = |x| |y|
4) |x + y| ≤ |x| + |y|
135
136 9. ESPACIOS MÉTRICOS Y UNITARIOS
5) − |x| ≤ x ≤ |x|
Comentario 9.3. Aplicando inducción matemática, la propiedad 4) implica
que
|x1 + x2 + · · · + xn | ≤ |x1 | + |x2 | + · · · + |xn | ,
para x1 , x2 , · · · , xn ∈ ℜ.
En el plano euclideano ℜ2 , comunmente hemos medido la longitud de un vector
x = (x1 , x2 ) ∈ ℜ2 como
q p
2 2
kxk2 = |x1 | + |x2 | = (x1 )2 + (x2 )2 ,
lo cual, según el teorema de Pitágoras, es la longitud del segmento de lı́nea entre
el orı́gen 0 = (0, 0) del plano Euclidiana y el punto x, es decir, es la longitud del
vector x = (x1 , x2 ), ver figura 1
n
X
(x, y) = xi yi , x = (x1 , x2 , · · · , xn ), y = (y1 , y2 , · · · , yn ) ∈ ℜn .
i=1
n
Demostraci Pón
n
9.9. i) Para P P seanPx, y, z ∈ ℜ , α ∈ ℜ;
el primer argumento,
(x+y, z) = i=1 (xi +yi )zi = (xi zi +y Pi zi ) = xi zi +P yi zi = (x, z)+(y, z),
de la misma forma se tiene que (αx, z) = ni=1 αxi zi = α ni=1 xi zi = α(x, z).
La demostración para el segundo argumento es análoga, se usa la distributividad
del grupo (ℜ, +) .
ii) es obvio. P
n
iii) (x, x) = i=1 x2i evidentemente es no negativo, y es igual a 0 sı́ y sólo sı́
xi = 0 para todo i (puesto que x2i ≥ 0), lo cual es equivalente a xi = 0 para todo i,
2
2. Espacios Métricos.
La noción de distancia en las ciencias natuales y la ingenierı́a es de suma impor-
tancia. Es por eso que definir distancias entre puntos o elementos de un conjunto
es de mucha utilidad para poder modelar objetos y espacios naturales. En esta
sección estudiaremos conjuntos en donde se define una distancia o métrica. Este
concepto esta dada en la siguiente definición.
Definición 9.12. Sea X conjunto y ρ : X × X ⇀ ℜ mapeo, tal que
1) ρ (x, y) ≥ 0, ρ (x, y) = 0, sı́ y sólo sı́ x = y, i.e. positiva definida
2) ρ (x, y) = ρ (y, x) , es simétrica
3) ρ (x, z) ≤ ρ (x, y) + ρ (y, z) se cumple la propiedad del triangulo.
Al par (X, ρ) se le llama espacio métrico y a la función ρ se le llama dis-
tancia o métrica.
Observemos que X no necesariamente tiene algún tipo de estructura, es sim-
plemente un conjunto. De hecho, todos los procesos matemáticos emanados de la
definición aterior, como sumas y comparaciones, etc., se llevan a cabo en el campo
ordenado de los reales (ℜ, +, ·, ≤). Veamos algunos ejemplos.
Ejemplo 9.13. Sea X conjunto y
0 si x=y
ρT (x, y) =
1 si x 6= y
La distancia entre dos puntos es siempre 1. A esta distancia se le llama dis-
tancia discreta.
2. ESPACIOS MÉTRICOS. 141
Ejemplo 9.22. Sea (ℜn , ρ), el espacio real de dimensión n con su distancia
canónica. Las bolas serán verdaderas “pelotas”, como las conocemos de nuestra
experiencia. Por ejemplo, en (ℜ, ρ) las bolas estan definidas como
Br (x) = {y ∈ ℜ | ρ (x, y) = |x − y| < r}
= (x − r, x + r)
que es el intervalo cerrado entre x − r y x + r. En (ℜn , ρ) las bolas serán
v
u n
uX 2
Br (x) = y ∈ ℜ2 | ρ (x, y) = t (li − mi ) < r
i=1
es decir, todos los puntos metidos dentro de una esfera de radio r con centro en x.
Ejemplo 9.23. Sea (Pn ([0, 1]) , ρ), el espacio de polinomios definidos entre
[0, 1] con la distancia canónica de C ([a, b]). Las bolas estan definidas como
Br (f ) = {g ∈ Pn ([0, 1]) | ρ (f, g) < r}.
Sea f (x) = x y tomemos n = 1 por simplicidad. Entonces
Z 1 1/2
2
ρ (f, g) = (t − (a0 + a1 t)) dt
0
!1/2
1 (1 − a0 − a1 )3 + a0 3
=
3 1 − a1
Ejemplo 9.24. Sea (Fp , ρ), el espacio de las funciones periódicas pares definidos
entre [0, 2π] con su distancia canónica. Sea f (x) = cos(2x), entonces
Z 2π 1/2
2
ρ (f, g) = (cos(2t) − (a0 + a1 cos(t) + a2 cos(2t) + · · · )) dt
0
1/2
2
= (2a20 + (a2 − 1) + a21 + · · · )π
Ejemplo 9.38. Los números irracionales son densos en los números reales. Es
por eso que podemos aproximar los números irracionales con algún número racional.
Ejercicio 9.39. Demuestra el siguiente lema:
Si f : ℜ −→ ℜ es biyección, entonces d (x, y) =| f (x) − f (y) | es una métrica
sobre ℜ.
3. ESPACIOS NORMADOS 145
3. Espacios Normados
Regresemos a los espacios vectoriales en donde vamos a introducir un nuevo
concepto llamado la norma, que de una forma intuitiva no dice el tamaño de un
vector. Este concepto lo aprendimos en ℜn y aquı́ lo vamos a definir para cualquier
espacio vectorial, es decir, este concepto solo vale en espacios vectoriales. Esto lo
hacemos en la siguiente definición.
Definición 9.40. Sea V espacio vectorial sobre el campo K y N : V ⇀ K un
mapeo, tal que para toda x ∈ V y α ∈ K se tiene:
1) N (x) ≥ 0 para toda, x ∈ V , N (x) = 0 sı́ y sólo sı́ x = 0.
2) N (αx) = |α|N (x),
3) N (x + y) ≤ N (x) + N (y)
A N se le llama norma de V y a (V, N ) se le llama espacio normado.
Notación 9.41. A la norma la vamos a denotar como N =k · k
La relación entre los espacios normados y los espacios métricos es que todo
espacio normado es métrico, pero no alrevés. Este resultado se puede ver en la
siguiente proposición.
Proposición 9.42. Todo espacio normado es métrico
Demostración 9.43. Sea (V, N ) un espacio normado. Tomemos ρ (x, y) =
N (x − y), para todo x, y ∈ V, espacio vectorial. Entonces ρ (x, y) es una distancia,
ya que
1) ρ (x, y) = N (x − y) ≥ 0 y ρ (x, y) = 0 sı́ y sólo sı́ N (x − y) = 0 o sea sı́ y
sólo sı́ x = y.
2) ρ (x, y) = N (x − y) =| −1 | N (y − x) = ρ (y, x)
3) ρ (x, z) = N (x − z) = N (x − y + y − z) ≤ N (x − y)+N (y − z) = ρ (x, y)+
ρ (y, z).
Entonces si definimos un espacio normado, automaticamente hemos definido
un espacio métrico pero no alrevés. Veamos un ejemplo donde un espacio métrico
no puede generar una norma.
Ejemplo 9.44. Sea (ℜ, dln ), con dln (x, y) = |ln (x + 1) − ln (y + 1)|. Veamos
que esta distancia genera una métrica.
i) dln (x, y) ≥ 0, ya que |ln (x + 1) − ln (y + 1)| ≥ 0
ii) dln (x, y) = dln (y, x)
iii)
dln (x, z) = |ln (x + 1) − ln (z + 1)|
= |ln (x + 1) − ln (y + 1) + ln (y + 1) − ln (z + 1)|
≤ |ln (x + 1) − ln (y + 1)| + |ln (y + 1) − ln (z + 1)|
= dln (x, y) + dln (y, z)
Pero esta distancia no genera una norma. Uno esperarı́a que la norma, el tamaño
del vector, debiere estar dado por k x kln = dln (x, 0) = |ln (x + 1)|. Sin embargo
esta no es una norma, ya que no cumple con el inciso 2) de la definición 9.40, por
ejemplo, k 3 · 2 kln =k 6 kln = ln (7) 6= |3| k 2 kln = 3 ln (3).
En los espacios vectoriale el concepto de continuidad es un concepto que de-
pende esencialmente de la existencia de una distancia o de una norma. Las defini-
ciones de continuidad y de lı́mite de una sucesión se puede hacer utilizando una
146 9. ESPACIOS MÉTRICOS Y UNITARIOS
norma o una distancia. En lo que sigue, usaremos el sı́mbolo ρ(x, y) para desig-
nar la norma N (x − y) o la distancia ρ(x, y) en un espacio métrico o normado y
designaremos indistintamente los elementos de estos espacios por letras x, y, z, etc.
aunque sean vectores, y diremos explicitamente cuando hay una diferencia.
Como ya hemos definido distancia en un conjunto, ahora es posible definir el
concepto de continuidad. Este concepto consiste en el hecho de que la distancia de
dos imagenes de una función es tan pequeña como se quiera (respecto a la distancia
definida en el conjunto) para dos puntos tan cercanos como se quiera, la definición
formal es como sigue.
Definición 9.45. Sean (X, ρ) y (X ′ , ρ′ ) espacios métricos o normados. Una
función f : X ⇀ X ′ se dice continua en x ∈ X, si para toda ǫ > 0 existe
un δ = δ (ǫ, x) tal que si ρ (x, y) < δ esto implica que ρ′ (f (x) , f (y)) < ǫ. Si f
es continua para toda x ∈ A ⊂ X, se dice que f es continua en A. Si para toda
x ∈ A ⊂ X se tiene que δ = δ (ǫ), se dice que f es uniformemente continua en A.
Ejemplo 9.46. Sea (ℜn , ρ) el espacio real con su métrica canónica. Entonces la
definición de continuidad es la definición tradicional para funciones f : ℜn ⇀ ℜm .
Ejemplo 9.47. Sea (X, ρT ) espacio métrico y sea f : X ⇀ X. Observemos
que no existe una δ tal que para ǫ > 0, digamos ǫ = 0.5 tal que ρT (x, y) = 1 < δ,
implica ρ (f (x) , f (y)) < ǫ, ya que ρ (f (x) , f (y)) = 1. Es decir, con esta métrica,
ninguna función es continua.
Ejercicio 9.48. Sea (ℜ, ρp ). Vean si la función f : ℜ ⇀ ℜ, x → f (x) = x es
continua.
Ahora introducimos el concepto de sucesión. Las sucesiones serán de gran
utilidad para demostrar algunos teoremas, su definición es:
Definición 9.49. Una sucesión es un mapeo de los enteros positivos a un
conjunto X, es decir f : Z + → X, tal que i → f (i) = xi .
Ejemplo 9.50. Sea X = ℜ Entonces f : Z + → ℜ con n → xn = n2 , 1/n,
sin(n), etc. son sucesiónes en los reales.
Las sucesiones más interesantes en un espacio métrico o normado son las suce-
siones de Cauchy, estas son sucesiones en las que los elementos de la sucesión estan
tan cerca como se quiera unos de otros, después de algún término de la sucesión
dado. Se definen como sigue.
Definición 9.51. Sea (xi ) para i ∈ Z + una sucesión en (X, ρ) . Se dice que
(xi ) es de Cauchy si para toda ǫ > 0 existe un número entero positivo N ∈ Z +
tal que ρ (xk , xl ) < ǫ si k, l ≥ N.
Ejemplo 9.52. La sucesión en (ℜ, ρ), xn = 1/n es una sucesión de Cauchy,
ya que ρ(xk , xl ) = |1/k − 1/l| < ǫ para algún numero ǫ, siempre que k y l sean
suficientemente grandes.
Ejemplo 9.53. En un espacio (X, ρT ) salvo la sucesión constante, no hay
sucesiones de Cauchy, ya que ρT (xk , xl ) = 1 siempre, los elementos de la sucesión
nunca estan suficientemente cerca.
Ejercicio 9.54. Sea la sucesión xn = 1/n en (ℜ, ρp ) . Vean si esta sucesión es
de Cauchy.
3. ESPACIOS NORMADOS 147
Ejemplo 9.57. La sucesión en (ℜ, ρ), dada por xn = 1/n es una sucesión
convergente, ya que ρ(xk , 0) = |1/k − 0| < ǫ para algún numero ǫ, siempre que k y
l sean suficientemente grandes.
Ejercicio 9.58. Usando la definición del lı́mite, demuestren que
3n
a) lim n+1 =3
n→∞
1
b) lim 2 = 0.
n→∞ n +1
n
Ejemplo 9.61. La sucesión en (ℜ, ρ) , dada por xn = (1 + 1/n) es también
n
una sucesión convergente y converge a (1 + 1/n) → e.
n
Ejemplo 9.62. Sin embargo, la sucesión en (Q, ρ) , dada por xn = (1 + 1/n)
n
no es una sucesión convergente, ya que (1 + 1/n) → e y e ∈/ Q. Esta sucesión no
es convergente pero si es de Cauchy.
n
Ejercicio 9.63. Muestren que la sucesión en (Q, ρ) , dada por xn = (1 + 1/n)
es de Cauchy.
Ejercicio 9.64. Den ejemplos de:
a) Dos sucesiones divergentes (xn ), (yn ) tales que la sucesión (xn + yn ) es
convergente.
b) Sucesiones divergentes (xn ), (yn ) tales que la sucesión (xn · yn ) es conver-
gente.
c) Una sucesión acotada que no es convergente.
Ejercicio 9.65. Establecer la convergencia (entonces determinar lı́mites) o
divergencia de las siguientes sucesiones:
2
a) xn = 3n +5
n2 +1 ,
4n
b) xn = n+1 ,
(−1)n n
c) xn = n+3 .
Como vemos, la sucesión xn = 1/n es de Cauchy y es convergente. Existe una
conección entre ambos conceptos. Para esto se tiene la siguiente proposición.
Proposición 9.66. En un espacio métrico o normado, toda sucesión conver-
gente es de Cauchy.
Demostración 9.67. Sea xi sucesión convergente a x en (X, ρ) . Entonces
xi ⇀ x implica que para toda ǫ > 0 existe N = N (x, ǫ) ∈ Z + tal que ρ (xn , x) < ǫ/2
si n ≥ N , por tanto ρ (xn , xm ) ≤ ρ (xn , x) + ρ (xm , x) < ǫ si n, m ≥ N.
Por supuesto, como ya vimos con un ejemplo, lo contrario de esta proposición
no siempre es verdad. Las sucesiones de Cauchy no siempre son convergentes. Los
espacios en los que toda sucesión de Cauchy converge son muy especiales y tienen
un nombre particular, se tiene la siguiente definición.
Definición 9.68. Un espacio métrico o normado es completo si toda
sucesion de Cauchy converge.
Ejemplo 9.69. Se puede mostrar que los números reales con su norma canónica
es un espacio completo, pero como ya vimos, los racionales no es un espacio com-
pleto. Claro, les faltan los irracionales para serlo.
De hecho, cualesquier norma sobre ℜn generan el mismo comportamiento de
convergencia sobre sucesiones, implicando que ℜn con cualquier norma es completo.
Sin embargo, esto no es valido si trabajamos en espacios métricos, vamos a ver uno
ejemplo:
Ejemplo 9.70. Considerese (ℜ, dE ), dE (x, y) = |x − y|, y la sucesión xn =
n, n ∈ N . Claro que lim xn = ∞, es decir, (xn ) no converge en ℜ con respecto a
n→∞
dE , también es claro que (xn ) no es de Cauchy en (ℜ, dE ), debido a que |xn − xm | ≥
1 para todo n, m ∈ N , m 6= n. Ahora tomemos la distancia en ℜ
da (x, y) = |arctan(x) − arctan(y)|
3. ESPACIOS NORMADOS 149
sin embargo, aquı́ igualmente vale que lim xn = ∞, es decir, (xn ) es una sucesión
n→∞
de Cauchy que no converge. Por lo tanto, (ℜ, da ) no es completo, es decir, los reales
no son un espacio completo con esta distancia. Por cierto, observese que este da
no genera una norma sobre ℜ.
Lo que nos dice el ejemplo anterior es que un conjunto puede ser completo con
una distancia y no serlo con otra, incluso esto puede suceder en ℜn . Sin embargo,
en ℜn todas las normas nos dicen que ℜn es completo.
En ocaciones hay espacios en donde las métricas se conservan o hay funciones
en un espacio que conseva la métrica. A estas funciones que conservan las métricas
se les conoce como isometrı́as. Veamos su definición formal.
Definición 9.71. Sean (X, ρ) y (X ′ , ρ′ ) espacios métricos y f : X ⇀ X ′
funcion. f es una isometrı́a si ρ′ (f (x) , f (y)) = ρ (x, y) .
Las isometrias son funciones muy especiales, son inyectivas y uniformemente
continuas, se tiene para ello la siguiente proposición.
Proposición 9.72. Sea f : X ⇀ X ′ isometrı́a. Se tiene
i) f es inyectiva
ii) f es uniformemente continua
Demostración 9.73. i) Sean x, y, ∈ X con x 6= y, entonces 0 6= ρ (x, y) =
ρ′ (f (x) , f (y)) , es decir, f (x) 6= f (y) .
ii) Sea ǫ > 0 y x ∈ X. ρ (x, y) < ǫ implica que ρ′ (f (x) , f (y)) < ǫ = δ.
Es más, la composición de isometrı́as, es isometrı́a. Es por eso que con la com-
posición de funciones se puede defirnir un producto. Primero veamos la siguiente
proposición.
Proposición 9.74. La composición de isometrı́as es una isometrı́a.
Demostración 9.75. Sean (X, ρ) , (Y, ρ′ ) , (Z, ρ′′ ) espacios métricos y f : X ⇀
Y y g : Y ⇀ Z isometrı́as. Entonces
ρ (x, y) = ρ′ (f (x, ) f (y)) = ρ′′ (g(f (x)) , g (f (y))
= ρ′′ (g ◦ f (x) , g ◦ f (y))
Con este producto se define entonces un grupo con el conjunto de isometrı́as
sobre. Veamos esto en la siguiente proposición.
Proposición 9.76. Sea (X, ρ) espacio métrico y sea el par
Iso (X, ρ) = ({f : X ⇀ X | f es isometrı́a sobre } , ◦)
donde ◦ es la composición de funciones. Iso (X, ρ) es un grupo, llamado grupo de
isometrı́as del espacio métrico (X, ρ) .
150 9. ESPACIOS MÉTRICOS Y UNITARIOS
4. Espacios Euclideanos.
En esta sección vamos a estudiar espacios vectoriales con una estructura muy
particular. Se trata de espacios vectoriales en donde se ha definido una distancia ó
una norma, es decir, el tamaño de un vector. Estas estructuras son muy comunes en
ciencias naturales y muy útiles para definir movimiento en estos conjuntos. Primero
introducimos el concepto de producto escalar.
Definición 9.80. Sea V un espacio vectorial real y B : V × V ⇀ ℜ para toda
x, y ∈ V una función bilineal tal que
1) B(x, y) = B(y, x) , i.e. B es simétrica
2) B (x, x) ≥ 0, i.e. B positiva definida
3) B (x, x) = 0, sı́ y sólo sı́ x = 0.
A B se le llama un producto escalar o producto interno en V .
Con esta definición de producto en espacios vectoriales podemos definir el con-
cepto de espacio euclideano
4. ESPACIOS EUCLIDEANOS. 151
Ejemplo 9.95. Sea (Pn , ·), con el producto interno · canónico. Hagamos lo
mismo que para (ℜn , (·, ·)). Se tiene que x · y = a0 b0 + a1 b1 + · · · + an bn , para
+a1 x+, · · · , +an xn y y = b0 +b1 x+, · · · , +bn xn . Entonces
x, y ∈ Pn , donde x = a0q
2 2 2
ρ (x, y) = N (x − y) = (a0 − b0 ) + (a1 − b1 ) + · · · + (an − bn ) . La cual es la
métrica canónica para Pn .
Ejemplo 9.96. Sea C ([a, b]) el conjunto de las funciones continuas en [a, b] .
De nuevo podemos construir una métrica en el espacio de funciones como
ρ (f, g) = N (f − g)
= (f − g, f − g)
Z b !1/2
2
= (f (x) − g (x)) dx , f, g ∈ C ([a, b])
a
√
√ Ejercicio 9.98. Demostrar que ρ (sin(ix), cos(jx)) = 2π y ρ (sin(ix), sin(jx)) =
2π para i√6= j. Es decir, la distancia entre los vectores base de las funciones pe-
riodicas es 2π.
Ejemplo 9.99. Sea L el espacio de Lorentz.q Entonces se puede construir la
2 2
métrica ρ (x, y) = NL (x − y) =k x − y k= (x1 − y1 ) − (x2 − y2 ) . Observen
que se pueden tener dos vectores diferentes, pero separados una distancia 0.
Ejercicio 9.100. Demuestre lo siguiente:pSi V es un espacio vectorial sobre
ℜ con producto interno (·, ·) , entonces k x k= (x, x) define una norma sobre V .
Nota: aplicar la desigualdad de Schwarz: | (x, y) |≤k x k · k y k .
5. Espacios Unitarios
En esta sección vamos a generalizar los espacios Euclidianos al caso en el que
el campo del espacio vectorial no sean los números reales, sino el campo de los
complejos. Como veremos, existen varias diferencias interesantes que hacen a estos
espacios sobre los complejos importantes, sobre todo en la mecánica cuántica, que
es importante en fı́sica, quı́mica, ingenierı́a, etc. Su definición es como sigue.
Definición 9.101. Sea E un espacio vectorial sobre C y x, y ∈ E. Sea B :
E × E → C un mapeo lineal en el primer argumento tal que
1) B (x, y) = B (y, x) es antisimétrico
2) B (x, x) ≥ 0 es real
3) B (x, x) = 0 sı́ y sólo sı́ x = 0
154 9. ESPACIOS MÉTRICOS Y UNITARIOS
Ejemplo 9.108. Sea el espacio (ℜn , (·, ·)). Los vectores {ei }i=1,··· ,n definidos
por ei = (0, · · · , 1, · · · , 0), con el 1 en la i − esima posición, son todos perpendicu-
lares entre si.
Ejemplo 9.109. Sea (Pn , ·), con su producto interno canónico. Entonces los
polinomios 1, x, · · · , xn son todos perpendiculares entre si.
Ejemplo 9.110. Sea Fp ([0, 2π]) el conjunto de la funciones periodicas en [0, 2π] .
Entonces las funciones cos(t), cos(2t), · · · sin(t), sin(2t), · · · son perpendiculares
entre si. Esto se ve, si hacemos
Z 2π
(cos(it), cos(jt)) = cos(it) cos(jt)dt
0
= πδij
donde δij es la delta de Kroneker.
Ejercicio 9.111. Demostrar que (cos(it), cos(jt)) = πδij , lo mismo que (sin(it), sin(jt)) =
πδij y (sin(it), cos(jt)) = 0.
Estas definiciones tienen consecuencias inmediatas, veamos ahora dos de ellas:
Proposición 9.112. .
1) H ⊥ es subespacio de E
⊥
2) H ⊆ H ⊥
Ejercicio 9.113. Demostrar la proposición anterior
En lo que sigue vamos a introducir uno de los conceptos más importantes con
el que vamos a trabajar en este capı́tulo y el de ecuaciones diferenciales. La idea
es tener un espacio vectorial con vectores perpendiculares que sean solución de un
cierto problema. Para introducir poco a poco estos espacios, vamos a iniciar con
la siguiente definición. Cuando en un espacio vectorial un conjunto de vectores son
perpendiculares entre sı́, este conjunto recibe un nombre especial, este es:
Definición 9.114. Sea (E, (·, ·)) espacio unitario. Sea {xi }i∈I una familia de
elementos de E. Si xi ⊥ xj para todos i, j ∈ I, I un conjunto de indices, i 6= j se
dice que {xi }i∈I es un sistema ortogonal. Si ademas k xi k= 1 para todo i ∈ I,
entonces {xi }i∈I se llama sistema ortonormal.
0, si i 6= j
Observemos que en este caso se sigue (xi , xj ) = δij =
1, si i = j
En un espacio euclidiano la geometrı́a de éste se construye, por ejemplo, uti-
lizando el teorema de Pitágoras. Este teorema utiliza fuertemente el concepto de
lineas o vectores perpendiculares. Vamos a ver ahora que este teorema se cumple en
los espacios euclidianos y unitarios y es la base de su geometrización. Su enunciado
es como sigue.
Teorema 9.115 (de Pitágoras). Sea (E, (·, ·)) espacio. Sean x1 , · · · , xn ∈
E, tal que {xi }i=1,··· ,n es un sistema ortogonal. Entonces
k x1 + · · · + xn k2 =k x1 k2 + · · · + k xn k2
Demostración 9.116. Vamos a realizar el producto interno de la suma de
todos
Pn los vectores P del sistema ortogonoal,
Pn es decir, (x1 + · · · + xn , x1 + · · · + xn ) =
n
i,j=1 (xi , xj ) = i=1 (x i , xi ) = i=1 k xi k2 , se sigue entonces el teorema.
156 9. ESPACIOS MÉTRICOS Y UNITARIOS
En esta sección nos vamos a enfocar a los espacios completos, con una estructura
de espacio vectorial y que tengan una norma o un producto interno o ambos. Estos
espacios, llamados espacios de Banach y espacios de Hilbert, son muy importantes
porque ahi viven los operadores diferenciales y las soluciones de un sinnumero de
ecuaciones diferenciales. Esto le da una importencia enorme a este tipo de espacios.
Vamos a iniciar con la introducción de algunas propiedades de las series en espacios
normados y luego con la definición de los espacios de Hilber para después pasar a
su manipulación.
Lema
P∞10.4 (Criterio necesario de convergencia de series). La convergencia de
la serie i=1 xi implica que lim xn = 0.
n→∞
P∞ Pn
Demostración 10.5. s = i=1 xi = lim sn = lim sn+1 , con sn = i=1 xi .
n→∞ n→∞
Entonces podemos escribir 0 = s − s = lim (sn+1 − sn ) = lim xn .
n→∞ n→∞
157
158 10. ESPACIOS DE HILBERT Y BANACH
P∞
para un q fijo con 0 < q < 1 que no depende dePi, entonces i=1 xi converge. En
√ ∞
caso de que i ≥ n e implique i xi ≥ 1, la serie i=1 xi es divergente.
Si
√
lim i xi = g
i→∞
P
entonces ∞ i=1 xi es convergente para g < 1 y divergente para g > 1 (incluyendo
g = ∞).
Vamos a regresar al tema principal de esta sección. Vamos a estudiar los
espacios ecuclidianos o unitarios completos. Estos espacios tienen una importancia
especial y por eso reciben un nombre especial, se llaman espacios de Hilbert. Los
espacios completos, ya sean Euclidianos y Unitarios, asi como los espacio normados,
son muy importantes y es por eso que les vamos a dedicar este capitulo. El espacio
en donde viven los estados cuánticos son los espacios de Hilbert, formalmente estos
se definen como sigue.
Definición 10.11. Un espacio Unitario o Euclidiano completo se llama Es-
pacio de Hilbert.
Ejemplo 10.12. Como el conjunto de los reales es completo, entonces este
espacio con su producto interno canónico, es un espacio de Hilbert. Pero el conjunto
de los enteros o los racionales no puede ser de Hilbert ni de Banach.
Ejemplo 10.13. Un ejemplo de espacio de Hilbert P∞muy conocido es el espacio
L2 definido antes: L2 = (l1 , l2 , · · · ) | li ∈ C tal que i=1 li2 < ∞ con el producto
P∞
interno (x, y) = i=1 li m̄i para x = (l1 , l2 , · · · ), y = (m1 , m2 , · · · ). Este espacio
es
P∞ de Hilbert. Su producto interno se denota más comunmente como < x | y >=
i=1 li m̄i , y las li son los coeficientes de Fourier de algún desarrollo en series.
Los sistemas ortonormales son los conjuntos más apropiados para describir un
espacio de Hilbert. Son base del espacio, pero ademas son ortonormales, con lo
que cualquier elemento del espacio puede ser escrito en terminos de él con relativa
sencilles.
En los espacio Euclidianos o Unitarios podemos hacer la siguiente definición.
Definición 10.14. Sea E un espacio Euclidiano (ó Unitario) y H ⊆ E. Sea
{xi }i∈I una familia de elementos de H e I una familia de ı́indices. {xi }i∈I se
le llama un sistema completo de H si para toda x ∈ H se sigue que x =
P
i∈I (x, xi ) xi , es decir, la serie converge a x. Se dice que el sistema es ortonor-
mal si
1) El sistema es completo
2) {xi }i∈I es una base ortonormal de H
En los espacios de Hilbert siempre existe un conjunto completo que lo genera.
Esta propiedad es muy importante y constantemente utilizada por fı́sicos, quı́micos
e ingenieros. Para demostrar este teorema, es necesario ver primero la siguiente
proposición, la cual enunciaremos sin demostración.
Proposición 10.15. Sea E un espacio de Hilbert y {xi }i∈I una base ortonor-
mal. {xi }i∈I es completo sı́ y sólo sı́ se sigue que si x ∈ E y se cumple que
(x, xi ) = 0 para todo indice i ∈ I, implica que x = 0.
Entonces se puede ver que
160 10. ESPACIOS DE HILBERT Y BANACH
Pn
⇐) Sea {yi }i∈I sistema ortonormal, x ∈ H fijo y yn = i=1 (x, yi ) yi . Pero
yn es perpendicular a x − yn ya que
n
X n
X
(yn , x − yn ) = (x, yi ) (yi , x) − (x, yi ) (x, yj ) (yi , yj ) = 0.
i=1 i,j=1
para (xi )i∈I = (yi )i∈I y esto implica que (xi )i∈I es completo.
1. SISTEMAS ORTONORMALES COMPLETOS. 161
Sea {xi }i∈I = {xi }i=1,··· ,∞ , entonces {xi }i∈I es un sistema ortonormal completo,
ya que si x ∈ L2 , se tiene que (x, xi ) = li , en donde x = (l1 , · · · ) y
Σ∞ 2 ∞ 2 2
i=1 | (x, xi ) | = Σi=1 |li | = ||x|| .
Sea (P, ·) el conjunto de los polinomios de grado arbitrario con su producto canónico
y {pj }j=0,1,··· = {1, x, x2 , · · · }. Es claro que este conjunto de vectores es un sistema
completo en Cℜ . Entonces, toda función suave se puede escribir como
X∞ ∞
X
f (x) = p · xi xi = ai xi .
i=1 i=1
Ejemplo 10.27. Sea Pn (x) los polinomios de grado n definidos por la fórmula
r
dn 2
n 1 2n + 1
Pn (x) = cn · n x − 1 , con cn = .
dx n!, 2n 2
Si integramos por partes n -veces el producto
Z 1
Pm (x)Pn (x)dx = δmn
−1
donde δmn es la delta de Kroneker, vemos que estas funciones son ortogonales.
Como este conjunto de funciones son polinomios de grado arbitrario, el espacio
generado por ellas es isomorfo a (P, ·). Entonces se puede demostrar que el con-
junto {Pn (x)}n=1,··· es un sistema completo en el espacio de funciones suaves
1. SISTEMAS ORTONORMALES COMPLETOS. 163
f : [−1, 1]→ ℜ. Esto quiere decir que toda función suave f en [−1, 1] se puede
escribir como
∞
X
f (x) = (f, Pn ) Pn , donde
n=0
Z 1
2n + 1
(f, Pn ) = f (x)Pn (x)dx
2 −1
se puede ver que el conjunto {Ylm }l,m∈I es un sistema ortonormal completo. A las
funcines Ylm (θ, ϕ) se les llama armónicos esfericos. Es fácil darse cuenta que
Z 2π Z 1
′
dϕ Ylm (θ, ϕ) Ylm
′ (θ, ϕ) d (cos (θ)) = δll′ δmm′
0 −1
y por construcción, este sistema es una base del conjunto de funciones. Este sistema
es muy conveniente para escribir funciones que dependen solo de los angulos θ y ϕ,
es decir, funciones cuyo dominio se encuentra en la esfera. Por eso los armónicos
164 10. ESPACIOS DE HILBERT Y BANACH
esfericos son muy usados en problemas con simetria esférica. Toda función f que
solo depende de estos dos angulos se puede escribir como
∞ X
X l
f (x) = (f, Ylm ) Ylm , donde
l=0 m=−l
Z 2π Z 1
2n + 1 (l − m)!
(f, Ylm ) = dϕ f (θ, ϕ)Ȳlm (θ, ϕ)d (cos (θ))
2 (l + m)! 0 −1
2. Operadores Adjuntos.
Ahora vamos a trabajar en los espacios normados completos, es decir, en los
espacios de Banach. Estos espacios tienen muchas propidades, en ellos viven los
operadores, especialmente los operadores cuánticos. Vamos a definir los operadores
adjuntos y autoadjuntos y veremos algunas de sus propiedades. La definición de
los espacios de Banach es como sigue.
Definición 10.30. Un espacio normado, completo, se llama Espacio de Ba-
nach.
Comentario 10.31. Como ya sabemos, todo Espacio Unitario o Euclidiano es
normado, si estos además son completos, son espacios de Banach. Los espacios
normados son también métricos, por lo tanto los espacios de Banach son espacios
métricos.
Más adelante vamos a necesitar el siguiente lema.
Lema 10.32. Sea xn una sucesión tal que lim xn = x0 y f una función. En-
n⇀∞
tonces f es continua en x0 sı́ y sólo sı́ lim f (xn ) = f (x0 )
n⇀∞
Ejercicio 10.33. Demostrar el lema.
Proposición 10.34. Sean (E, || · ||) y (F, || · ||) espacios normados y A : E ⇀ F
función lineal. Entonces A es continua sı́ y sólo sı́ es continua en 0 (o en algún
punto x ∈ E.)
Demostración 10.35. ⇒) Trivial.
⇐) Supongamos que A es continua en 0. Sea xn una sucesión en E tal que
lim xn = x. Sea yn := xn − x, esto implica que lim yn = 0. Puesto que A es
n⇀∞ n⇀∞
continua en 0, se sigue que lim A (yn ) = A (0) = 0.
n⇀∞
Entonces
0 = lim A (xn − x) = lim [A (xn ) − A (x)] ,
n⇀∞ n⇀∞
se sigue que lim A (xn ) = A (x)
n⇀∞
Las funciones lineales acotadas son las de mayor interés en fı́sica. Cuando la
función es acotada, esta tiene propiedades especiales. Vamos a definir lo que es una
función acotada.
Definición 10.36. Sean (E, || · ||E ) y (F, || · ||F ) espacios normados y A : E ⇀
F.
A se dice acotada, si
sup ||A (x) ||F < +∞,
||x||E =1
para todo x ∈ E
2. OPERADORES ADJUNTOS. 165
Ejemplo 10.38. Sea C ([a, b]) el conjunto de las funciones continuas en [a, b].
Sea A : C ([a, b]) ⇀ ℜ, tal que
Z b
f ⇀ A (f ) = f (x) dx.
a
Entonces
Z b Z b
||A (f ) || = || f (x) dx|| ≤ ||f (x) ||dx ≤ ||f || (b − a) .
a a
Entonces se tiene que
sup ||A (f ) || ≤ b − a < +∞,
kf k=1
y esto implica que A es acotada.
El concepto de acotada para una función queda más claro despues del lema
siguiente, el cual enuciamos sin demostración.
Lema 10.39. Sean (E, || · ||E ) y (F, || · ||F ) espacios normados y A : E ⇀ F
un mapeo lineal. A es acotada sı́ y sólo sı́ existe c ∈ ℜ, tal que ||A (x) ||F ≤ c||x||E
Es decir, la función es acotada si la norma de sus valores son menores que la
norma del punto en donde se evaluo, para todo punto en el dominio. Las funciones
lineales acotadas son continuas, esta propiedad la demostramos en el siguiente teo-
rema.
Teorema 10.40. Sean (E, || · ||E ) y (F, ||·||F ) espacios normados y A : E ⇀ F
un mapeo lineal. Entonces A es continua sı́ y sólo sı́ A es acotada.
Demostración 10.41. .
⇒) Supongamos A continua. En particular es continua en 0, .i.e. para toda
ǫ > 0, existe δǫ tal que k A (x)−A(0) kF < ǫ, para toda x se sigue que k x−0 kE < δǫ .
Pero A lineal implica A (0) = 0. Tomemos ǫ = 1. Entonces k A (x) kF < 1, para
toda x con k x kE < δ1 (*)
Sea
δ1 y δ1
y′ = tal que k y ′ kE = < δ1 .
2 k y kE 2
Entonces por (*) k A (y ′ ) kF < 1 (**).
Además
2 2
k A (y) kF =k A (y ′ ) kF k y kE ≤ k y kE
δ1 δ1
por (**). Esto quiere decir que
2
k A (y) kF ≤ c k y kE , con c =
δ1
para toda y ∈ E.
166 10. ESPACIOS DE HILBERT Y BANACH
k A (xn ) − 0 kF =k A (xn ) kF ≤ c k xn kE .
Pero lim xn = 0 sı́ y sólo sı́ lim k xn kE = 0. Se sigue que
n⇀∞ n⇀∞
o sea lim k A (xn ) kF = 0 pero esto es sı́ y sólo sı́ lim A (xn ) = 0 = A (0) .
n⇀∞ n⇀∞
Entonces A es continua en cero por lo que A es continua.
El conjunto de funciones lineales acotadas, por tanto continuas, entre espacios
normados, forma un espacio vectorial también. Este concepto lo escribiremos en la
siguiente definición.
Definición 10.42. L (E, F ) = {A | A : E ⇀ F, lineal y acotada.}
Ya sabemos que L (E, F ) es un espacio vectorial, asociado a E y F . Existe un
caso particular de espacios normados muy interesante. Se puede definir una clase
de espacios asociados usando como norma la definición de acotado. Esto se posible
porque esta dafinición es a su vez una norma. Esto es
Lema 10.43. Sea A ∈ L (E, F ). Se tiene que
k A kL = sup k A (x) kF
kxkE =1
Esta ultima función toma valores maximos en 0.923. Por lo que ||A|| = 0.923.
Un resultado que es muy usado en el estudio de las normas de mapeos lineales
es el siguiente:
Lema 10.46. Sea A operador lineal. Entoces ||A (x)|| ≤ ||A|| · ||x||
2. OPERADORES ADJUNTOS. 167
Ejemplo 10.52. Sea (ℜn , (·, ·)) con su producto canónico. Sea A la matriz
representativa de una transformación lineal. Entonces (Ax, y) = Ax · y. Vamos a
tomar como ejemplo a la matriz.
−1 2
A=
1 0
ya que
l0 l1
l1 2l2
A l2 = 3l3
.. ..
. .
n n
1 1 X 1 X
f (x) = √ + √ aj sin(jx) + √ bj cos(jx)
2π π j=1 π j=1
y su derivada será
n n
1 X 1 X
f ′ (x) = √ jaj cos(jx) − √ jbj sin(jx),
π j=1 π j=1
2. OPERADORES ADJUNTOS. 169
Las principales propiedades de los operadores adjuntos son que ellos son también
funciones lineales, su norma es la misma que la de la función original y el adjunto
del adjunto es la misma función de salida. Esto lo vemos en la siguiente proposición.
Proposición 10.61. Sea A∗ operador adjunto de A. Entonces
1) A∗ ∈ L (E)
2) k A∗ k=k A k
∗
3) (A∗ ) = A
170 10. ESPACIOS DE HILBERT Y BANACH
1. Medida
Dentro del análisis, los espacios con medida juegan un papel muy importante.
Estos espacios son la base de la teorı́a de probabilidad y estadı́stica, de los espacios
L2 , etc. Aqui nos enfocaremos a los espacios L2 , veremos primero su definición y
luego aplicaciones a las funciones especiales, que son solución de ecuaciones difer-
enciales importantes en fı́sica, quı́mica, ingenierı́a, matemámticas, etc. Vamos a
introducir la definición de álgebra-σ para poder introducir la definición de medida.
Entonces epecemos con la siguiente definición.
Definición 11.1. Sea Ω conjunto P (Ω) el conjunto potencia de Ω. Sea F ⊆
P (Ω). F se llama álgebra sobre Ω si
1) φ∈F
2) A ∈ F implica Ac ∈ F
3) A1 , A2 ∈ F implica A1 ∪ A2 ∈ F
No hay que confundir el nombre álgebra sobre algún conjunto con el de álgebra
en el sentido algebraico. El nombre es el mismo, aunque las definiciones no tienen
nada que ver. En adelante no habra confución, ya que el concepto que realmente
usaremos en esta sección es el de álgebra-σ, esta se define como sigue.
Definición 11.2. F se llama álgebra-σ sobre Ω si valen 1), 2) y
3’) A1 , A2 , · · · ∈ F implica ∪∞
i=1 Ai ∈ F
173
174 11. ESPACIOS CON MEDIDA
Ejercicio 11.6. Demostrar que los ejemplos anteriores son algebras sobre Ω.
Comentario 11.7. Observemos que en la definición de álgebra, las uniones
entre conjuntos ∪ puede cambiarse por intersecciones ∩.
Ejercicio 11.8. Demostrar la observación 11.7 anterior.
La intersección infinita de algebras-σ, es a su vez álgebra-σ. Esto lo veremos
en la siguiente proposición.
Proposición 11.9. Sean {Fi }i∈I una familia de algebras-σ e I un conjunto de
ı́ndices. Entonces ∩ Fi también es álgebra-σ.
i∈I
En lo que sigue vamos a introducir las álgebras-σ sobre los espacios métricos.
Para esto introduciremos una definición importante, para que con ella podemos
definir el álgebra σ de Borel.
Definición 11.11. Sea E ⊂ P(Ω). Se define σ(E) = ∩ Fi , donde Fi son
i∈I
algebras-σ, con E ⊂ Fi .
Esta definición pretende construir el álgbra-σ más pequeña de un conjunto
arbitrario. La definición anterior puede interpretarse de la siguiente manera. Sea
Ω conjunto y E ⊂ P(Ω). Supongamos que E no es álgebra-σ. Entonces, si E es un
subconjunto del conjunto potencia donde φ ∈ / E, entonces se construye E ′ = E ∪φ. Si
E es tal que no todos los complementos de sus conjuntos pertenecen a E, entonces se
construye E” con todos los complementos faltantes y ası́, hasta formar una álgebra-
σ mı́nima, esta es σ(E). Este proceso equivale a tomar la intersección de todas las
algebras σ sobre Ω, es decir, según la definición anterior, equivale a tomar σ(E).
Ya estamos listos para introducir las álgebra-σ sobre espacios métricos, las
cuales tienen una importancia especial, estas se definen de la forma siguiente.
Definición 11.12. Sea (M, ρ) espacio métrico, y sea E = {U ⊆ M | U abierto}.
A σ (E) se le llama álgebra-σ de los conjuntos de Borel de M.
Ejemplo 11.13. Sea (ℜ, ρ) el espacio métrico real. Entonces
E = {U ⊆ ℜ | U intervalo abierto de ℜ} .
Como los complementos de los intervalos abiertos son uniones de intervalos cerra-
dos, σ (E), y por tanto, los conjuntos de borel de los reales, estará formado por el
conjunto de los intervalos abiertos, unión los intervalos cerrados, unión todos los
números reales, unión el conjunto vacio.
Ejemplo 11.14. Sea X = {a, b}. Un ejemplo de conjuntos abiertos (topologi-
cos) de X son τX = {φ, {a} , {a, b}}. Entonces los conjunto de Borel de τX son
σ(τX ) = {φ, {a} , {a, b} , {b}}.
1. MEDIDA 175
Veamos algunas medidas especiales que usaremos en el resto del texto. Unas
medidas muy importantes son la medida de probabilidad y la medida de Dirac. Su
definición formal es como sigue.
Definición 11.24. Una medida tal que µ (Ω) = 1 se llama medida de prob-
abilidad.
Veamos el ejemplo de la medida de Dirac.
Ejemplo 11.25. Medida de Dirac. Sea (Ω, F ) espacio medible y δx tal que
δx : F ⇀ [0, ∞), con
1 si x ∈ A
δx (A) :=
0 si x ∈ Ac
para toda A ∈ F. Veamos que δx es una medida. Primero es fácil ver que δx (Ω) =
1, por lo que δx es una medida de probabilidad, además, es claro que δx (A) ≥ 0
para toda A ∈ F. Sean A1 , A2 , · · · , Ai , · · · ∈ F con Ai ∩ Aj = φ i 6= j, entonces
δx ∪ Ai = 1
i∈I
sı́ y sólo sı́ x ∈ ∪i∈I Ai , esto es sı́ y sólo sı́ existe algún Ai tal que x ∈ Ai , pero no
en los restantes Aj , j 6= i, esto implica que
X ∞
δx ∪ Ai = δx (Ai ) = 1
i∈I
i=1
Por otro lado, δx (∪i∈I Ai ) = 0, sı́ y sólo sı́ x ∈ (∪i∈I Ai )c , esto es sı́ y sólo sı́
x ∈ ∩i∈I Aci , sı́ y sólo sı́ x ∈ Aci para toda i, lo que implica que δx (Ai ) = 0 para
toda i. Por lo tanto
X∞ X ∞
δx (Ai ) = 0, i.e. δx ∪ Ai = δx (Ai )
i∈I
i=1 i=1
Ejemplo 11.26. Sean ℜ los reales y F los conjuntos de Borel en los reales.
Entonces la función l1 : F → ℜ+ tal que l1 es la longitud del intervalo, es decir
l1 ((a, b)) = b − a, es una medida. Veamos esto: l1 (φ) = 0, ademas, si A1 y
A2 son dos intervalos disjuntos, se tiene que l1 (A1 ∪ A2 ) = l1 ((a, b) ∪ (c, d)) =
d − a − (c − b) = b − a + d − c = l1 ((a, b)) + l1 ((c, d)). A esta medida se le llama
la medida de Lebesgue.
Ejemplo 11.27. Sea Ω = {a, b, c, d} y
F = {φ, {a}, {b} , {a, b}, {c, d}, {a, c, d}, {b, c, d}, Ω} .
Entonces la función µ : F → [0, ∞), tal que µ(A) = número de elementos de A.
Esto implica que µ(φ) = 0 y
µ({a} ∪ {b}) = µ({a, b}) = 2 = µ({a}) + µ({b}).
Además
µ({a} ∪ {c, d}) = µ({a, c, d}) = 3 = µ({a}) + µ({c, d}),
µ({b} ∪ {c, d}) = µ({b, c, d}) = 3 = µ({b}) + µ({c, d}),
µ({a} ∪ {b, c, d}) = µ({a, b, c, d}) = 4 = µ({a}) + µ({b, c, d}).
Por otro lado,
µ({a} ∪ {a, b}) = µ({a, b}) = 2 < µ({a}) + µ({a, b}),
etc. Por tanto µ(A) es una medida.
2. INTEGRACIÓN EN ESPACIOS CON MEDIDA 177
4.5
f
f1
4
3.5
2.5
f
1.5
0.5
0
-1 0 1 2 3 4 5 6
x
4.5
f
f2
4
3.5
2.5
f
1.5
0.5
0
-1 0 1 2 3 4 5 6
x
entonces
Z kX
1 +k2
2) Tenemos f2 − f1 ≥ 0, f2 = (f2 − f1 ) + f1
180 11. ESPACIOS CON MEDIDA
Entonces
Z Z Z
0≤ f2 µ(dω) = (f2 − f1 ) µ(dω) + f1 µ(dω),
R R R
pero (f2 − f1 ) µ(dω) ≥ 0 por lo tanto f2 µ(dω) ≥ f1 µ(dω).
Después de esta proposición ya estamos en posición de definir la integral de
Lebesgue. Esta se realiza utilizando funciones simples, esto es:
Definición 11.41 (Integral de Lebesgue). Sea f : (Ω, F ) ⇀ (ℜ, E) función
y (Ω, F ) espacio medible y E el álgebra-σ de Borel. Sea (fk )k=1,··· ,n una serie de
funciones simples, tal que fk ≤ fk+1 para toda k, y f = lim fk . Entonces:
k→∞
Z Z
f (ω) µ (dω) := lim fn (ω) µ (dω) .
n→∞
Vamos a explicar este punto. Sabemos que existe una serie de funciones simples
fk con f = lim fn tal que en los intervalos Ak , la función sea constante, es decir,
n→∞
Ak = (ak , bk ) = {x ∈ Ω | fk (x) = ck ∈ ℜ}. Se sigue que
Z Z
f (x) l1 (dx) = lim fn (x) l1 (dx)
(a,b) n→∞
n
X
= lim ck l1 (Ak )
n→∞
k=1
Xn Z b
= lim fk (x) (bk − ak ) = f (x) dx.
n→∞ a
k=1
3. Espacios Lp
Finalmente vamos a introducir la definición de espacios Lp , para despues dedi-
carnos a estos espacios con p = 2. Para eso, vamos a introducir una relación de
equivalencia en los espacios con medida para poder definir los espacios que quere-
mos.
Definición 11.46. Sea (Ω, F ) espacio medible y µ medida en (Ω, F ) . Se define
L0 (Ω, F ) = {f : Ω ⇀ ℜ | f es función medible}, i.e. f −1 (X) ∈ F, para toda
X ∈ E.
Se puede ver entonces que el espacio L0 forma un espacio vectorial con las
operaciones canonicas entre funciones. Es decir:
Proposición 11.47. L0 es un espacio lineal.
182 11. ESPACIOS CON MEDIDA
Los espacios Lp se basan en el hecho de que los espacios de todas las funciones
medibles se pueden separar en clases de equivalencia. La relación de equivalencia
que separa estos espacios en clases se introduce en la siguiente definición.
Definición 11.48. Sean f, g, ∈ L0 y µ medida. Sea ∼µ la relación f ∼µ g si
µ ({x ∈ Ω | f (x) 6= g(x)}) = 0, con µ medida en (Ω, F ) .
Proposición 11.49. La relación ∼µ es de equivalencia
Demostración 11.50. Veamos las tres condiciones de relación de equivalencia
1) f ∼µ f ya que µ ({x ∈ Ω | f (x) 6= f (x)}) = µ(φ) = 0
2) f ∼µ g implica que µ ({x ∈ Ω | f (x) 6= g(x)}) = 0, por tanto g ∼µ f
3) Sean f, g, h ∈ L0 tales que f ∼µ g y g ∼µ h. Denotemos por
A = {x ∈ Ω | f (x) = g(x)},
B = {x ∈ Ω | g(x) = h(x)}
M = {x ∈ Ω | f (x) = h(x)}
Como f ∼µ g y g ∼µ h se sigue que µ(Ac ) = 0 y µ(B c ) = 0. De lo anterior se
tiene que f = h sı́ y sólo sı́ f = g y g = h asi que M = A ∩ B lo que implica que
M c = Ac ∪ B c . Entonces
µ ({x ∈ Ω | f (x) 6= h(x)}) = µ(M c ) = µ (Ac ∪ B c ) ≤ µ (Ac ) + µ (B c ) = 0
lo que implica que f ∼µ h.
Con esto ya podemos introducir la definición de los espacios Lp , su definición
se basa en el conjunto de clases de equivalencia con la relación ∼µ . Se definen como
sigue.
Definición 11.51. Sea L0 (Ω, F , µ) = L0 (Ω, F ) / ∼µ . Se define
Z
Lp = {f ∈ L0 (Ω, F , µ) | f (x) |p µ (dx) , es finita },
Ω
R 1/p
de tal forma que Lp es un espacio normado, con la norma k f kp = Ω
| f |p µ(dx)
La propiedad más importante de estos espacios es que son espacios normados
y completos, o sea, de Banach. Vamos a enunciar este importante teorema sin
demostración:
Teorema 11.52. Para todo 1 ≤ p < ∞, Lp es lineal y completo, es decir, Lp
es espacio de Banach.
Los casos especiales más interesantes son sin duda
p = 1, L1 = Espacio de las funciones integrables.
p = 2, L2 = Espacio de Banach de las funciones cuadraticas integrables bajo la
medida µ.
Estos dos espacios son de suma importancia en fı́sica, quı́mica, matemáticas,
mecánica cuántica, etc. Particularmete, en L2 también es posible defirnir un pro-
ducto interno, convirtiendo estos espacios en espacios de Hilbert. Esto se ve en la
siguiente proposición.
Proposici
R ón 11.53. L2 es un espacio de Hilbert con el producto escalar
(f, g) = Ω f (x) g (x) µ (dx)
4. DESARROLLO DE FOURIER EN L2 183
4. Desarrollo de Fourier en L2
Los espacios de interes para la fı́sica, como ya dijimos, son los espacios L2 . En
estos espacios se definen las series de Fourier, entre otras. Vamos a dedicarles esta
sección dada su importancia. Empecemos con la siguiente definición.
Definición 11.55. Sea L2 = L2 (Ω, F , µ) espacio de Hilbert tal que existe un
sistema (fi )i=1,...,n ortonormal completo. Sea f ∈ L2 , cuyo coeficiente de Fourier
estan dados por Z
ai = (f, fi ) = f (x) fi (x) µ (dx) .
Ω
P∞
A la serie f = i=1 ai fi se le llama serie de Fourier de f.
Ejemplo 11.56. Consideramos el espacio
n L2 ([−π, π]) con la medidaode Lebesgue.
Como ya hemos visto, el sistema Tn = √1 , √1 sin(kx), √1 cos(kx) es
2π π π k=1,··· ,n
ortonormal y es completo en
n
X
T ([−π, π]) = {f | f (x) = ak cos (kx) + bk sin (kx)}
k=0
llamado el conjunto de las funciones trigonométricas. En general (Tn )n=1,...,∞
es un sistema ortonormal completo en Lp .
Ejercicio 11.57. Demuestre que (Tn )n=1,...,∞ es un sistema ortonormal en
L2 .
Definición 11.58. Sea E espacio de Hilbert y E una álgebra-σ sobre E. Se
define
B (E, E) = {f : (E, E) ⇀ ℜ | f es medible y acotada}
Cℜ (E) = {f : E ⇀ ℜ | f es continua y acotada}
Se puede mostrar que Cℜ (E) ⊂ B (E, E) ⊂ Lp , y ambas son subconjuntos
lineales de Lp . Es más, estos espacios son densos, por lo que podemos acercarnos
tanto como queramos por medio de una base ortonomal completa a cada elemento
de estos espacios, esto se ve en la siguiente proposición.
Proposición 11.59. Sea E espacio de Hilbert y E los conjuntos de Borel de
los reales.
1) B (E, E) es denso en Lp
2) Cℜ (E) es denso en Lp
184 11. ESPACIOS CON MEDIDA
Con esta proposición se puede mostrar que T ([−π, π]) es denso en Lp ([−π, π]).
Unos ejemplos de mucha importancia para la teorı́a de ecuaciones diferenciales son
los siguientes.
Ejemplo 11.60. El sistema
1 ikx
fk = √ e
2x k∈Z
5. Funciones Especiales
Existen una serie de funciones que tienen caracteristicas muy particulares. Lo
importante de estas funciones es que son solución de diferentes ecuaciones diferen-
ciales muy comunes en fı́sica, quı́mica, ingenierı́a, etc., por eso su estudio requiere
de una sección aparte. Hay una forma de estudiar todas estas funciones especiales
de una forma unificada, es la versión que adoptaremos aqui. Todas estas funciones
tienen caracteristicas comunes y adoptando esta versión unificada es posible estu-
diar sus caracteristicas comunes de una sola vez.
Definición 11.63 (Fórmula de Rodriques). Sea
1 dn
(11.1) Pn (x) = cn (hsn ),
h dxn
tal que
1) Pn es un polinomio de grado n y cn una constante.
2) s(x) es un polinomio de raices reales de grado menor o igual a 2
3) h : ℜ → ℜ es una función real, positiva e integrable en el intervalo [a, b] ⊂ ℜ,
(llamada peso) tal que h(a)s(a) = h(b)s(b) = 0.
Con esta definición es posible definir la mayoria de las funciones especiales más
comunes. Daremos algunos ejemplos.
5. FUNCIONES ESPECIALES 185
2
Ejemplo 11.64. Los polinomios de Hermite Hn estan dados por h = e−x ,
s = −1, cn = 1, en el intervalo (−∞, ∞), es decir
n 2 dn −x2
Hn (x) = (−1) ex (e )
dxn
por lo que los primeros términos serán:
H0 = 1,
H1 = 2x,
H2 = 2 − 4x2 ,
H3 = 4x(−3 + 2x2 ),
H4 = 12 − 48x2 + 16x4 , etc.
Ejemplo 11.65.q Los polinomios de Legendre Pn están dados por h = 1, s =
2 1
1 − x , cn = n! 2n 2n+1
2 , en el intervalo [−1, 1], es decir
n
(−1) dn n
Pn (x) = n n
( 1 − x2 )
2 n! dx
por lo que los primeros términos serán:
P0 = 1, P1 = x,
P2 = 12 3x2 − 1 ,
P3 = 12 x(5x2 − 3),
P4 = 18 35x4 − 30x2 + 3 , etc.
Ejemplo 11.66. Los polinomios de Laguerre Ln dados por h = e−x , s = x,
cn = 1, en el intervalo (−∞, ∞), es decir
dn n −x
Ln (x) = ex (x e )
dxn
por lo que los primeros términos serán:
L0 = 1,
L1 = −x + 1,
L2 = x2 − 4x + 2,
L3 = −x3 + 9x2 − 18x + 6,
L4 = x4 − 16x3 + 72x2 + 96x + 24, etc.
Ejercicio 11.67. Escriba los primeros 4 términos y de una ecuación diferencial
caracteristica de los polinomios de Tchebichef de primera clase Tn dados por
h = (1 − x2 )−1/2 , s = 1 − x2 , en el intervalo [−1, 1].
Ejercicio 11.68. Escriba los primeros 4 términos y de una ecuación diferencial
caracteristica de los polinomios de Jacobi Pnν,µ dados por h = (1 − x)ν (1 + x)µ ,
ν > −1, µ > −1, s = 1 − x2 , en el intervalo [−1, 1] .
Ejercicio 11.69. Escriba los primeros 4 términos y de una ecuación diferencial
caracteristica de los polinomios de Gegenbauer Cnλ dados por h = (1 − x2 )λ−1/2 ,
λ > − 21 , s = 1 − x2 , en el intervalo [−1, 1] .
Ejercicio 11.70. Escriba los primeros 4 términos y de una ecuación diferencial
caracteristica de los polinomios de Tchebichef de segunda clase Un dados por
h = (1 − x2 )1/2 , s = 1 − x2 , en el intervalo [−1, 1] .
Todos estos polinomios especiales tienen la caracteristica de formar sistemas
completos en el espacio de funciones suaves. En fı́sica y quı́mica, las ecuaciones
186 11. ESPACIOS CON MEDIDA
diferenciales anteriores son muy comunes y como sus soluciones forman sistemas
completos, podemos escribir las funciones suaves como combinación lineal de estas
funciones especiales. Esta proceso es muy conveniente cuando se trabaja con estas
ecuaciones diferenciales. Para ver que estas forma sistemas completos, mostraremos
primero una serie de proposiciones.
Proposición 11.71. Sea s, polinomio de grado dos y h función real, positiva
e integrable. Denotemos por pk a un polinomio arbitrario de grado k, entonces
dm
(11.2) (hsn pk ) = hsn−m pk+m
dxm
Demostración 11.72. Primero observemos que para n = 1 en (11.1), se
cumple que
1 d 1 dh ds
P1 (x) = c1 (hs) = c1 s + c1 ,
h dx h dx dx
de donde que
dh 1 ds
s =h P1 − .
dx c1 dx
Ahora tomemos la derivada
d dh ds dpk
(hsn pk ) = sn pk + hnsn−1 pk + hsn
dx dx dx dx
n−1 1 ds dpk
= s h pk P1 + (n − 1) +s .
c1 dx dx
Como pk es cualquier polinomio de grado k y por definición P1 es un polinomio
de grado 1 y s es un polinomio de grado 2, se tiene que
d
(hsn pk ) = hsn−1 pk+1 .
dx
Si se sigue derivando la expresión entre parentesis y siguiendo los mismos pasos,
se llega al resultado.
Observemos que del resultado anterior se tiene que
1 dn
P n = cn (hsn ) = cn pn .
h dxn
De aqui es entonces fácil demostrar que
dm n
Proposición 11.73. Todas las derivadas dxm (hs ) con m < n, son cero en
x = a y x = b.
Demostración 11.74. Como
dm
(hsn pk )|x=a = h(a)sn−m (a)pk+m = 0.
dxm
Usando las prorposiciones anteriores ya podemos demostrar el teorema prin-
cipal de esta sección que afirma que todo polinomio deducible de una fórmula de
Rodrigues, forma un conjunto ortonormal completo (una base ortonormal) en el
espacio de Hilbert correspondiente.
5. FUNCIONES ESPECIALES 187
Veamos primero que (pn , Pm ) = 0 para todo polinomio pn con n < m. Como
Z
dm
(pn , Pm ) = cm pn (x) m (hsm )dx
A dx
integramos por partes m veces, como todas las derivadas de hsn son cero, se tiene
que
Z
dm pn
(pn , Pm ) = cm h(x)s(x)m dx = 0.
A dxm
Ahora bien, si en la integración anterior n = m, obtenemos:
Z n Z
n d pn
(11.3) (pn , Pn ) = cn h(x)s(x) dx = cn n! an h(x)s(x)n dx,
A dxn A
mientras que si integramos dos veces por partes el lado izquierdo, obtenemos
Z Z
d dPn d dPn
Pm sh dx = − Pm sh dx
A dx dx A dx dx
Z
1 d d
= sh Pm Pn hdx = 0,
A h dx dx
ya que de nuevo llegamos a un polinomio de grado m < n dentro del parentesis
cuadrado. Entonces (11.4) se puede escribir como
d dPn
sh = −hλnn Pn := −hλn Pn .
dx dx
De nuevo calculamos la integral
Z
d dPn
Pm sh dx,
A dx dx
pero ahora para m = n, se tiene:
Z Z
d dPn d dPn d2 Pn
Pn sh dx = Pn (sh) + sh 2 dx
A dx dx A dx dx dx
Z 2
1 dPn d Pn
= Pn P1 (x) + s 2 hdx
A c1 dx dx
ya que
1 d
P1 (x) = c1 (hs).
h dx
Ahora supongamos que P1 (x) = l0 +l1 x, s(x) = s0 +s1 x+s2 x2 y Pn (x) = an xn +· · · ,
entonces la integral será
Z Z
d dPn 1 n n
Pn sh dx = Pn (l1 an nx + · · · ) + (s2 an n (n − 1) x + · · · ) hdx
A dx dx c1
A Z Z
1
= l1 n + s2 n (n − 1) an xn Pn hdx + Kxn−1 Pn hdx + · · ·
c1 A A
donde K es alguna constante. Sin embargo, como podemos ver en (11.3 ), sólo los
términos de grado n del polinomio pn son diferentes de cero. Entonces
Z Z
d dPn 1
Pn sh dx = l1 n + s2 n (n − 1) Pn Pn hdx
A dx dx c1 A
por lo que
1 1 dP1 1 d2 s
λn = − l1 n + s2 n (n − 1) = −n + (n − 1) 2
c1 c1 dx 2 dx
2
Ejemplo 11.86. Los polinomios de Hermite Hn estan dados por h = e−x ,
s = −1, cn = 1, por lo que los primeros terminos son: H0 = 1, H1 = 2x, etc.
Entonces
dH1 d2 s
= 2, = 0.
dx dx2
Se tiene que λn = −2n, la ecuación diferencial será
d −x2 dHn 2
−e − 2ne−x Hn = 0
dx dx
190 11. ESPACIOS CON MEDIDA
o sea
d2 d
2
Hn − 2x Hn + 2nHn = 0
dx dx
para toda n = 0, 1, · · · . A esta ecuación diferencial se le conoce como la ecuación
diferencial de Hermite.
Ejemplo 11.87. Los polinomios de Legendre Pn estan dados por h = 1, s =
1 − x2 , c1 = −1/2, por lo que los primeros terminos son: P0 = 1, P1 = x, etc.
Entonces
dP1 d2 s
= 1, = −2.
dx dx2
Se tiene que λn = −n [−2 − (n − 1)] la ecuación diferencial será
d dPn
1 − x2 + n (n + 1) Pn = 0
dx dx
o sea
d2 d
1 − x2 Pn − 2x Pn + n (n + 1) Pn = 0
dx2 dx
para toda n = 0, 1, · · · . A esta ecuación diferencial se le conoce como la ecuación
diferencial de Legendre.
Ejemplo 11.88. Los polinomios de Laguerre Ln dados por h = e−x , s = x,
cn = 1, por lo que los primeros terminos son: L0 = 1, L1 = −x + 1, etc. Entonces
dL1 d2 s
= −1, = 0.
dx dx2
Se tiene que λn = −n (−1) y la ecuación diferencial de Laguerre será
d −x dLn
xe + ne−x Ln = 0
dx dx
o sea
d2 d
x 2 Ln + (1 − x) Ln + nLn = 0
dx dx
para toda n = 0, 1, · · · . A esta ecuación diferencial se le conoce como la ecuación
diferencial de Laguerre. Suelen definirse también los polinomios asociados
de Laguerre Lm n por la ecuación
dm
Lmn (x) = Ln
dxm
las cuales son solución de la ecuación diferencial
d2 m d m
x Ln − (m + 1 − x) L + (n − m) Lm n =0
dx 2 dx n
Ejercicio 11.89. Escriba la ecuación diferencial de los polinomios de Tchebichef
de primera clase Tn .
Ejercicio 11.90. Escriba la ecuación diferencial de los polinomios de Jacobi
P.
Ejercicio 11.91. Escriba la ecuación diferencial de los polinomios de Gegen-
bauer Cnλ .
Ejercicio 11.92. Escriba la ecuación diferencial de los polinomios de Tchebichef
de segunda clase Un .
Part 5
ECUACIONES DIFERENCIALES
CHAPTER 12
1. Métodos de Solución
Las ecuaciones diferenciales son de una importancia escencial en todas las ramas
de las ciencias. La razón es muy simple, todas las leyes fundamentales de las ciencias
tienen que ver con la caracteristica mas importante de la materia: el movimiento.
Las leyes fundamentales de las ciencias son relaciones entre movimientos en el es-
pacio, el tiempo, la temperatura, la presion, los momentos, las luminosidades, etc.,
las cuales se representan con derivadas. Estas relaciones entre el movimiento da
como resultado relaciones entre derivadas, es decir, da como resultado ecuaciones
diferenciales. Toda la materia esta en movimiento, esta es su caracteristica enscen-
cial. Lo estático es solo una aproximación del estado de la materia que en ocaciones
nos da resultados suficientemente buenos para entender algún fenómeno. Pero el
movimiento esta inherente en toda la materia y las relaciones entre este moviminto
nos da las leyes fundamentales de la naturaleza. Es por eso que estas leyes pueden
casi siempre ser representadas por ecuaciones diferenciales. Una solución de estas
ecuaciones diferenciales es un caso particular, una aplicación de la ley que esta
siendo estudiada. En los dos capitulos que siguen estudiaremos las lineas mas ele-
mentales para la solución de ecuaciones diferenciales. Vamos a iniciar con las más
sencillas de estas, las ecuaciones diferenciales lineales. Por simplicidad iniciaremos
con ecuaciones diferenciales en donde el argumento, la incognita, solo depende de
una variable. A estas ecuaciones diferenciales se les llama ordinarias.
Definición 12.1. Sea y : ℜ → ℜ tal que y = y(x), función continua y derivable.
Una ecuación diferencial ordinaria es una relación tal que
F = F (x, y, y ′ , y ′′ , · · · ) = f (x), para toda F : ℜ × C ([a, b]) × · · · → ℜ
Notación 12.2. En estos dos capitulos, y ′ representa la derivada de y respecto
de alguna variable, y ′′ representa la segunda derivada de y, etc.
Definición 12.3. Se dice que la ecuación diferencial es lineal, si F es lineal
en todas las entradas que contengan a y y sus derivadas.
Definición 12.4. Se dice que la ecuación diferencial es de orden n, si la max-
ima derivada de y que aparece en la ecuación diferencial es la n-esima.
Definición 12.5. Se dice que la ecuación diferencial es homogenea, si f (x) =
0.
Ejemplo 12.6. Sea F : ℜ×C ([a, b])×C ([a, b]) → ℜ, tal que y ′ +a(x)y = f (x).
Se llama ecuación lineal ordinaria de primer orden.
Ejemplo 12.7. Sea F : ℜ × C ([a, b]) × C ([a, b]) × C ([a, b]) → ℜ, tal que
y ′′ + a(x)y ′ + b(x)y = f (x). Se llama ecuación lineal ordinaria de segundo
orden, etc.
193
194 12. ECUACIONES DIFERENCIALES ORDINARIAS
donde A′ = a(x).
1. MÉTODOS DE SOLUCIÓN 195
y1 = c1 x exp(−x) y y2 = c0 exp(−x).
La solución general es entonces dada por:
y(x) = (c1 x + c0 ) exp(−x)
Ejemplo 12.23. La ecuación del oscilador armónico es
(12.2) y ′′ + ω 2 y = 0.
El√polinomio caracteristico es r2 + ω 2 = 0. Este polinomio tiene 2 raices, r =
± −ω 2 = ±iω. Si ω es real, la solución de la ecuación diferencial es
y(x) = c1 exp(iωx) + c2 exp(−iωx)
= c1 (cos (ωx) + i sin (ωx)) + c2 (cos (ωx) − i sin (ωx))
= (c1 + c2 ) cos (ωx) + i (c1 − c2 ) sin (ωx)
= A1 cos (ωx) + A2 sin (ωx)
= A sin (δ) cos (ωx) + A cos (δ) sin (ωx)
= A sin (ωx + δ)
= B cos (σ) cos (ωx) − B sin (σ) sin (ωx)
= B cos (ωx + σ)
donde c1 + c2 = A1 = A sin (δ) = B cos (σ) y i (c1 − c2 ) = A2 = A cos (δ) =
B sin (σ). Esta solución es una función oscilante. Si ω es imaginaria, la solución
sera
y(x) = c1 exp(ωx) + c2 exp(−ωx)
que es una función monotona. Si ω es compleja, la solución es una mezcla de las
dos anteriores. Vean la figura 1.
2. Transformadas Integrales
Las transformadas integrales son un mecanismo para simplificar ecuaciones
diferenciales. La idea es llevar a la ecuación diferencial a otro espacio en donde se
pueda resolver y luego con la transformación inversa regresar al espacio original.
Este último paso no siempre es simple o en ocaciones sucede que la ecuación diferen-
cial es mas complicada en el espacio de llegada. Por eso no hay una receta universal
para todas las ecuaciones y por eso existen varias trasformaciones, cada una ade-
cuada para algunas de estas. Vamos a inicar con la definición de transformación
integral.
Definición 12.33. Sean f : C → C y g : C → C funciones y E un espacio
Rb
de Hilbert con producto interno (f, g) = a f ḡ dx con xs ∈ E. La transformada
integral de una ecuación diferencial lineal de segundo orden
eq = y ′′ + a(x)y ′ + ω(x)2 y − f (x)
respecto a xs , se define como F (s) = (eq, xs ).
El objetivo de esta transformada es el siguiente. Ya que
(yxs )′ = yx′s + y ′ xs ,
el producto interno de y ′ con xs se puede escribir como:
Z b Z b Z b
′ ′ ′ b
(y , xs ) = y x̄s dx = (y x̄s ) dx − y x̄′s dx = y x̄s |a − (y, x̄′s ) .
a a a
200 12. ECUACIONES DIFERENCIALES ORDINARIAS
Entonces conviene escoger una función del espacio de Hilbert para la cual también
conocemos el producto (y, x′s ). Si esto es posible, en ocaciones se puede encotrar
una solución de la ecuación diferencial. Veamos algunos ejemplos.
Ejemplo 12.34. ER un espacio de Hilbert real con xs = exp(−sx) ∈ E y pro-
∞
ducto interno (f, g) = 0 f gdx. Para esta función se cumple que
Z ∞
′
(y, x′s ) = y (exp(−sx)) dx = −s (y, xs ) .
0
De aquı́ se sigue
Z ∞
′ ∞
(y , xs ) = y ′ exp(−sx)dx = y exp(−sx)|0 + s (y, xs ) = sF (s) − y(0).
0
para toda función tal que y(∞) = y(−∞) = 0. Estas condiciones son tı́picas en una
multitud de problemas fı́sicos, quı́micos y de ingenierı́a. Análogamente se tiene:
(y ′′ , xk ) = −k 2 F (k).
A esta transformada integral se le llama la transformada continua de Fourier.
Estas transformadas integrales tienen varias propiedades. Algunas de éstas son
Teorema 12.39 (Transformada de Laplace). Sea E espacio de Hilbert y y ∈ E,
cuya transformada de Laplace es F (s) = (y, xs ). Entonces
1) F es lineal
2) La transformada de exp(ax)y(x) es
(exp(ax)y(x), xs ) = F (s − a)
y(x − a) para x>a
3) Si f (x) = , la transformada de f es
0 para x<a
(f, xs ) = exp(−as)F (s)
4) La transformada de y(ax) es
1 s
(y(ax), xs ) = F
a a
Rx
5) La transformada de 0
y(x)dx es
Z x
1
y(x)dx, xs = F (s)
0 s
6) La transformada de xn y(x) es
n dn
(xn y(x), xs ) = (−1) F (s)
dsn
7) La transformada de y(x)/x es
Z ∞
y(x)
, xs = F (t)dt
x s
x2 y ′′ + xy ′ + x2 y = 0.
sirve
Teorema 12.44 (Transformada de Fourier). Sea E espacio de Hilbert y y ∈ E,
cuya transformada de Fourier es F (k) = (y, xk ). Entonces
1) F es lineal
2) La transformada de exp(iax)y(bx) es
1 k−a
(exp(iax)y(bx), xk ) = F
b b
204 12. ECUACIONES DIFERENCIALES ORDINARIAS
3) La transformada de xn y(x) es
dn
(xn y(x), xk ) = in F (k)
dk n
Ejercicio 12.45. Demostrar el teorema anterior.
Lo que vamos a ver a continuación es un teorema que nos dice que pasa con la
transformada del producto de dos funciones. Este teorema es de gran importancia
y aplica en las transformaciones de Fourier, se llama el teorema de la convolución.
Para introducir el teorema, primero vamos a definir que es la convolución
3. Método de Series
El método de series o de polinomios es muy usado para resolver ecuaciones di-
firenciales lineales de segundo orden con coeficientes variables. Consiste en proponer
una solución en series, es decir, usando el hecho de que (P, ·) el conjunto de los poli-
nomios de grado arbitrario con su producto canónico y {pn }n=0,1,··· = {1, x, x2 , · · · }
es un sistema completo en Cℜ . Entonces, toda función suave, solución de una
ecuación diferencial se puede escribir como
∞
X ∞
X
n n
f (x) = (p · x ) x = an xn .
n=0 n=0
1. Métodos de Solución
Las ecuaciones fundamentales de la fı́sica, la quı́mica y la ingenierı́a son ecua-
ciones diferenciales parciales. En esta parte vamos a ocuparnos de las ecuaciones
mas usadas en la literatura de las ciencias fı́sicas, que son a su vez muy represen-
tativas de las ecuaciones diferenciales parciales lineales en general. Esta sección
es tal vez la mas limitada de este curso, puesto que la cantidad de material sobre
este tema es muy basto. Aqui nos limitaremos a utilizar algunos métodos para la
resolución de estas ecuaciones diferenciales en los casos mas simples y comunes que
hay. Las ecuaciones diferenciales que vamos a tratar en esta parte son:
: 1) La ecuación de onda
1 ∂2u
(13.1) u = ∇2 u − = d(x, y, z)
v 2 ∂t2
: 2) La ecuación de Difusión
∂u
(13.2) = ∇ · (D∇u)
∂t
: 3) La ecuación de Poisson
(13.3) ∇2 u = d(x, y, z)
donde u, d y D son funciones tales que u = u(x, y, z, t), d = d(x, y, z, t) y
la función D = D(x, y, z). A la función d se le llama la fuente.
Notación 13.1. El operador nabla se define como
∂ ∂ ∂
(13.4) ∇= , ,
∂x ∂y ∂z
y el operador
= ∇2 − 1/v 2 ∂ 2 /∂t2
es el operador d’Alabertiano
Notación 13.2. Al operador ∇2 = ∇ · ∇ se le conoce como Laplaciano.
Notación 13.3. En general denotaremos a los operadores diferenciales por L,
de tal forma que si por ejemplo L = , la ecuación de onda se escribe como Lu = d,
o si L = ∇2 , la ecuación de Poisson se escribe como Lu = d, etc.
Notación 13.4. A la ecuación homogenea de Poisson se le conoce como la
ecuación de Laplace.
Notación 13.5. Se suele clasificar a las ecuaciones diferenciales como ecua-
ciones hiperbolicas, como la ecuación de onda, ecuaciones parabolicas, como
la ecuación de difusión y ecuaciones elipticas, como la ecuación de Poisson.
209
210 13. ECUACIONES DIFERENCIALES PARCIALES
x = r sin(θ) cos(ϕ)
y = r sin(θ) sin(ϕ)
z = r cos(θ)
1 ∂ 2 ∂ 1 ∂ ∂ 1 ∂2
∇2 = r + sin(θ) +
r2 ∂r ∂r r2 sin(θ) ∂θ ∂θ r2 sin2 (θ) ∂ϕ2
y las coordenadas cilindricas, en donde
x = ρ cos(θ)
y = ρ sin(θ)
z = z
1 ∂ ∂ 1 ∂2 ∂2
∇2 = ρ + 2 2+ 2
ρ ∂ρ ∂ρ ρ ∂θ ∂z
Las tres ecuaciones diferenciales (13.1-13.3) tienen gran importancia en fı́sica
y quı́mica, aunque aquı́ no nos ocuparemos de esto, solo de sus soluciones. Existen
también una gran cantidad de metodos de solucion para estas ecuaciones. En este
capı́tulo nosotros nos limitaremos a tres metodos: separación de variables, desar-
rollos de Fourier y funcı́on de Green. Vamos a iniciar con el metodo de separación
de variables.
2. Separación de Variables
El metodo de separación de variables consiste en proponer un ansatz en el que
la función u se puede escribir como una función que depende del tiempo y otras
que dependen de las demas variables, es decir, como
Comentario 13.7. Observemos que sin( vπ
L t+
L
2v ) = cos( πv
L t)
212 13. ECUACIONES DIFERENCIALES PARCIALES
Ejemplo 13.13. Vamos a suponer que la cuerda tiene una fuente. Es decir,
alguien o algo esta provocando la onda. En tal caso la ecuación de la onda se ve
como
∂2u 1 ∂2u
− = d(x, t)
∂x2 v 2 ∂t2
Si la fuente es del tipo d = σ(x) sin(kt), podemos utilizar el ansatz u(x, t) =
X(x) sin(kt). Si subtituimos en la ecuación anterior se obtiene
d2 X k2
+ X = σ(x)
dx2 v2
que es la ecuación del oscilador armónico con fuentes. Esta ultima ecuación se
resuelve entonces como en la sección anterior.
Ejemplo 13.14. Vamos a resolver la ecuación de la cuerda (X(0) = 0, X(L) =
0) suponiendo que la fuente de sonido es de un arco de violin tal que d(x, t) =
A cos(lx) sin(kt). La ecuación de onda, con el ansatz u = X(x) sin(kt), se reduce a
resolver la ecuación del oscilador con la fuente
d2 X k2
2
+ 2 X = A cos(lx)
dx v
Usando las técnicas estudiadas para resolver la ecuación del oscilador con fuentes,
encontramos que la solución es
A kx kx
X (x) = − 2 B sin − cos + cos (lx)
l2 − kv2 v v
214 13. ECUACIONES DIFERENCIALES PARCIALES
donde
kL
cos v− cos (lL)
B= .
sin kL
v
Lo primero que llama la atención es que cuando la frecuencia de la fuente k se
aproxima al valor lv, el factor fuera del parentesis crece sin lı́mite. Sin embargo, el
termino dentro del parentesis va a cero, de tal forma que en el lı́mite
A sin(lx) (x − L)
lim X = ,
k→lv 2 l
por lo que la vibración es finita para todos los valores de k. La solución u(x, t) =
X(x) sin(kt), es una cuerda vibrante con extremos en el origen y en L, que se mueve
según la amplitud de vibración l.
Ejercicio 13.15. Grafiquen la solución anterior para k = 1, 2, con v = 1,
variando la longitud de la cuerda l y la amplitud de la fuente A.
Ejemplo 13.16. Supongamos ahora que hacemos resonar un tambor, es decir,
una membrana circular. Un tambor tiene simetria cilindrica (de hecho es un cilin-
dro), asi es que usaremos coordenadas cilindricas. La membrana no tiene espesor,
asi que u = u(ρ, θ, t). La ecuación de onda es para este caso
1 ∂ ∂u 1 ∂2u 1 ∂2u
ρ + 2 2 − 2 2 =0
ρ ∂ρ ∂ρ ρ ∂θ v ∂t
Vamos a utilizar el mismo ansatz que en el ejemplo anterior, pero ahora en tres
dimensiones, u = R(ρ)Θ(θ)T (t). Substituimos y encotramos de nuevo que
11 ∂ ∂R 1 1 ∂2Θ 1 ∂2T
ρ + 2 2
= 2 = −c
R ρ ∂ρ ∂ρ Θ ρ ∂θ v T ∂t2
lo cual implica tres ecuaciones, una para cada función. Primero, la ecuación se
separa como sigue
∂2T
2
+ c0 v 2 T = 0
∂t
11 ∂ ∂R 1 1 ∂2Θ
ρ + = −c0
R ρ ∂ρ ∂ρ Θ ρ2 ∂θ2
Ahora buscamos separar las dos variable restantes, es decir
1 ∂ ∂R 1 ∂2Θ
ρ ρ + c0 ρ 2 = − = c1
R ∂ρ ∂ρ Θ ∂θ2
de donde se obtiene una ecuación para cada variable
d2 Θ
+ c1 Θ = 0
dθ2
∂ ∂R
ρ ρ + c0 ρ 2 − c1 R = 0
∂ρ ∂ρ
Las ecuaciones para T y Θ son de nuevo la ecuación del oscilador armónico. La
ecuación para R es la ecuación de Bessel, haciendo el cambio de variable c0 ρ2 = x2 ,
√
es fácil ver que la solución para la ecuación de R es R(ρ) = J√c1 ( c0 ρ). La solución
general será entonces
√ √ √
u(ρ, θ, t) = u0 J√c1 ( c0 ρ) sin ( c1 (θ + θ0 )) sin ( c0 v (t + t0 )) .
2. SEPARACIÓN DE VARIABLES 215
Ejercicio 13.17. Resuelvan la ecuación de la cuerda pero ahora con las condi-
P2
ciones iniciales lF (πρ/L) = uk Jk (πρ/L) sin (kθ), donde de nuevo u0 = 0,
k=−2
u±1 = 4 y u±2 = 1. Grafiquen la solución a todo tiempo con l = 1 y variando el
tamaño del tambor L.
Notación 13.18. A la ecuación
∇2 u + k 2 u = ρ
se le llama la ecuación de Helmholtz
Ejemplo 13.19. Vamos a resolver la ecuación homogenea de Helmholtz en
coordenadas esféricas. Usamos para esto, el metodo de separación de variables.
Proponemos el ansatz u(r, θ, ϕ) = R(r)Θ(θ)Φ(ϕ). Si subtituimos en la ecuación
diferencial, se obtiene
1 1 ∂ 2 ∂R 1 1 ∂ ∂Θ 1 1 ∂2Φ
2
r + 2
sin(θ) + 2 + k2 = 0
R r ∂r ∂r Θ r sin(θ) ∂θ ∂θ Φ r sin (θ) ∂ϕ2
2
Para separar las variables, primero multiplicamos toda la ecuación por r2 sin2 (θ)
y separamos la ecuación para Φ. Se obtiene
1 2 ∂ 2 ∂R 1 ∂ ∂Θ
sin (θ) r + sin(θ) sin(θ) + r2 sin2 (θ)k 2 = m2
R ∂r ∂r Θ ∂θ ∂θ
d2 Φ
+ m2 Φ = 0
dϕ2
la cual es otra vez la ecuación del oscilador armónico para la función Φ. Ahora
separamos las ecuaciones para R y para Θ . Se obtiene
1 ∂ ∂R 1 1 ∂ ∂Θ m2
r2 + k 2 r2 = − sin(θ) + = l (l + 1)
R ∂r ∂r Θ sin(θ) ∂θ ∂θ sin2 (θ)
en donde la constante la hemos llamado l (l + 1) por conveniencia. Nos queda una
ecuación para cada variable, estas son
d dR
r2 + k 2 r2 − l (l + 1) R = 0
dr dr
1 d dΘ m2
sin(θ) + l (l + 1) − Θ = 0
sin(θ) dθ dθ sin2 (θ)
216 13. ECUACIONES DIFERENCIALES PARCIALES
Estas dos ecuaciones diferenciales pueden resolverse usando los métodos de la sección
anterior. Sin embargo, estas dos ecuaciones ya son conocidas.
√ Vamos a hacer un
cambio de variable. En la primera hagamos R = S/ r y en la segunda hagamos
x = cos(θ). La ecuación para R se convierte entonces en la ecuación de Bessel y la
ecuación para Θ en la ecuación de Legendre, esto es
2
2 !
2d S dS 2 2 1
r +r + k r − l+ S = 0
dr2 dr 2
d2 Θ dΘ m2
1 − x2 − 2x + l (l + 1) − Θ = 0
dx2 dx 1 − x2
La solución general de la ecuación de Helmholtz es entonces
X Jl+1/2 (kr)
u(r, θ, ϕ) = √ Plm (cos (θ)) e±imϕ
r
l,m
d2 Θ
+ c1 Θ = 0
dθ2
∂ ∂R
ρ ρ + c0 ρ 2 − c1 R = 0
∂ρ ∂ρ
∂2Z
− c0 Z = 0
∂z 2
donde u = R(r)Θ(θ)Z(z). De la forma de la solución general de la ecuación.
d2 Φ
+ m2 Φ = 0
dϕ2
d dR
r2 − l (l + 1) R = 0
dr dr
d2 Θ dΘ m2
1 − x2 − 2x + l (l + 1) − Θ = 0
dx2 dx 1 − x2
4. Funciones de Green
Para la resolución de ecuaciones diferenciales no homogeneas existe una técnica
llamada función de Green. Básicamente consiste en escribir la función solución y la
función de la parte no homogenea, en términos de una base del espacio de Hilbert
correspondiente. Por sencillez se escoge la base correspondiente a las soluciones de
la ecuación homogenea. Vamos a ver esto.
Algoritmo 13.37. Sea Lu = 0 una ecuación diferencial. Sea Luk − λk uk = 0
una ecuación diferencial
R con soluciones uk en un espacio de Hilbert con el producto
interno (f, g) = f ḡ, siendo {uk }k∈I una base de este espacio de Hilbert. Sea
Lu − λu = f
la ecuación diferencial no homogenea que queremos resolver. Podemos escribir la
función u y la función f en terminos de la base {uk }k∈I , usando la serie de Fourier
en la base {uk }k∈I , es decir
X X
u= (u, uk ) uk := ck u k
kǫI k∈I
y
X X
f= (f, uk ) uk := fk u k .
kǫI k∈I
como {uk } es una base del espacio de Hilbert, se sigue que las constantes ck deben
cumplir
fk (f, uk )
ck = =
λk − λ λ −λ
Z k
1
= f ūk
λk − λ
Entonces la solución de la ecuación diferencial no homogenea será
X uk Z
u = f ūk
λk − λ
kǫI
Z X
uk (x)
= ūk (y) f (y) dy
λk − λ
kǫI
oscilador armónico
d2
uk − λk uk = 0
dx2
Si las condiciones de frontera son tales que u (0) = u (l) = 0, como
p el de una cuerda
fija vibrando, las funciones propias del operador son u (x) = 2/l sin(kπx/l) y los
2
valores propios serán λk = − (kπ/l) . De donde la función de Green es
∞ kπy
2 X sin( kπx
l ) sin( l )
G (x, y) = 2
l ω 2 − kπ
k=0 l
d
d
Si tomamos al operador diferencial L = dx 1 − x2 dx en el intervalo [−1, 1], los
valores propios del operador L serán λn = −n (n + 1) y las funciones propias serán
los polinomios de Legendre. Eso implica que la función de Green para la ecuación
diferencial de Legendre es
∞
2n + 1 X Pn (x) Pn (y)
G (x, y) =
2 n=0 λ + n (n + 1)
TOPOLOGÍA
CHAPTER 14
ESPACIOS TOPOLÓGICOS
1. Definición y Ejemplos
Los espacios topológicos son la base, entre otras cosas, de la estructura matemática
que le dará forma a los conjuntos. Como veremos en esta sección, basicamente dos
espacios topologicos son los mismos (homeomorficos), si se puede moldear uno de
ellos en plastilina y transformar este hasta llegar al otro sin romper la plastilina,
sin hacerle agujeros. Por ejemplo, un vaso para tomar agua y una pelota, serı́an
los mismos desde el punto de vista de la topologı́a, ası́ mismo, una taza con una
aza es equivalente a una dona, etc. Estos espacios han adquirido importancia en
varias ramas de la fı́sica y la ingenierı́a para poder hacer modelos. Por ejemplo, en
la ingenierı́a, las imágenes que se obtienen en la computadora son dijitales, estan
hechas por pixeles discontinuos. En este caso, resulta muy inexacto para algunas
aplicaciones tomar el espacio métrico correspondiente. En la actualidad existen
varios modelos topológicos que prometen ser más eficientes. En fı́sica, los campos
estan cuantizados, el campo gravitacional es el espacio tiempo mismo, si éste está
cuantizado, no pude ser metrizable y por tanto no hay una métrica que lo repre-
sente, el campo gravitacional vive entonces en espacios que no pueden ser modelados
por espacios métricos simples. Los espacios topológicos podrı́an ser más exactos
en modelar espacios cuantizados o los espacios cuánticos mismos. La geometrı́a
diferencial es una herramienta que se utiliza hoy en dı́a intensivamente en varias
ramas de la ciencia. El control automático necesita de esta herramienta en gran
medida. En este capı́tulo veremos tanto la topologı́a como la geometrı́a diferencial.
Iniciemos con la definición de espacio topológico.
Comentario 14.3. Noten que tanto el conjungo vacio φ como todo el conjunto
X son abiertos y cerrados a la vez, ya que φc = X y X c = φ. Esta es una propiedad
de todos los espacios topológicos.
Más adelante veremos algunos ejemplos de espacios topológicos para ser más
explicitos, pero por ahora vamos a definir algunos conceptos que nos van a servir
durante nuestra discusión.
Definición 14.4. Sea (X, τX ) espacio topológico, U ∈ τX y x ∈ U . Se dice
entonces que U es una vecindad de x, se denota x ∈ Ux . Un entorno de x ∈ X
es un sobconjunto N ⊂ X, tal que x ∈ N y existe Ux ⊂ N , vean la figura 1.
Es decir, una vecindad de algún punto es siempre un abierto que contiene
al punto, mientras el entorno es un conjunto más grande que algún abierto, que
contiene al punto, pero no es un abierto él mismo.
topológico es métrico. Es en éste sentido que los espacios topológicos son más gen-
erales que los espacios métricos. A veces es posible definir una métrica en un espacio
topológico, en éste caso se dice que el espacio topológico es metrizable, formalmente
se dice que:
Definición 14.15. Un espacio topológico (X, τX ) cuyos abiertos son los con-
juntos abiertos del espacio métrico (X, d), se dice metrizable. A la topologı́a τX
sobre X se le llama topologı́a inducida por la distancia d.
Veamos la siguiente interesante proposición:
Proposición 14.16. En todo espacio topológico (X, τX ) metrizable, para cualquier
par de puntos, siempre existen dos vecindades disjuntas.
Demostración 14.17. (X, τX ) es metrizable, implica que existe una distancia
d que induce τX . Sean x, y ∈ X con x 6= y, entonces d (x, y) = 2ǫ para algún ǫ > 0.
Tomemos las bolas Bǫ (x) = {z ∈ X | d (x, z) < ǫ} y Bǫ (y) = {w ∈ X | d (w, y) < ǫ} ,
los cuales son abiertos de τX . Supongamos z ∈ Bǫ (x) ∩ Bǫ (y) , se sigue que
d (x, y) ≤ d (x, z) + d (z, y) < ǫ + ǫ = 2ǫ, pero d (x, y) = 2ǫ, lo cual es una con-
tradicción. Por tanto z ∈/ Bǫ (x) ∩ Bǫ (y) se sigue entonces que Bǫ (x) ∩ Bǫ (y) = φ.
De esta proposición se desprende que si queremos construir un espacio topológico
metrizable, le tenemos que pedir primero que existan dos vecindades disjuntas
para cada punto. Mas adelante veremos que a estos espacios se les llama espa-
cios topológicos tipo T2 o Hausdorff.
En ocaciones los conjuntos son productos cartesianos de espacios topológicos o
se pueden descomponer en productos cartesianos de estos. En ese caso, si cada com-
ponente es un espacio topológico, el espacio total también lo será. Este resultado
se sigue de la proposición:
Proposición 14.18. El producto cartesiano de espacios topológicos es un es-
pacio topológico.
Demostración 14.19. Sean (X, τX ) y (Y, τY ) espacios y (X × Y, τX×Y ) con
τX×Y = {uniones de elementos U × V ∈ τX × τY }. Entonces
i) φ ∈ τX×Y ya que φ = φ × φ, y X × Y ∈ τX×Y ya que X × Y ∈ τX × τY .
′ ′ ′ ′
ii) Sean W = ∪ Uα × Vα y W ′ = ∪ Uβ × Vβ , Uα, Uβ ∈ τX , Vα, Vβ ∈ τY ,
α∈j β∈k
′ ′
para toda α ∈ J, β ∈ K. Entonces W ∩ W ′ = ∪ Uα × Vα ∩ ∪ Uβ × Vβ =
α∈J β∈k
′ ′
∪ Uα ∩ Uβ × Vα ∩ Vβ ∈ τX×Y .
(α,β)∈J×K
n
A ∩ ∩ Ui ∈ τA . Se sigue que (A, τA ) es espacio topológico.
i=1
Ejemplo 14.54. Cláramente ℜ\Z es denso en los reales, pues su cerradura son
los reales.
Comentario 14.55. Note que si A es un espacio métrico, A es denso si para
todo x ∈ X y para todo ǫ > 0 existe p ∈ A tal que p ∈ Bǫ (x).
3. Funciones Continuas
En esta sección vamos a introducir conceptos tı́picos de espacios normados
o métricos relacionados con funciones, pero usando sólo la topologı́a del espacio.
Vamos a iniciar con el concepto de continuidad de funciones en espacios topológicos.
Básicamente la idea es la misma que en espacios métricos, pero como aquı́ no
tenemos una distancia, tenemos que usar sólo la existencia de los abiertos. La
idea es entonces, que si podemos mapear un abierto, tan arbitrario (“pequeño”)
como sea, y éste es también abierto en el dominio, entonces la función es continua.
Formalmente se tiene:
Definición 14.56. Sean (X, τX ) y (Y, τy ) espacios topológicos. Se dice que el
mapeo f : X → Y x → f (x) es una función continua, si f −1 (V ) ∈ τX para todo
V ∈ τY , i.e. preimágenes de abiertos son abiertas.
Notación 14.57. Al conjunto de funciones continuas se denota por M ap(X, Y ) =
C 0 (X, Y ).
Dado que en un espacio métrico la topologı́a se construye con los abiertos del
espacio, podemos demostrar una serie de proposiciones en espacios topológicos que
después se pueden extender a espacios métricos o normados. Veamos la siguiente
proposición.
Proposición 14.58. Sean (X, τX ) y (Y, τY ) espacios topológicos f : X → Y,
función. Son equivalentes
1) f es continua.
2) Para todo x ∈ X y Wf (x) ∈ τY existe Vx ∈ τX tal que f (Vx ) ⊂ Wf (x)
3) f (A) ⊂ f (A) para todo A ⊂ X
4) f −1 (B) ⊂ f −1 (B) para todo B ⊂ Y
5) Si A es cerrado en Y implica que f −1 (a) es cerrado en X.
Demostración 14.59. 1) =⇒ 2) Sean x ∈ X y Wf (x) ⊂ τY ; como f es
continua x ∈ f −1 (Wf (x) ) ∈ τx y entonces existe Vx ∈ τX tal que Vx ⊂ f −1 (Wf (x) ),
se sigue entonces que f (Vx ) ⊂ Wf (x) .
2) =⇒ 3) Sea b ∈ A, entonces para todo Ub ∈ τX se sigue que Ub ∩ A 6= φ,
entonces φ 6= f (Ub ∩ A) ⊂ f (Ub ) ∩f (A). Sea Wf (b) ∈ τY arbitrario, por 2) existe
Vb ∈ τX con f (Vb ) ⊂ Wf (b) , por lo que f (Vb ) ∩ f (A) ⊂ Wf (b) ∩f (A) es decir
f (b) ∈ f (A).
3) =⇒ 4) Sea a = f −1 (B) con B ⊂ Y ; por 3 f (A) ⊂ f (A) −1
= f (f (B)) ⊂ B,
ya que f f −1 (B) ⊂ B. Por lo tanto, también f −1 f (A) ⊂ f −1 (B) y como
A ⊂ f −1 f (A) tenemos A ⊂ f −1 (B); o sea f −1 (B) ⊂ f −1 (B).
4) =⇒ 5) Sea B cerrado en Y , por 4) f −1 (B) ⊂ f −1 (B) = f −1 (B) ⊂ f −1 (B)
por lo que f −1 (B) = f −1 (B), entonces f −1 (B) es cerrado en X.
5) =⇒ 1) Sea B ∈ τY , entonces B c es cerrado en Y , como f −1 (B c ) =
c
(f (B))c , por 5) se tiene que f −1 (B) es cerrado en X, o sea f −1 (B) ∈ τX .
−1
3. FUNCIONES CONTINUAS 239
4. Topologı́a cociente
Imaginemos que podemos construir una función entre dos conjuntos y que el
dominio tiene una topologı́a. Entonces podemos mapear los abiertos del dominio
al codominio y definir estos como abiertos del codominio. Surge la pregunta si
ahora las imagenes de estos abiertos forman una topologı́a para el codominio. La
respuesta la podemos dar en la siguiente proposición.
Proposición 14.87. Sean (X, τX ) espacios Y conjunto y f : X → Y función
sobre. El conjunto τf = V ∈ P (Y ) | f −1 (V ) ∈ τX es una topologı́a para Y , lla-
mada topologı́a cociente de Y respecto a f .
242 14. ESPACIOS TOPOLÓGICOS
p = q ó si p 6= q, (p, q) = ((0, y), (1, 1 − y)) ó ((1, y), (0, 1 − y)) . Gráficamente se
ve en las figura 7 y figura 8.
5. Espacios Compactos
Entre las nociones intuitivas que tenemos de conjuntos, existen dos clases que
se diferencian notablemente. Existen espacios como ℜ que no tienen fin y otros
como la esfera que son finitos. Por supuesto, desde el punto de vista matemático
podemos dar una diferenciacion de estos espacios, ya que no es lo mismo que un
conjunto no tenga fin o principio o que este conjunto sea simplemeten muy grande.
Para dar una noción concreta de estos conceptos, diremos que los conjuntos como
la esfera, son compactos. Basicamente la diferencia es que a la esfera la podemos
cubrir con un número finito de abiertos. La definición formal es:
∧
Notación 14.116. A la topologı́a τ = τX ∪ {V ∪ {∗}}V ∈K con K = {abiertos
con complemento compacto en X} se le llama la compactificación por un punto
de (X, τX ) o simplemente compactificación de X.
Ahora veamos el ejmplo de la compactificación de la recta real formalmente. Lo
que vamos a hacer es agregarle un punto a la recta real, que podemos llamar también
el infinito, pero puede ser lo que sea. Y luego definimos un homeomorfismo que vaya
del cı́rculo a la recta real. Ası́ demostramos que el cı́rculo es una compactificación
de la recta real. Aquı́ estudiaremos el ejemplo más general de la compactificación
de ℜn , esto es:
5. ESPACIOS COMPACTOS 247
∧
Ejemplo 14.117. La compactificación por un punto de ℜn está dada por ℜn =
n
ℜ ∪ {∞}, veamos esto.
Consideremos la función:
∧
σ : S n →ℜn
es decir
1 n+1
x1 , · · · , xn / 1 − xn+1 si x 6= (0, · · · , 0, 1)
σ : x ,··· ,x →
∞ si x = (0, · · · , 0, 1)
el cual es un homeomorfismo, con inversa σ −1 : ℜ̂n → S n dada por
1
−1 x1 , · · · , xn → 1+(x1 )2 +···+(x n )2 2x1 , · · · , 2xn , (x1 )2 + · · · + (xn )2 − 1
σ :
∞ → (0, · · · , 0, 1)
hom hom hom
= ℜ̂ y la esfera S 2 ∼
= ℜ̂n . Ejemplos de esto son el cı́rculo S 1 ∼
Entonces S n ∼ =
2 2 ∼
ℜ̂ = ℜ ∪ {∞} = C ∪ {∞} llamada esfera de Riemann, etc. A la función σ se
le llama proyección estereográfica . Vean la figura 11
Para terminar esta sección daremos una clasificación interesante de los espacios
topológicos según su estructura.
Definición 14.118. Sea(X, τX ) espacio topológico.
· Se dice que X es espacio T0 si para todo x, y ∈ X , x 6= y, existe Ux con
y∈/ Ux ó existe Uy con x ∈/ Uy
· Se dice que X es espacio T1 si para todo x, y ∈ X, x 6= y, existe Ux y Uy
con y ∈/ Ux y x ∈/ Uy
· Se dice que X es espacio T2 o Hausdorff si para todo x, y ∈ X, x 6= y,
existe Ux , Uy con Ux ∩ Uy = φ
· Se dice que X es espacio T3 o espacio regular, si X es T1 y si para todo
x ∈ X y F cerrado en X con x ∈ / F , existe Ux y U en τX con F ⊂ U y Ux ∩ U = φ
248 14. ESPACIOS TOPOLÓGICOS
6. Espacios Conexos
Un espacio topológico puede ser también hecho de piezas separadas, o pedazos
sin unión. Cuando los espacios son hechos de una sola pieza, se dice que son espa-
cios conexos. Para definir los espacios conexos es más sencillo definir los espacios
disconexos, es decir:
6. ESPACIOS CONEXOS 249
VARIEDADES DIFERENCIALES
1. Variedades
Las variedades son espacios topológicos que son localmente igual a ℜn . Este
hecho permite entonces utilizar conceptos que conocemos de ℜn y usarlos en la var-
iedad, al menos localmente (es decir, al menos para cada abierto). Por ejemplo, la
diferencial es un concepto bien importante de ℜn porque nos da un modelo simple
de movimiento. El movimiento es la propiedad más importante de todo objeto en
la naturaleza, de hecho la fı́sica se dedica a estudiar principalmente esta caracter-
istica, el movimiento. Ya sea el movimiento de un objeto o el movimiento de los
campos en el espacio tiempo o el movimiento de las cantidades termodinámicas en
un sólido. Esa es la razón de la importancia del cálculo diferencial, tanto en cien-
cias exactas, como en su aplicación más directa, que es la tecnologı́a avanzada. Las
variedades diferenciales son una generalización del cálculo diferencial a variedades,
que llamamos variedades diferenciales. En la actualidad, las variedades diferen-
ciales tienen aplicación en un gran número de áreas de la ciencia y la tecnologı́a.
Por sólo nombrar algunas, diremos que el mejor modelo que se tiene hasta el mo-
mento del espacio tiempo es el de una variedad diferenciable. El estudio de teorı́a
de campos en espacios curvos necesita para su mejor comprensión de las variedades
diferenciables. La función de calor en termodinámica es una fafiana, es decir, una
1-forma, que es un concepto formal de variedades diferenciables. O el estudio mod-
erno del control automático en ingenierı́a, usa intensivamente la herramienta de las
variedades diferenciales, etc. En este capı́tulo daremos los conceptos más impor-
tantes de las variedades y de las variedades diferenciables. Vamos a empezar por
su definición.
Definición 15.1. Una variedad real de dimensión n es un espacio topológico
de Hausdorff (M n , τM N ), tal que para todo elemento p ∈ M n existe una terna
c = (Up , ψ, V ) donde Up ∈ τM n , V ∈ τℜn y ψ : Up → V , homeomorfismo. Ver
figura 1.
Es decir, una variedad es un espacio topológico que localmente es ℜn (o sea,
para todo p ∈ M n , se tiene que Up ∈ τM n , es homeomorfo a ℜn ). Si en la definición
cambiamos real por complejo, tenemos variedades complejas de dimensión n. Por
hom
ejemplo, C ∼= ℜ2 es una variedad compleja de dimensión uno.
Para trabajar con variedades se acostumbra definir algunos conceptos de la
variedad, que estaremos usando en el futuro.
Definición 15.2. Sea M n una variedad, a:
· cα = (Uα , ψα , Vα ) , ∪ Uα = M n se le denomina carta sobre M n
α∈J
· Uα se le llama dominio de la carta.
· (Uα , ψα ) se le llama sistema de coordenadas sobre Uα
251
252 15. VARIEDADES DIFERENCIALES
· ψα−1 , Vα se le llama parametrización de Uα
· Vα = ψα (Uα ) se le llama imagen
de la cartacα
· ri : ℜn → ℜ, λ1 , · · · , λn → ri λ1 , · · · , λn = λi se llama la i-esima
función coordenada sobre ℜn
· xiα := ri ◦ ψα es la i-esima función coordenada del sistema de coorde-
nadas
· Sean cα y cβ dos cartas cα = (Uα , ψα , Vα ) y cβ = (Uρ , ψβ , Vβ ). A las funciones
ψαβ := ψβ ◦ ψα−1 : ψα (Uα ∩ Uβ ) → ψβ (Uα ∩ Uβ ) y se les llama funciones de
transición, donde ψαβ es un homeomorfismo, ver figura 2.
Comentario 15.3. Las funciones x1α , · · · , xnα : Uα → ℜn
p → x1α , · · · , xnα (p)
se pueden representar como ψα = x1α , · · · , xnα
Comentario 15.4. Todos los conceptos de la definición 15.2 dependen de los
abiertos del espacio topológico. Se dice entonces que son conceptos locales.
Es decir, cuando hablemos de algún concepto local, significa que este concepto
vale en los abiertos del espacio. Veamos algunos ejemplos de variedades.
1. VARIEDADES 253
Ejemplo 15.5. (ℜ, τℜn ) es una variedad real de dimensión n con una sola carta
c = (ℜn , id|ℜn , ℜn ) .
Ejemplo 15.6 (Pelota). Vamos a estudiar un ejemplo quevamos a utilizar a
lo largo de estos capı́tulos. Se trata de las pelotas o S 2 , τS 2 , con su topologı́a
heredada de ℜ3 . La pelota es una 3-esfera y es una variedad 2-dimesional real que
al menos tiene dos cartas. Estas son:
c1 = U1 , σ+ , ℜ2 con U1 = S 2 \ {(0, 0, 1)} .
donde el homeomorfismo σ+ esta definido como:
1
σ+ (x, y, z) = (x, y)
1−z
cuya inversa esta dada por:
−1 1
σ+ (x, y) = 2 2
2x, 2y, x2 + y 2 − 1
1+x +y
Análogamente, la segunda carta, ahora sin el polo sur, esta dada por:
c2 = U2 , σ− , ℜ2 con U2 = S 2 \ {(0, 0, −1)} .
254 15. VARIEDADES DIFERENCIALES
1
σ− (x, y, z) = (x, y)
1+z
cuya inversa esta dada por:
−1 1
σ− (x, y) =2 2
2x, 2y, −x2 − y 2 + 1
1+x +y
2
Entonces U1 ∪ U2 = S y σ+ y σ− son homeomorfismos. A σ+ se le llama la
proyección estereográfica desde el norte y a σ− desde el sur.
Ejemplo 15.7 (Esferas). Vamos ahora a generalizar el ejemplo anterior a
cualquier dimensión, y formemos la variedad de las esferas. La esfera con su
topologı́a heredada de ℜn , es el espacio topológico (S n , τS n ). La n-esfera es una
variedad n-dimesional, real que al menos tiene dos cartas. Estas son:
1 2
−1
σ+ x1 , · · · , xn = 2x1 , · · · , 2xn , x1 + · · · + xn2 − 1
12
1 + x + · · · + xn 2
Hay que comparar estos homeomorfismos con los de la compactificación de ℜn
en el ejemplo 14.117. Analogamente, la segunda carta, ahora sin el polo sur, esta
dada por:
1 2
−1
σ− x1 , · · · , xn = 2x1 , · · · , 2xn , −x1 − · · · − xn2 + 1
1 + x1 2 + · · · + xn 2
Entonces U1 ∪ U2 = S n y σ+ y σ− son homeomorfismos. Igual que en el caso
de las pelotas, a σ+ se le llama la proyección estereográfica desde el norte y a
σ− desde el sur.
En lo que sigue, vamos a trasladar el concepto de diferencial a la variedad
utilizando los homeomofismos de ésta en ℜn . Como sabemos como diferenciar en
ℜn , podemos definir diferenciales en la variedad. Cuando esto se puede, se dice que
la variedad es suave. Recordemos la definición de suave en ℜn .
Definición 15.8. Sean U y V abiertos de ℜn y ℜm respectivamente y f : U →
V . Se dice que f es suave si ri ◦ f : U → ℜ tiene derivadas de todos los órdenes.
1. VARIEDADES 255
2. Funciones suaves
El siguiente paso es definir la diferencial en una variedad diferenciable. Para
hacer esto, lo que se acostumbra es transladar a ℜn por medio de los homeomor-
fismos, la diferenciabilidad de una función. Vamos a iniciar con la definición de
diferencial de una función.
Definición 15.16. Sea f : M n → ℜ una función en una variedad (M n , A). f
es suave o diferenciable si f ◦ ψα−1 : ψα (Uα ) → ℜ es suave para toda carta de
A, ver figura 4.
Es decir, una función f que va de la variedad a los reales es suave, si su función
correspondiente, la que va de ℜn a los reales, es suave. Para analizar la función f
entonces, es necesario estudiar su función f ◦ ψα−1 correspondiente.
Notación 15.17. Se denota al conjunto de funciones suaves por C ∞ (M n , ℜ)
ó al conjunto de funciones suaves en la vecindad de x por C ∞ (M n , x, ℜ)
Comentario 15.18. Observe que
a) (C ∞ (M n , ℜ) , +, ·, ℜ, ·) es un álgebra conmutativa con unidad.
b) (C ∞ (M n , ℜ) , +, ·) es anillo
c) (ℜ, C ∞ (M n , ℜ) , +, ·) es espacio vectorial.
Definición 15.19. Si f es suave en todo punto x ∈ W ⊂ M n , se dice que f
es una función suave en W.
Proposición 15.20. f suave implica f continua.
Demostración 15.21. Sin dem.
En base a la definición de una función podemos definir la diferencial de una
función vectorial. Primero introduciremos la definición formal y luego explicaremos
con cuidado el significado de esta.
Definición 15.22. Sean M m y N n variedades y F : M m → N n función. F es
suave si para toda f ∈ C ∞ (N n , ℜ) F ∗ : C ∞ (N n , ℜ) → C ∞ (M m , ℜ) F ∗ (f ) =
f ◦ F es suave.
Para simplificar la notación es conveniente definir el full-back de una función.
2. FUNCIONES SUAVES 257
3. Vectores Tangentes.
En esta sección vamos a construir los vectores tangentes a una variedad difer-
enciable. Esta construcción tiene varios objetivos, pero el más importante es que
con los vectores tangente podemos construir un espacio vectorial en cada punto de
la variedad. A este espacio se le llama el espacio tangente. Es necesario construir
tantos vectores base del espacio tangente a la variedad diferenciable como la di-
mensión de la variedad, o sea, tantos como la dimensión al espacio ℜn al cual la
variedad diferenciable es homeomorfica. Ya construido el espacio tangente podemos
construir el dual a este espacio vectorial, o sea, el espacio de las transformaciones
lineales en el espacio tangente. A este espacio se le llama el espacio contangente de
la variedad. Estos dos espacios son muy importantes en modelos del espacio tiempo,
ya que la métrica de una variedad, es un elemento del espacio contangente, como
veremos más adelante. Para simplificar un poco, cuando hablemos de variedad,
vamos a referirnos realmente a variedad diferenciable, aunque ya no se especifique
en el texto. Vamos a iniciar con la definición de vector tangente a una variedad.
3. VECTORES TANGENTES. 259
Pn
∂
escribe como vx = ai ∂x i
x
. Sea xi = ri ◦ ψ ∈ C ∞ (M n , x, ℜ) observemos que
i=1
∂ ∂ ∂
i (xj ) = i xj ◦ ψ −1 ψ(x) = rj ψ = δij .
∂x x ∂r ∂ri (x )
es decir
n
X
∂ ∂ j
∂
.
= x
∂x′i x j=1 ∂x′i x ∂xj x
El resultado anterior nos da una fórmula, como la regla de la cádena, para
cambiar de homeomorfismo en la variedad, o sea, para cambiar de sistema de co-
ordenadas. En el lenguaje de variedades, hacer un cambio de coordenadas significa
cambiar de homeomorfismo de la variedad a los reales. Hay otro tipo de cambio de
coordenadas que tiene un significado dinámico, pero de eso no platicaremos aqui.
Algunos ejemplos simples de variedades son los siguientes.
Ejemplo 15.39. La variedad (ℜn , A = {(ℜn , id|ℜn , ℜn )}). Como ψ = id|ℜn
se sigue que xi = ri ◦ id|ℜn = ri entonces
X n n
X
i ∂
∂
vx = a i = ai i .
i=1
∂r x i=1 ∂r
iso
En tal caso Tx ℜn ∼
= ℜn , donde el isomorfismo esta dado por la función iso definida
P
n
como iso : Tx ℜn → ℜn , ai ∂r∂ i → a1 , · · · , an
i=1
4. Uno formas
En todo espacio vectorial se pueden definir transformaciones lineales que forman
a la vez un espacio vectorial de la misma dimensión, llamado el espacio dual (ver
capı́tulo 3). Entoces podemos formar el conjunto de transformaciones lineales en
el espacio tangente a una variedad y formar el espacio dual. A este espacio se le
llama espacio contangente y a sus elementos, las transformaciones lineales, se les
llama formas. Vamos a ver todo esto formalmente.
Sean M m y N n variedades y F ∈ C ∞ (M m , N n ) con x ∈ M m .
4. UNO FORMAS 261
d id|M n : Tx M m → Tx M m
vx → d id|M n (vx ) : C ∞ (M m , ℜ) → ℜ
g → d id|M n (vx ) (g)
∗
= vx id|M n (g) = vx (g ◦ id|M n ) = vx (g) es decir
d id|M n (vx ) = vx
Un caso especial de diferencial muy importante es cuando la diferencial es una
función inyectiva, entonces se dice que la diferencial es una inmersión: esto es:
Definición 15.48. Una inmersión de M m en N n , es una función suave F :
M → N n con diferencial dFx inyectiva.
m
Ahora vamos a definir las formas formalmente. Las formas son diferenciales
de una función que va de la variedad a los reales. Como los reales también son
una variedad, podemos usar la definición de la diferencial en estas funciones. La
diferencia es que vamos a identificar al espacio tangente de los reales con los reales
mismos. De hecho son el mismo espacio. Veamos esto formalmente.
Definición 15.49. Sea M n variedad, f ∈ C ∞ (M n , ℜ) y x ∈ M n . Entonces
dfx : Tx M n → Tf (x) ℜ,
d
vx → dfx (vx ) = λ ∈ Tf (x) ℜ, λ ∈ ℜ
dr
con
d
(r) = λ = vx (f ∗ (r)) = vx (r ◦ f ) = vx (f )
dfx (vx ) (r) = λ
dr
(recuerden que r : ℜ → ℜ tal que r (x) = x). Esto es
d
dfx (vx ) = vx (f ) ∈ Tf (x) ℜ.
dr
d d
Consideremos el isomorfismo J : Tf(x) ℜ → ℜ, λ dr → J λ dr = λ, entonces
n d
la composición J ◦ dfx : Tx M → ℜ, vx → J (df (vx )) = J vx (f ) dr = vx (f ) es
un homomorfismo de espacios lineales y J ◦ dfx es un elemento del espacio dual de
Tx∗ M n que llamaremos el espacio cotangente de la variedad en x. A los elementos
de este espacio, que denotamos como Tx∗ M n , se llaman 1-formas en x y se denotan
como wx ∈ Tx∗ M n . Identificamos entonces Tf(x) ℜ con ℜ (a través del isomorfismo
J), por lo que podemos escribir
dfx : Tx M n → ℜ,
vx → dfx (vx ) = vx (f ) .
264 15. VARIEDADES DIFERENCIALES
Comentario 15.50. Tomemos f = xi ∈ C ∞ (U, ℜ), dxi x : Tx M n → ℜ tal
que
n
X
∂ i
vx → dxi x (vx ) = vx xi = aj j
x = ai .
j=1
∂x x
∂
En particular tomemos vx = ∂xj x , entonces
i ∂ ∂
dx x = xi = δji ,
∂xj x ∂xj x
se sigue que dxi x i=1,··· ,n es una base del espacio Tx∗ M n llamada la base coorde-
nada dual o base de las 1-formas.
De una forma natural podemos definir campos vectoriales o campos de formas,
simplemente definiendo los espacios vectoriales para cada punto de la variedad.
Vamos a definir entoces los campos vectoriales y de formas.
∂
Definición 15.51. Sea M n variedad y ∂x i
base de Tx M n . Un campo
x
vectorial, es una asignación suave de vectores para cada punto x ∈ M n .
Notación 15.52. Se denota v (f ) : M n → ℜ, suave, tal que v (f ) (x) := vx (f ).
P
n
∂
Se tiene que v = ai ∂x i , tal que
r−1
n
X
∂
v (f ) (x) = ai (x) (f ) ,
i=1
∂xi x
i n
donde a : M → ℜ son funciones suaves para toda i = 1, · · · , n.
Notación 15.53. Al conjunto de campos vectoriales en M n se denota por
T M n.
Comentario 15.54. Observen que v : C ∞ (M n , ℜ) → C ∞ (M n , ℜ).
Definición 15.55. Sea M n variedad y dxi x i=1,··· ,n base de Tx∗ M n . Una
1-forma en M n es una transformación lineal para cada Tx M n con x ∈ M n . Se
denota
df (v) : Mn → ℜ
df (v) = v(f )
suave, tal que df (v)(x) = dfx (vx ).
Vn
Notación 15.56. Al conjunto de las 1-formas en M n se denota por . Ten-
emos que
Xn
df = bj dxj
j=1
tal que
n
X
df (v)(x) = dfx (vx ) = bj (x) dxj x (vx ),
j=1
con bj : M n → ℜ funciones suaves.
4. UNO FORMAS 265
j=1 i=1
∂x j=1 i=1
∂xi
Xn X n
i j ∂
= a bj dx ,
j=1 i=1
∂xi
como para cada punto x ∈ M n se cumple dxj x ∂
∂xi x = δij , tenemos que
n
X
hw, vi = ai b i .
i=1
Observen que df : T M → C ∞ (M n , ℜ).
Tenemos que T ∗ M n es un espacio vectorial para cada punto x ∈ M n . Su dual
en cada punto será isomórfico a T M n en ese punto. Nosotros vamos a identificar
ambos espacios.
∗
Definición 15.58. Como (Tx∗ M n ) = Tx M n para toda x ∈ M n . Se tiene que si
w ∈ T ∗ M n y v ∈ Tx M n , entonces vx (wx ) ∈ ℜ, con vx (wx ) = wx (vx ) = hwx , vx i.
El ejemplo de las esferas es muy representativo y simple para entender el ma-
terial anterior. Vamos a tomar de nuevo este ejemplo.
Ejemplo 15.59. Sea S 2 = (x, y, z) ∈ ℜ3 | x2 + y 2 + z 2 = 1 . Ya sabemos que
−1
los homeomorfismos de la esfera son σ± : ℜ3 → S 2 σ± : S 2 → ℜ3 dados por
(x, y)
σ± (x, y, z) = = (u, v)
1∓z
−1 2u, 2v, ±(u2 + v 2 − 1)
σ± (u, v) =
1 + u2 + v 2
Entonces los vectores tangentes en S 2 estarán dados por
∂ ∂ −1
(f ) = f ◦ σ+
∂x1+ x ∂u σ+ (x)
∂ 2u 2v u2 + v 2 − 1
= f , ,
∂u 1 + u2 + v 2 1 + u2 + v 2 , 1 + u2 + v 2 σ+ (x)
∂ ∂x ∂f ∂y ∂f ∂z ∂f
= f (x, y, z) = + +
∂u σ+ (x) ∂u ∂x ∂u ∂y ∂u ∂z σ+ (x)
1 2 2
∂ ∂ ∂
= 2 2 1−u +v ∂x
− 4uv
∂y
+ 4u
∂z σ+ (x)
(f )
(1 + u2 + v 2 )
Podemos escribir
∂ ∂ ∂ ∂
1 = 1 − z − x2 − xy + x(1 − z)
∂x+ ∂x ∂y ∂z
ya que
266 15. VARIEDADES DIFERENCIALES
2
x2 + y 2 (1 − z) − x2 + y 2
u2 + v 2 σ+ (x) = 2 y 1 − u2 + v 2 σ+ (x) = 2
(1 − z) (1 − z)
Análogamente
∂ ∂ ∂ ∂
= −xy + 1 − z − y2 + y(1 − z)
∂x2+ ∂x ∂y ∂z
Como era de esperarse, los vectores base del espacio tangente de S 2 son perpendic-
ulares al radio vector, es decir:
∂
(x, y, z) · 1 − z − x2 , −xy, x (1 − z) = 0=r·
∂x1+
∂
(x, y, z) · −xy, 1 − z − y 2 , y (1 − z) = 0=r· 2
∂x+
Es decir, los vectores tangente, son realmente tangentes a la esfera en cada punto,
pues son perpendiculares alradio vector r. Entonces
el espacio tangente en el punto
x a una pelota es Tx S 2 = y ∈ ℜ3 |y · x = 0
n o
Ejercicio 15.60. Calcular ∂x∂1 , ∂x∂2 . Demostrar que ∂x∂1 , ∂x∂2 son li.
− − ± ±
dx xdz dy ydz
dx1+ = + 2 , dx2+ = + 2
1−z (1 − z) 1−z (1 − z)
Estos dos vectores (transformaciones lineales) del espacio contangente son dos uno-
formas definidas en la carta sin polo norte.
Ejercicio 15.62. Calcular dx1− , dx2− . Demostrar que dx1± , dx2± son li.
Usando estos resultados, los vectores base del espacio tangente en coordenadas
esféricas se leen:
∂ ∂ sin(ϕ) ∂
= (cos(θ) − 1) cos(ϕ) +
∂x1+ ∂θ sin(θ) ∂ϕ
∂ ∂ cos(ϕ) ∂
= (cos(θ) − 1) sin(ϕ) −
∂x2+ ∂θ sin(θ) ∂ϕ
De la misma forma podemos ahora calcular los duales, las uno formas del espacio
cotangente. Se obtiene:
1
dx1+ = (cos(ϕ)dθ + sin(ϕ) sin(θ)dϕ)
cos(θ) − 1
1
dx2+ = (sin(ϕ)dθ − cos(ϕ) sin(θ)dϕ)
cos(θ) − 1
Claramente podriamos definir como bases del espacio tangente y cotangente una
1
combinacion lineal de estos vectores, por ejemplo w+ = (cos(θ) − 1)dx1+ w+ 2
=
2 1 2
(cos(θ)−1)dx+ y a los vectores X+ , X+ como sus duales, de tal forma que podamos
1 2 1 2
hacer lo mismo con los correspondientes vectores w− w− X+ , X+ , al multiplicar
los vectores base por (cos(θ) + 1). Entonces los vectores w s y X ′ s obtendrán la
′
es decir, el diagrama
ϕ∗
C ∞ (M m , ℜ) ←− C ∞ (N n , ℜ)
X↓ Y ↓
ϕ∗
C ∞ (M m , ℜ) ←− C ∞ (N n , ℜ)
conmuta.
dϕ : T M m → T N n
270 15. VARIEDADES DIFERENCIALES
Para terminar este capı́tulo vamos a introducir una transformación lineal equiv-
alente a la diferencial, pero ahora en los espacios contangente a una variedad. La
manipulación y sus propiedades son muy parecidas a las de la diferencial.
si wF (x) = G∗G◦F (x) vG◦F (x) ,
FF∗ (x) wF (x) = FF∗ (x) G∗G◦F (x) vG◦F (x)
= FF∗ (x) ◦ G∗G◦F (x) vG◦F (x)
= wF (x) ◦ dF |x
= G∗G◦F (x) vG◦F (x) ◦ dF |x
= vG◦F (x) ◦ dG|F (x) ◦ dF |x
= vG◦F (x) ◦ d (G ◦ F ) |x
∗
= (G ◦ F )G◦F (x) vG◦F (x) ,
vean la figura 10.
TENSORES Y P-FORMAS
1. Tensores
El material de los dos capı́tulos anteriores es fundamentalmente para estudiar
los tensores. La importancia de los tensores en ciencias exáctas e ingenierı́a, es el
hecho de que los tensores son cantidades matemáticas que no dependen del sistema
coordenado. El significado de “no depende” del sistema de coordenadas la daremos
en este capı́tulo, pero estas cantidades matemáticas han servido bien para modelar
cantidades fı́sicas importantes, como los campos. La idea es que estas cantidades
fı́sicas realmente no dependen del observador, es decir, las cantidades fı́sicas no im-
porta si el observador las mide con una vara de un metro o una de un centimetro,
o con coordenadas catesianas o esfericas. El objeto fı́sico no se ve afectado por la
forma de medirlo o de observarlo. Esta condición la cumplen los tensores, por eso
se usan para modelar las cantidades fı́sicas observables. Desde el punto de vista
matemático, un tensor es una función multilineal, es decir, una función de varias
variables, pero la función es lineal en cada entrada. El dominio es el producto
cartesiano de un espacio vectorial varias veces, con su dual, también varias veces.
Nosotros vamos a tomar ese espacio vectorial como el espacio tangente a una var-
iedad y su dual como el espacio cotangente a la variedad. Asi, la idea es definir
tensores que viven en variedades. Empecemos por la definición formal de un tensor.
Definición 16.1. Sea V espacio vectorial y V ∗ su espacio dual. Un tensor
del tipo (r, s) es una transformación multilineal T tal que
T : V ∗ × ···× V ∗ × V × ···× V → ℜ,
| {z } | {z }
r veces s veces
w1 , · · · , wr , v1 , · · · , vs → T w1 , · · · , wr , v1 , · · · , vs
Pn P
n
sea dual a {e′a }a=1,··· ,n . Se sigue que e′a = Λba eb y e′a = Λab eb donde Λba y
b=1 b=1
1. TENSORES 275
⊗ · · · ⊗ ecr ⊗ e ⊗ · · · ⊗ ed s
dr
X n
···cr
= Tdc11···d s
ec1 ⊗ · · · ⊗ ecr ⊗ ed r ⊗ · · · ⊗ ed s
c1 ···ds =1
Comentario 16.5. Note que en cada caso se tiene que
Tb′a1 ···b
1 ···ar
s
= T e′a1 , · · · , e′ar , e′b1 , · · · , e′bs
y
···cr
Tdc11···d s
= T (ec1 , · · · ecr , ed1 , · · · , eds ) .
Es decir, debido al cambio de base las componentes del tensor cambiaron,
pero el tensor mismo se quedo inalterado. Es en este sentido que los tensores son
invariantes ante cambios de base y por tanto de coordenadas. En ciencias fı́sicas
este hecho se usa continuamente. Una operación también muy usada en ciencias
fı́sicas es la contracción de tensores. A partir de uno o varios tensores, se construye
otro usando la contracción. Vamos a definirla.
Definición 16.6. Sea T ∈ Tsr en un espacio vectorial V . La contracción C11 (T )
de un tensor en las bases duales {ea }{ea } es un tensor (r − 1, s − 1) tal que las
n
P n
P Pn
aa2 ...ar aa2 ...ar
componentes de C11 (T ) son Tab2 ···bs
, i.e. C1
1
(T ) = Tab2 ···bs
a=1 a=1 a2 ···ar b2 ···bs =1
eas ⊗ · · · ⊗ ear ⊗ eb2 ⊗ · · · ⊗ ebs
Proposición 16.7. La contracción es independiente de las bases.
276 16. TENSORES Y P-FORMAS
Demostración 16.8. Sean {ea }{ea } y {e′a }{e′a } bases duales de V . Entonces
n
X n
X
′aa2 ...ar ′
C1′1 (T ) = Tab2 ···bs
eas ⊗ · · · ⊗ e′ar ⊗ e′b2 ⊗ · · · ⊗ e′bs
a=1a2 ···ar b2 ···bs =1
Xn X n X n n
X n
X
′a...ar
= ··· ··· Λca22 · · · Λcarr Λbd22 · · · Λbdss Ta···bs
ecs
a1 =1 ar =1b1 =1 bs =1 a=1
d2 ds
⊗ · · · ⊗ ecr ⊗ e ⊗ · · · ⊗ e
Xn X n Xn
= δdc11 Tdc11dc22 ···d
...cr
s
ecs ⊗ · · · ⊗ ecr ⊗ ed 2 ⊗ · · · ⊗ ed s
c1 =1d1 =1 c2 ···cr d2 ···ss =1
= C1′1 (T )
De la misma forma se pueden definir las contracciones de los demás ı́ndices.
Suele llamarse a los ı́ndices superiores de un tensor ı́ndices covariantes y a los
inferiores, ı́ndices contravariantes. Ası́ la contracción queda definida entre
ı́ndices covariantes con indices contravariantes.
Notación 16.9. Del mismo modo, se suele llamar a los vectores ea vectores
covariantes o uno-formas y a los ea vectores contravariantes o simplemente
vectores.
En lo que sigue vamos a estudiar algunos ejemplos simples de tensores usados
en fı́sica.
Ejemplo 16.10. El tensor de campo electromagnético es un tensor definido
como
X3
A= Aµ dxµ + dΛ
µ=0
donde Λ es una función arbitraria que va de los reales a los reales.
Ejemplo 16.11. El tensor de energia momento es un tensor definido como
3
X
T = Tµν dxµ ⊗ dxν
µ,ν=0
el cual define una métrica en la variedad, a traves del producto escalar entre vec-
tores. Mas adelante daremos los detalles de esta tensor, por el momento vamos a
discutir dos ejemplos simples. Primero tomemos las componentes gij = δij i, j =
1, 2, 3, y con las componentes con subindice 0 igual a cero. Lo que se obtiene es
una métrica Euclidiana, esta es:
g = dx ⊗ dx + dy ⊗ dy + dz ⊗ dz
1. TENSORES 277
∂ ∂ ∂ ∂
Tomemos el vector X = 2 ∂x − ∂y y el vector Y = − ∂x + 2 ∂z . El producto interno
entre X y Y esta dado por:
La norma de los vectores siempre va a ser positiva. La distancia entre estos vectores
∂ ∂ ∂
será (X − Y = ∂x − ∂y + 2 ∂z )
g(X − Y, X − Y ) =
= dx(X − Y ) ⊗ dx(X − Y ) + dy(X − Y ) ⊗ dy(X − Y ) + dz(X − Y ) ⊗ dz(X − Y )
= ||X − Y ||2 = 1 + 1 + 4 = 6
g = dx ⊗ dx + dy ⊗ dy + dz ⊗ dz − dt ⊗ dt
∂ ∂ ∂ ∂
Tomemos ahora los vectores X = ∂x − ∂t yY = ∂x + ∂t . El producto interno entre
X y Y ahora esta dado por:
O sea, estos vectores tienen norma nula, sus tamaños son nulos, a pesar de que los
vectores no lo son. Esta es la principal caracteristica de la métrica de Minkowsky,
en este espacio existe vectores no nulos con norma nula o negativa. Esta métrica
podria ser vista como algo exótico, como una invención de algún matemático con
demasiada imaginación. Pero no lo es, es el mejor modelo del espacio tiempo que
tenemos, es algo muy real.
Vamos a tomar las componentes del ejemplo de la pelota 15.63. Tomemos a la
métrica para una pelota como
g = dw1 ⊗ dw1 + dw2 ⊗ dw2 = r2 dθ ⊗ dθ + sin2 (θ)dϕ ⊗ dϕ
el cual puede ser confuso, pues los elementos dθ2 y dϕ2 no son el cuadrado de una
diferencial, sino el producto tensorial de dos formas. Hay que tomar esto siempre
en cuenta.
278 16. TENSORES Y P-FORMAS
2. p-Formas
En esta sección hablaremos de las p-formas. Las formas son productos tensori-
ales de uno-formas antisimetrizados. Su importancia también viene de la fı́sica y de
las ciencias naturales. Con las p-formas es posible hacer oparaciones con mucha mas
sincillez y en muchos casos, las cantidades que se estudian adquieren un significado
más claro y presiso. En esta sección estudiaremos algunos ejemplos en la fı́sica, con
aplicaciones directas a la ingenierı́a. Vamos primero a definir las p-formas.
Definición 16.13. Sea V ∗ el conjunto de uno-formas. Al conjunto de tensores
(0, p) antisimétricos en cada entrada se llama p-formas.
Vamos a ser más explı́citos, sean w1 , w2 , w3 ∈ V ∗ , entonces las p-formas se
construyen como en los ejemplos siguientes.
Ejemplo 16.14. Una dos-forma se escribe como w = 21 w1 ⊗ w2 − w2 ⊗ w1
Ejemplo 16.15. Una tres-forma w = 61 (w1 ⊗ w2 ⊗ w3 +w3 ⊗ w1 ⊗ w2 +w2 ⊗
w3 ⊗ w1 −w3 ⊗ w2 ⊗ w1 −w1 ⊗ w3 ⊗ w2 − w2 ⊗ w1 ⊗ w3 ), etc.
En lo que sigue vamos a construir el álgebra de las p-formas. Primero vamos a
construir un producto entre p-formas, llamado el producto wedge. Su definición es
como sigue.
Definición 16.16. Sean w y µ una p y q-formas respectivamente. El producto
w ∧ µ es una (p + q)-forma, donde ∧ es antisimétrico i.e.
pq
w ∧ µ = (−1) µ∧w
Esto quiere decir, que si {ea } es base de las uno-formas, entonces una 2-forma
se escribe como
n
X 1 a1
w= wa1 a2 ea1 ∧ ea2 donde ea1 ∧ ea2 = (e ⊗ ea2 − ea2 ⊗ ea1 )
a1 a2 =1
2
n
X 1X [P ]
w= wa1 a2 a3 ea1 ∧ea2 ∧ea3 donde ea1 ∧ea2 ∧ea3 = (−1) ea1 ⊗ea2 ⊗ea3
a1 a2 a3 =1
6
[P ]
donde
[P ] significa permutación de (a1 , a2, a3 ). De esta forma, se pueden construir
n
p-formas en un espacio V ∗ n-dimensional. Al conjunto de las p-formas se
p
denota como ∧p .
Proposición 16.17. Toda (n+k)-forma en un espacio n-dimensional es idénticamente
cero, para k > 1.
Demostración 16.18. Sean V ∗ un espacio n-dimensional y α ∈ V ∗ una n + 1
forma. Entonces
α = αai ···aj ak ···an+1 eai ∧ · · · ∧ eaj ∧ eak ∧ · · · ∧ ean+1 pero algún kj se repite. Ası́
que intercambiándolos α = −αai ···aj ak ···an+1 eai ∧ · · · ∧ eak ∧ eaj ∧ · · · ∧ ean+1 = −α
por lo tanto α = 0.
3. DIFERENCIACIÓN E INTEGRACIÓN EN VARIEDADES 279
Para ver este teorema, es mejor ver la manera de trabajar con él. Para famil-
iarizarnos con el teorema de Stokes vamos a estudiar algunos ejemplos en varios
espacios.
Ejemplo 16.49. En ℜ, n = 1, solo hay dos espacio de formas, las 0- y las
1-formas, es decir ∧0 y ∧1 . Sea f ∈ ∧0 y df ∈ ∧1 . Entonces se tiene
Z Z
df = f .
M ∂M
w1,y dy ∧ dx + w2,x dx ∧ dy. La aplicación del teorema de Stokes en este espacio nos
da Z Z
dw = w.
M ∂M
Sea M una superficie, su frontera es una curva
Z I
(w2,x − w1,y ) dx ∧ dy = (w1 dx + w2 dy) ,
M ℓ
Que es el teorema de Stokes en el plano, vean la figura 2
donde hemos usado el vector dS = (dy ∧ dz, −dx ∧ dz, dx ∧ dy). Esta es la fórmula
del flujo magnético sobre una superficie o ley de Gauss.
Vamos a estudiar algunos ejemplos utilizando parte del material desarrollado
hasta ahora.
Ejemplo 16.52. Vamos a iniciar de nuevo con el tensor electromagnético del
ejemplo 16.10. Sea de nuevo el tensor A = Aµ dxµ + dΛ. Tomemos su diferencial
F = dA = Aµ,ν dxν ∧ dxµ , ya que ddΛ = 0. Debido a la antisimetria del operador
∧, el nuevo tensor F es antisimétrico, es el tensor de Faraday. En componentes
este tensor se escribe como F = Fµν dxν ∧ dxµ , donde las componentes Fµν estan
dadas por
0 Ax,t − At,x Ay,t − At,y Az,t − At,z
1 − (Ax,t − At,x ) 0 Ay,x − Ax,y Az,x − Ax,z
Fµν =
2 − (Ay,t − At,y ) − (Ay,x − Ax,y ) 0 Az,y − Ay,z
− (Az,t − At,z ) − (Az,x − Ax,z ) − (Az,y − Ay,z ) 0
Por lo general también se escriben las componentes del tensor de Faraday en
términos de las componentes del campo eléctrico y magnético como
0 −Ex −Ey −Ez
1 Ex 0 Bz −By
Fµν =
2 Ey −Bz 0 Bx
Ez By −Bx 0
Ası́ que
F = −Ei dxi ∧ dt + ǫijk B i dxj ∧ dxk
= − (Ex dx ∧ dt + Ey dy ∧ dt + Ez dz ∧ dt)
+ Bx dy ∧ dz − By dx ∧ dz + Bz dx ∧ dy.
Comparando las componentes de las matrices, se puede ver que
∂A
−E = + ∇Φ
∂t
B = ∇×A
donde claramente se ha definido el vector A = (Ax , Ay , Az ), y dos vectores mas,
el vector eléctrico E = (Ex , Ey , Ez ) y el vector magnético B = (Bx , By , Bz ), de tal
forma que las componentes del tensor electromagnético son Aµ = (−Φ, A). Como
se sigue que dF = ddA = 0, esto implica que ∗dF = 0. Usando el resultado del
ejercicio 16.45 se tiene que
∂
∗dF = ∇ × E · dx + ∇ · Bdt + B · dx = 0
∂t
Esta identidad implica que
∂
∇×E+ B = 0
∂t
∇·B = 0
las cuales son la ecuación de Faraday y la ecuación de Gauss para el campo magnético,
respectivamente. Análogamente, se puede obtener una expresión para δF . Para
esto, vamos a obtener primero ∗F
∗F = Bx dx ∧ dt + By dy ∧ dt + Bz dz ∧ dt − (Ex dy ∧ dz − Ey dx ∧ dz + Ez dx ∧ dy)
288 16. TENSORES Y P-FORMAS
donde A0 es una constante. Observe que x1± = r1 ◦ σ± (p) = x/(1 ∓ z) and x2± =
r2 ◦ σ± (p) = y/(1 ∓ z). La solución entoces es
A0 A0
A± = A0 x2± dx1± − x1± dx2± = 2 (ydx − xdy) ∓ 3 (xy − yx) dz
(1 ∓ z) (1 ∓ z)
Si ahora cambiamos las coordenadas a coordenadas esféricas 15.1, las cuales son
más convenientes para analizar este caso, se obtiene:
A0 (∓1 − cos(θ))
A± = 2
(ydx − xdy) = A0 dϕ
(1 ∓ z) (±1 − cos(θ))
1 − cos(θ)
A+ = −A0 dϕ
1 + cos(θ)
1 + cos(θ)
A− = −A0 dϕ
1 − cos(θ)
la cual es una solución a las ecuaciones de Maxwell en el vacio sobre la pelota.
Ejemplo 16.55. Vamos a tomar alguna solución con fuentes. Supongamos que
tenemos un tensor de corrientes dado por
x1 x2
J= dx1 + dx2
(x 12 +x22 + 1)3 (x 12 + x2 2 + 1)3
(vamos a quitar en este ejemplo los subindices ± por comodidad). Igualando la
ecualción δF = −4πJ se llega a un sistema de ecuaciones
−4πx1
A1 ,11 +A1 ,22 =
(x1 2 + x2 2 + 1)3
−4πx2
A2 ,11 +A2 ,22 =
(x1 2 + x2 2 + 1)3
Este sistema tiene una solución dada por
πx1
A1 =
2(x 12 + x2 2 + 1)
πx2
A2 =
2(x1 2 + x2 2 + 1)
En términos de las coordenadas de ℜ3 , la solución (regresando a la notación con
±) es
A0
A± = (ydx − xdy) = A0 (∓1 − cos(θ)) dϕ
(1 ∓ z)
A+ = A0 (−1 − cos(θ)) dϕ
A− = A0 (1 − cos(θ)) dϕ
Es decir A+ = A− − 2A0 dϕ. Por lo tanto A± es solamente un campo de norma.
A± se llama el monopolo de Dirac
En la siguiente sección vamos a introducir otros dos operadores diferenciales,
uno es llamado derivada de Lie y el otro la derivada covariante. Ambos tienen
su esfera de interes y se utilizan para diferentes objetivos. La derivada de Lie es
muy importante para encontrar simetrias en alguna variedad. Con ella es posible
encontrar los vectores de Killing, que son asociados a simetrias del espacio. Con la
290 16. TENSORES Y P-FORMAS
c sin(r2 ). Una parametrización de esta curva esta dada por r1 = λ, r2 = 1/c arcsin(csc(λ)−
cot(λ)). La curva es graficada en la figura 4
Figure 4. Curva integral del vector del ejemplo 16.62. Como este
vector corresponde a uno de los vectores base de la pelota, esta
curva esta sobre la pelota y hay que imaginarsela dando vuelta
alrededor de ella y con los extremos que se juntan.
∂ ∂
1) X = +m 2 sobre ℜ2
∂x1 ∂x
∂
2) X = sin(θ) sobre S 2
∂ϕ
∇eb ea = Γcab ec ∈ T M n
donde los coeficientes Γcab son funciones suaves,
vean la figura 5, que se obtienen
del producto Γcab = hec , ∇eb ea i, donde eb b=1,··· ,n es la base dual a {ea }a=1,··· ,n ,
es decir eb = ebj dxj y se cumple que
b ∂
(16.4) e , ea = ej ea dx , j = δab .
b j j
∂x
De hecho, definir la conexión es equivalente a dar los valores de las funciones Γcab
sobre la variedad. Para una base coordenada, los coeficientes de la conexión son
∂ ∂
∇ ∂j = Γkij k
∂x ∂xi ∂x
nosotros vamos a tomar siempre conexiones simétricas, es decir, para las bases
coordenadas se cumple que
Γkij = Γkji
∂ i ∂
Supongamos por facilidad que X = X j ∂x j , y que Y = Y ∂xi . Si desarrollamos
Existe una relación entre todas los operadores diferenciales que hemos definido,
la diferencial de p-formas, la derivada de Lie y la derivada covariante. Entre la
diferencial de p-formas y la derivada covariante la relación es que la diferencial se
puede facilmente generalizar a espacios con conexión ∇. La diferencial exterior,
definición 16.21, en espacios con conexión es
dw = ∇ ∂ j wi1 ,··· ,ip ∧ dxi1 ∧ · · · ∧ dxip ,
∂x
∂ i i
Si {ej } = { ∂x j }, {e } = {dx } son bases coordenadas, entoces solo hay que cambiar
i
el simbolo | por ; y Djk = 0 generalmente.
Ejemplo 16.80. Ahora vamos a buscar la derivada de Lie a lo largo del vector
X = X c ec de un tensor T = Tab ea ⊗ eb . De nuevo, usando la fórmula (16.5) se
tiene
LX Tab = X c Tab|c + Tcb X|a
c c
+ Tac X|b
Este resultado lo usaremos más adelante.
El interes de la derivada de Lie radica en lo siguiente. Supongamos que ϕ es
una isometria (ver capı́tulo 9 definición 9.71). Es decir, esta función deja invariate
la métrica ρ ◦ ϕ(X, Y ) = ρ(ϕ(X), ϕ(Y )) = ρ(X, Y ). La presencia de isometrias
es común en problemas reales, por ejemplo, si un prblema tiene simetria axial, la
métrica del problema permanece inalterada alrededor del eje z, o si el prblema a
tratar es periodico, la métrica (Lorentziana) del problema tiene una isometria en
el tiempo. Ahora bien, si ϕ es una isometria, la derivada de Lie de la métrica a
lo largo de su vector tangente ϕ̇ = X es cero, lo cual se ve de la definición 16.65.
Es decir, las simetrias de un problema conducen siempre a derivadas de Lie de la
métrica a lo largo del vector de la isometria igual a cero. A los vectores tangente
generados por una isometria se les llama vectores de Killing. Su definición formal
es la siguiente.
Definición 16.81. Sea ϕ un grupo uniparametrico de trasformaciones que a
su vez es una isomentria ϕ∗t g = g. Entonces el vector generado por ϕ̇x = X se
llama vector de Killing
La manera de encontrar los vectores de Killing de una variedad M , es utilizando
el ejmplo 16.80. Para esto, supongamos que se tiene una métrica como la definida
en el ejemplo 16.12. Entonces se sigue que
∂
Proposición 16.82. Un vector de Killing X = X i ∂x i cumple con la ecuación
diferencial
LX gij = X k gij;k + gkj X;ik + gik X;jk = 0
donde la mı́etrica esta dada como g = gij dxi ⊗ dxj .
Demostración 16.83. Por sustitución directa en el ejercicio 16.80
Comentario 16.84. Mas adelante veremos que una métrica es compatible con
la conexión si su derivada covariante es cero, es decir, ∇g = 0. Para estas métricas,
las que más nos interesan a nosotros, la ecuación anterior se reduce a
Xj;i + Xi;j = 0
4. DERIVADA DE LIE Y DERIVADA COVARIANTE 299
donde hemos definido Xk;i = gkj X;ik . A esta ecuación se le llama la ecuación de
Killing
Existen varias propiedades de los tensores cuando se les aplican los operadores
diferenciales que hemos visto. En lo que sigue, vamos a deducir solo algunas de las
propiedades más importantes. Vamos a iniciar con la siguiente proposición.
Proposición 16.85. Sean {ea = eai dxi } 1-formas base del espacio cotangente
∗
T M y ∇ la derivada covariante en M , tal que Γabc es su conexión asociada. En-
tonces se sigue que
dea = Γabc eb ∧ ec
Demostración 16.86. Sea {eb = ekb ∂x∂ k } la base dual a {ea = eai dxi } en T M .
De la definición de la conexión Γabc , se sigue que
∂
Γabc = hea , ∇c eb i = heai dxi , ekb;j ejc i = eak ejc ekb;j
∂xk
De una forma análoga se puede ver que
∂
i = eak;j ejc ekb
−Γabc = h∇c ea , eb i = heai;j ejc dxi , ekb
∂xk
Donde hemos usado para simplificar, la notación ∇ec = ∇c . Si juntamos los dos
resultados anteriores se tiene
Γabc = eak ejc ekb;j = −eak;j ejc ekb
De la definición de diferencial exterior se sigue que
dea = eak;i dxi ∧ dxk
= eak;i δji δlk dxj ∧ dxl
= eak;i ebj eib ecl ekc dxj ∧ dxl
= −eak;i eic ekb eb ∧ ec
= Γabc eb ∧ ec
Esta es la llamada primera forma fundamental de Cartan.
Notación 16.87. Es conveniente definir la 1-forma de conexón por
Γab = Γabc ec
de tal forma que
dea + Γab ∧ eb = 0
Para terminar esta sección, vamos a definir las curvas geodésicas. Una curva
geodésica es aquella que transporta paralelamente su vector tangente. Es decir:
Definición 16.88. Sea γ una trayectoria en una variedad M y X su vector
tangente, γ̇ = X. Se dice que la curva descrita por esta trayectoria es una geodésica
si
∇X X = 0
300 16. TENSORES Y P-FORMAS
Sin embargo, en algunos libros (de matemáticas) lo que aquı́ llamamos variedad
Euclidiana lo llaman variedad Riemanniana y lo que aqui llamamos Riemanniana
lo llaman variedad Pseudoriemanniana o variedad Lorenziana.
Con el tensor métrico, la variedad y su espacio tangente adquieren varias es-
tructuras. Si M n es una variedad con métrica, entonces g es un producto interno
entre vectores g(X, Y ). El espacio (T M, g) es un espacio Euclidiano y g su pro-
ducto interno.pCon este producto se define una norma tal que la norma del vector
X es ||X|| = g(X, X). Entoces (T M, || · ||) es un espacio normado. Con la norma
definimos la métrica sobre T M como
p
ρ(X, Y ) = ||X − Y || = g(X − Y, X − Y ),
entoces (T M, ρ) es un espacio métrico (vea el capı́tulo 9). Sin embargo, debe quedar
claro que solo si la sigatura corresponde a una variedad Euclidiana (y sólo en este
caso), este tensor define un espacio Euclidiano. En el caso de la signatura Loren-
ziana, el espacio (T M, g) se llama espacio pseudoeuclidiano, (T M, ||||), ||X|| =
g(X, X) es un espacio pseudonormado y (T M, ρ), ρ(X, Y ) = ||X − Y || es un
espacio pseudométrico o Riemanniano en la variedad. Claramente, si tomamos
una base {eb } dual a {wa }, se tiene que ηab = g(ea , eb ). El caso mas interesante
en fı́sica es el de signatura Lorenziana, ya que corresponde al modelo del espacio
tiempo. El espacio tiempo es una variedad Riemanniana 4-dimensional, en este
caso a los 4 vectores base del espacio cotangente se le llama tetrada. En espacios
con signatura Lorenziana entonces los vectores pueden tener normas no positivas.
Se clasifica a los vectores segun su norma, si la norma es positiva se dice que el
vector es tipo tiempo, si su norma es nula, el vector es tipo nulo y si tiene
norma negativa, se dice que el vector es tipo espacio. Para signaturas Loren-
zianas podemos usar la signatura η = diag(1, 1, 1 − 1). Sin embargo, es posible usar
signaturas no diagonales, como
0 1 0 0
1 0 0 0
η= 0 0 0
−1
0 0 −1 0
Esta signatura define una base del espacio muy particular llamada tetrada nula, ya
que g(ea , ea ) = 0 (no sumatoria!) para todo a = 1, 2, 3, 4. Esto es, los vectores base
del espacio tangente tienen norma (magnitud) nula. Es mas, el producto interno
de los vectores e1 y e2 es g(e1 , e2 ) = 1, y de los vectores e3 y e4 es g(e3 , e4 ) = −1.
Claramente, en este caso la norma y por tanto la distancia, no cumplen con el
axioma de ser definidas positivas. Esta signatura es de gran interes en relatividad
general.
En una base arbitraria, {wa = wia dxi }, el tensor métrico se escribe como
g = gab wa ⊗ wb = gab wia wjb dxi ⊗ dxj = gij dxi ⊗ dxj
donde hemos definido la cantidad gij = gab wia wjb . En ocaciones se acostumba
designar por el simbolo ds2 a la métrica, es decir ds2 = gij dxi ⊗ dxj . Ahora vamos
a definir la métrica compatible con la conexión.
Definición 16.93. Sea M variedad con conexión ∇ y métrica g. Se dice que
g es una métrica compatible con la conexión ∇ si
∇c g = 0, ⇔ ec (gab ) − Γbac − Γabc
302 16. TENSORES Y P-FORMAS
para todo vector ec , donde hemos utilizado el resultado del ejercicio 16.77 y hemos
definido la cantidad Γabc = gad Γdbc .
De aqui se desprende inmediatamente que si la conexión ∇ y la métrica g son
compatibles, se sigue entonces una relación para las componentes de la métrica
dada por
(16.7) dgab = Γba + Γab
ya que si multiplicamos la relación de la definición 16.93 por los duales ec de los
vectores base ec , se llega a la relación anterior, recordemos que Γcb = Γcbd ed .
Esta definición también trae como consecuencia que un tensor métrico compat-
ible con la conexión, define la univocamente la conexión en la variedad. Esto se ve
en la siguiente proposición.
Proposición 16.94. Sea M n variedad n-dimensional con conexión ∇ y métrica
g compatible con la conexión. Entonces las componentes de la conexión son deter-
minadas univocamente por las componentes del tensor métrico.
∂
Demostración 16.95. Sea { ∂x i }i=1,··· ,n una base coordenada de la variedad
n
M . De la definición de compatibilidad para esta base coordenada entre la métrica
y la conexión, se tiene que
−gij,k + Γjik + Γijk = 0
gki,j − Γikj − Γkij = 0
gkj,i − Γjki − Γkji = 0
Si sumamos estas tres ecuaciones, obtenemos
1
Γkij = (gki,j + gkj,i − gij,k )
2
ya que Γkij es simétrica en los indices ij. Asi mismo podemos definir análogamente
los coeficientes de conexión
1
Γkij = g kl (gli,j + glj,i − gij,l )
2
donde g kl es la matriz inversa a gij , es decir g kl glj = δjk .
Notación 16.96. A los coeficientes de conexión Γkij de una base coordenada se
les llama simbolos de Christoffel.
Para poder obtener los coeficiente de conexión en otra base, observemos que
ea Γabc eb ⊗ ec no depende de las bases, asi que
∂ ∂
Γabc ea ⊗ eb ⊗ ec = Γabc eia i ⊗ ebj eck dxj ⊗ dxk = Γijk i ⊗ dxj ⊗ dxk
∂x ∂x
donde se ha definido la cantidad
Γijk = eia Γabc ebj eck
Claramente hemos usado las bases duales {ea } y {eb }. Para escribir los coeficientes
Γabc en terminos de los Γijk , se usan las relaciones de dualidad eia ebi = δba y eib ebj = δji ,
de donde obtenemos
Γabc = eai Γijk ejb ekc
Ahora vamos a introducir la dos forma de curvatura. La curvatura se define en
un espacio con conexión, no necesariamente con métrica. Formalmente su definición
es
5. EL TENSOR MÉTRICO Y EL TENSOR DE CURVATURA 303
i i i
X;j;k − X;k;j = −Rljk Xl
···jr ∂
Ejercicio 16.101. Sea M n variedad y T = Tij11···is ∂xj1
⊗ ··· ⊗ ∂
∂xjr ⊗ dxi1 ⊗
is n
· · · ⊗ dx un tensor en M . Demuestre por inducción que
s
X r
X
···jr ···jr ···jr ···n···jr
Tij11···is ;j;k
− Tij11···is ;k;j
= Rinl jk Tij11···n···is
− jl
Rnjk Tij11···is
l=1 l=1
n n
wi;j;k;l − wi;k;j;l = Rijk;l wn + Rijk wn;l
n n
wi;k;l;j − wi;l;k;j = Rikl;j wn + Rikl wn;j
n n
wi;l;j;k − wi;j;l;k = Rilj;k wn + Rilj wn;k
y restamos las 3 identidades de arriba menos los 3 identidades de abajo, se obtiene
n n n
n n n
0 = Rljk + Rklj + Rjkl wi;n − Rijk;l + Rikl;j + Rilj;k wn
pero lo que esta entre el primer paréntesis es cero, por la relación (16.8) que enco-
tramos anteriormente, asi que se sigue lo que buscamos.
Notación 16.104. A las relaciones anteriores se les llama las Identidades
de Bianchi.
Resumen 16.105. Vamos a resumir las identidades salidas del tensor de cur-
vatura.
i i
1.− Rjkl = −Rjlk
n n n
2.− Rljk + Rklj + Rjkl =0
n n n
3.− Rijk;l + Rikl;j + Rilj;k Identidades de Bianchi
4.− Rmnjk = −Rnmjk Conexiones Compatibles con la métrica
Resumen 16.106. Sea M n variedad con métrica g = ηab dwa ⊗ dwb = gij dxi ⊗
dx , donde {w = wi dxi } es una base y {dxi } es una base coordenada del espacio
j
(xdx + ydy)2
dz 2 =
a2 − (x2 + y 2 )
obtenemos
(xdx + ydy)2
dlS2 2 = dx2 + dy 2 +
a2 − (x2 + y 2 )
Ahora bien, podemos usar coordenadas polares x = R cos(θ), y = R sin(θ) en la
métrica, para obtener
a2 dR2
dlS2 2 = R2 dθ2 + 2
a − R2
Conviene escribir la métrica de la pelota en términos del cociente r = R/a, entonces
la métrica se ve como
2 2 dr2 2 2
dlS 2 = a + r dθ
1 − r2
Para finalizar este ejemplo, vamos a escribir la métrica del espacio ℜ3 en términos
de las coordenadas esféricas 15.1 (vamos a cambiar la r de la definición 15.1 por
a, para denotar el radio de la esfera), se obtiene
2 2 2 2
dlℜ 3 = dx + dy + dz = da2 + a2 dθ2 + sin2 (θ)dϕ2
la cual es la métrica euclidiana, pero ahora escrita en coordenadas esféricas. Si
limitamos esta métrica a la pelota, es decir, si hacemos a =constante, obtenemos
dlS2 2 = a2 dθ2 + sin2 (θ)dϕ2 = a2 dΩ2
que es la métrica de la pelota pero en coordenadas esféricas. Hay que comparala con
la anterior forma que esta en coordenadas polares y con la métrica que se obtiene
si g = dw1 ⊗ dw1 + dw2 ⊗ dw2 , usando las formas de la pelota definidas en 15.2 en
el ejemplo 15.63. Esta comparación es la que justifica el uso de la notación de este
ejemplo.
5. EL TENSOR MÉTRICO Y EL TENSOR DE CURVATURA 307
HACES FIBRADOS
1. Haces
Los haces fibrados son unos de las estructruras matemáticas mas fascinantes
que hay. Son la generalización del producto cartesiano entre espacios topológicos.
Ya sabemos que el producto cartesino de dos espacios topológicos es un espacio
topológico. Los haces son productos cartesianos de espacios topologicos localmente,
aunque no necesariamente el espacio resultante, el haz, es un porducto cartesiano.
El ejemplo mas simple es la cinta de Möbius. Localmente se puede ver como
producto cartesiano de la recta con el cı́rculo, pero globalmente, es decir, toda la
cinta no es un producto cartesiano. Vamos a iniciar este capı́tulo con la definición
de haz, luego vamos a introducir el concepto de haz fibrado.
Definición 17.1. Un haz es una terna ξ = (E, B, π) donde E y B son espacios
topológicos y π : E → B es una función contı́nua y sobre. Se llama:
· A E espacio total,
· A B espacio base y
· A π la proyección.
La representación gráfica de los haces es como sigue
E
π ↓
B
Notación 17.2. Si b ∈ B, Fb (ζ) = π −1 ({b}) se le llama la fibra sobre b.
Comentario 17.3. Observe que si b 6= b′ , entonces Fb ∩ Fb′ = φ, por eso
E = ∪ Fb (ξ), el espacio total es la unión de las fibras disjuntas de B. (Fb , τFb ),
b∈B
siendo τFb = {Fb ∩ U }U∈τE un subespacio topológico de (E, τE ).
Entre los haces existe también el concepto de isomorfismo, se puede clasificar
a los haces usando los isomorfismos entre haces, dos de estos son el mismo, si son
isomórficos.
Definición 17.4. Dos haces ξ = (E, B, π) y ξ ′ = (E ′ , B, π ′ ) son isomórficos
f
ξ ≡ ξ ′ , si existe f : E → E ′ homeomorfismo, tal que π ′ ◦ f = π. Gráficamente se
tiene
f
E −→ E′
πց ւ π′
B
Definición 17.5. Un haz ξ = (E, B, π) se llama trivial si existen F , espacio
ϕ
topológico y ϕ : E → B × F homeomorfismo y se cumple que ξ ≃ (B × F, B, π1 ).
311
312 17. HACES FIBRADOS
2. Espacios G
Los espacios topolgicos pueden tener a su vez, otras estructuras ya sea alge-
braicas o analiticas. En el capı́tulo anterior vimos espacios topológicos dotados
de métrica, norma y producto interno. Vamos a introducir aqui una estructura
algebraica extra dentro de un espacio toplógico, dotando al conjunto que forma
el espacio topológico con una estructura de grupo. A estos espacios se les llama
grupos topolǵicos. Su definición es la siguiente.
Definición 17.12. Un grupo topológico es una terna (G, ·, τg ) en donde (G, ·)
es un grupo y (G, τG ) es un espacio topológico, y se cumple que las funciones
a) ·: G × G → G, (a, b) → a · b
b) inv. : G → G, a → inv(a) = a−1
son continuas.
Hay una manera sencilla de saber si la estructura de grupo de un conjunto
es compatible con la topologı́a. Vamos a presentar aquı́ la proposición sin de-
mostración que nos da este criterio. Esta es:
Proposición 17.13. La terna (G, ·, τG ) con (G, ·) grupo y (G, τG ) espacio
toda a, b ∈ G y para
topológico, es un grupo topológico ssı́ para toda Uab−1 ∈ τG
existe Ua y Ub ∈ τG tal que Ua (Ub )−1 = a · b−1 |a ∈ Ua , b ∈ Ub ⊂ Uab−1 .
En lo que sigue vamos a introducir dos funciones que son de mucha utilidad
para más adelante, pero que ahora nos ayudaran a introducir los espacios G. Estas
son las funciones de traslación. Su definición es para cualquier grupo topológico,
pero seran de gran utilidad cuando estudiemos grupos de Lie. La caracteristica más
importante de estas fuciones es que son automorfimos del grupo topológico. Vamos
a ver esto en la siguiente proposicón.
Proposición 17.14. Sea (G, ·, τG ) grupo topológico y g ∈ G. Las funciones
Lg : G → G
x → Lg(x) := gx
y
Rg : G → G
x → Rg(x) := xg
llamadas traslación izquierda y traslación derecha por g respectivamente,
son automorfismos de G.
Demostración 17.15. Lg y Rg son continuas porque el producto y la inversa
son continuas. Además tienen inversa continua, ya que (Lg)−1 = Lg −1 y (Rg)−1 =
Rg −1 , ie. Lg ◦ Lg −1 (x) = Lg(g −1 x) = gg −1 x = x e igual para Rg.
Habiendo definido las traslaciones en un grupo topológico, ahora podemos in-
troducir los espacios G. Los espacios G son estructuras en un espacio topológico, de
314 17. HACES FIBRADOS
x 6= x′ ⇒ ϕ (x = s (b) g) =
′
s(b′ )g, x′ ∈
/ Fb (b , g)
= (b, g) 6= ϕ x′ = =
s(b)g ′ x′ ∈ Fb (b, g ′ )
Además ϕ es continua, pues s lo es. Entonces ϕ es un homeomorfismo.
Ejemplo 17.28. El ejemplo más simple es el producto cartesiano. Sea P =
B × G, donde B es una variedad y G un grupo. La proyección es simplemente
π −1 (p) = b, con π (b) = Fb ∼
= G. Supongamos que B = ℜ4 y G = U (1).
+
Recordemos que el grupo U (N ) = {U matriz
compleja N × N | U U = 1} por
lo que U (1) = U número complejo | U U = 1 . Podemos representar los elemen-
tos de U (1) por g1 = eiϕ1 , 0 ≤ ϕ1 < 2π. La acción de U (1) sobre ℜ4 la definimos
como
ψ : ℜ4 × U (1) → ℜ4
(x, g) → ψ (x, g) = x · eiϕ ,
la cual cumple con las propiedades (note que g1 · g2 = eiϕ1 ·eiϕ2 = ei(ϕ1 +ϕ2 ) ).
1.- ψ (x, e) = x · e0 = x
2.- ψ (ψ (x, g1 ) , g2 ) = ψ x · eiϕ1 , g2 = x · eiϕ1 · eiϕ2 =ψ (x, g1 g2 )
3. HACES FIBRADOS PRINCIPALES 317
0
Las esferas pueden ser parametrizadosn utilizando números
o complejos como z =
0 2 1 2
x + ix , z = x + ix , ası́ que S = z + z = 1 . La proyección
1 2 1 3 4 3
π : S3 → S2
π(x , x , x3 , x4 ) =
1 2
2 x1 x3 + x2 x4 , 2 x2 x3 − x1 x4 , (x1 )2 + (x2 )2 − (x3 )2 − (x4 )2
= (x, y, z)
es una proyección. Noten que x2 + y 2 + z 2 = (x1 )2 + (x2 )2 + (x3 )2 + (x4 )2 = 1.
Usando la notación del ejemplo 15.7 tenemos que si hacemos
x + iy x1 + ix2 z0
Z = u + iv = = 3 4
= 1 y y = (x, y, z) ∈ S 2 \ {N } = UN
1−z x + ix z
x + iy x3 + ix4 z1
W = u + iv = = 1 = 0 y ∈ S 2 \ {S} = US
1+z x + ix2 z
es decir Z = 1/W en US ∩ UN . Las trivializaciones locales las definimos como
φN : π −1 (US ) → Us × U (1)
0
z z1
(z 0 , z 1 ) → φS z 0 , z 1 = ,
z 1 |z 1 |
φS : π −1 (UN ) → UN × U (1)
1
z z0
z 0 , z 1 → φN z 0 , z 1 = ,
z 0 |z 0 |
0 1
En el ecuador z = 0, entonces z = z = √12 . Ahı́ se tiene que las trivial-
izaciones se pueden escribir como
0 1
0 1
z √ 1 0 1
z √ 0
φN z , z = , 2z , φS z , z = , 2z ,
z1 z0
4. HACES VECTORIALES 319
4. Haces Vectoriales
Al igual que los haces principales, los haces vectoriales son utilizados para
describir estructuras fı́sicas. Con los haces vectoriles se pueden representar los
sistemas de coordenadas de una variedad, los vectores del espacio tangente, etc. Es
por eso de su importancia. Su definición formal es como sigue.
Definición 17.31. Un haz vectorial de dimensión n es un haz fibrado donde
cada fibra es un espacio vectorial de dimension n. Las funciones de transición
forman el grupo GL(n, ℜ). Vean la figura 3.
Ejemplo 17.33. Una variedad con su espacio tangente en cada punto forma
un haz vectorial llamado el haz tangente. Sea u ∈ T M = ∪ {p} × Tp M n
p∈M
un punto en la intersección Ui ∩ Uj tal que π (u) = p ∈ Ui ∩ Uj , donde {Ui } y
{Uj } son cubiertas abiertas de M n , varidad. Sean ϕi : Ui → ℜn y ϕj : Uj →
ℜn los homeomorfismos
de la variedad, tal que ϕi (u) = (x1 , · · · , xn ) y ϕj (u) =
1 n
y , · · · , y , son sistemas de coordenadas en cada abierto. Un vector v sobre el
espacio tangente Tp M se puede escribir
∂
vp = vpµ = vepµ µ .
∂y p
Las trivializaciones locales estarán dadas por
φi : π −1 (Ui )| → U i × ℜn
u → φi (u) = p, vp1 , · · · , vpn
φj : π −1 (Uj )| → U j × ℜn
u → φj (u) = p, vp1 , · · · , vpn ,
π (u) = p donde hemos utilizado el isomorfismo natural
iso : T M → ℜn
!
µ ∂
µ ∂
v → iso v = vp1 , · · · , vpN .
∂x µ
p
µ
∂x p
o campos de 1-formas
w : Ui → T ∗M
p → w (p) := (p, wµ dxµ |p )
Ejemplo 17.35. Del ejemplo 15.6 podemos construir el haz vectorial T S 2 . Ten-
emos
(x, y)
σN (x, y, z) = = (uN , vN )
1−z
y llamemos
(x, y)
σS (x, y, z) = = (uS , vS ) .
1+z
Ellos están relacionados por
u− v−
uN = 2 , vN = 2 .
uS + vS2 uS + vS2
4. HACES VECTORIALES 321
Si escribimos uS = r cos (θ) y vS = r sin (θ), tenemos que uN = cos (θ) /r, y
vN = sin (θ) /r, entonces las trivializaciones estaran dadas por
1 ∂ 2 ∂
φN p, v +u |p = p, vp1 , vp2 ,
∂uN ∂vN
1 ∂ 2 ∂
φS p, ve +ue |p vp1 , vep2
= p, e
∂uS ∂vS
con la función de transición
∂ (uN , vN ) 1 − cos (2θ) − sin (2θ)
gSN = = 2
∂ (uS , vS ) r sin (2θ) − cos (2θ)
Para terminar este capı́tulo, vamos a ver como podemos asociar a cada vector
del haz vectorial un vector de ℜn , de esta manera podemos trabajar con la fibra
del haz, que de hecho son vectores. Veamos esto.
Definición 17.36. Sea ζ = (A, B, πB , F, {Uα }) haz fibrado y η = (P, B, π, G; {Uα } , ψ)
un haz principal, ambos con la misma base y grupo de estructura. Se dice que ξ es
un haz asociado a η, si las cubiertas {Uα } de ξ y η trivializan tanto a A como a P
con las mismas funciones de estructura.
Un ejemplo sencillo de la definición anterior es el siguiente.
∂
Ejemplo 17.37. Si en el haz tangente asociamos a cada vector base ∂xµ =
µ
(0, · · · , 1, · · · , 0), lo que obtenemos es un marco de referencia para cada punto.
Este haz es llamado el haz de marcos y es un haz asociado al haz tangente o
cotangente.
CHAPTER 18
GRUPOS DE LIE
Desde el descubrimiento de las teorı́as de norma, los grupo de Lie han tomado
una relevancia en todas las areas de la fı́sica, quı́mica y la ingenierı́a. Ya ante-
riormente se sabia que las simetrias de los problemas conducia a la existencia de
grupos actuando en espacios asociados al problema. Esta asociación esta presente
también en las teorı́as de norma, en donde un grupo de simetrı́a esta actuando so-
bre un espacio asociado al problema fı́sico, en este caso esta actuando en el espacio
de isoespin. Los grupos de Lie son variedades suaves con estructura de grupo, en
analogı́a a los grupos topológicos. En este campı́tulo también vamos a introducir
algunos conceptos que vamos a necesitar para la comprención de los grupos de Lie,
como es el concepto de campos invariates por la izquierda.
2. La Función Exponencial
En esta sección vamos a introducir la función exponencial. Esta función mapea
elementos del álgebra de Lie al grupo de Lie correspondiente. Sus propiedades nos
recuerdan a la función exponencial en ℜ, por eso su nombre. Para poder definir
esta función, primero tenemos que introducir algunos conceptos y adaptar conceptos
conocidos a los grupos de Lie. Vamos a iniciar con la introducción de un grupo
uniparametrico de transformaciones en el grupo de Lie. Para esto vamos a ver
primero una proposición que utilizaremos aquı́.
Proposición 18.15. Sea (M n , A) variedad diferenciable y F ∈ Dif (M n ). Sea
X ∈ T M n y ψ el grupo 1-paramétrico inducido por X. Entonces X es F-invariante
ssı́ ψt ◦ F = F ◦ ψt .
y
Rg∗ g′
: Tg∗′ G → TR∗ −1 (g′ ) G = Tg∗′ g−1 G.
g
Al igual que los vectores invariantes por la izquierda o derecha, las 1-formas
invariantes quedan determinadas por su valor en un punto, donde normalmente se
escoge la identidad. Veamos esto.
Proposición 18.34. Si w ∈ T G es invariante por la izquierda o por la derecha,
entonces w está determinada por su valor en la identidad del grupo.
Demostraci
ón 18.35. Sea w ∈ T G invariante por la izquierda, entonces wg =
∗
Lg−1 (we ), lo mismo por la derecha.
e
Demostración 18.38.
L∗g g′ (wg′ ) Xg−1 g′ = wg′ ◦ d Lg |g−1 g′ Xg−1 g′
= d Lg′−1 g′ d Lg |g−1 g′ Xg−1 g′
= d Lg′−1 g′ ◦ d Lg |g−1 g′ Xg−1 g′
= d Lg′−1 ◦ Lg g−1 g′ Xg−1 g′
= d Lg′−1 g−1 g′ Xg−1 g′ = wg−1 g′ Xg−1 g′
lo que implica que
L∗g g′
(wg′ ) = wg−1 g′
Si la forma de Maurer-Cartan es invariante por la izquierda, cuando se toma
la acción derecha de ella, el resultado es una fórmula utilizada mucho en teorı́a de
norma. Vamos a ver ésta en la proposición que sigue.
Proposición 18.39. Sea G grupo de Lie y w su forma de Maurer-Cartan. Se
sigue que:
Rg∗ g′ (wg′ ) = Adg−1 ◦ wg′ g−1
Demostración 18.40.
Rg∗ g′ (wg′ ) Xg′ g−1 = wg′ ◦ d Rg |g′ g−1 Xg′ g−1
= d Lg′−1 g′ ◦ d Rg |g′ g−1 Xg′ g−1
= d Lg′−1 ◦ Rg g′ g−1 Xg′ g−1
= d Lg′−1 ◦ Rg g′ g−1 ◦ d L−1 gg ′−1 ◦ L gg ′−1 Xg′ g−1
g′ g−1
= d Lg′−1 ◦ Rg g′ g−1 ◦ d Lg−1 ′ g −1 ◦ wg ′ g −1 Xg ′ g −1
e
= d L−1g′ ◦ Rg ◦ Lg′ g−1 ◦ wg′ g−1 Xg′ g−1
e
= d Ag−1 e ◦ wg′ g−1 Xg′ g−1
= Adg−1 ◦ wg′ g−1 Xg′ g−1
Para trabajar en una variedad con estructura de grupo, en un grupo de Lie,
se procede como sigue. Sean {V1 , · · · , Vn } una base de Te G. Con esta base
podemos definir una base a traves de todo el espacio T G usando vectores invari-
antes por la izquierda. Sea {X1 , · · · , Xn } base de T G, tal que dLg (Vµ ) = Xµ (g)
d Lg |e (Vµ ) = Xµ ge y sean θµ ∈ T ∗ G sus duales, es decir, hθµ , Xν i = δνµ . Como
[Xµ , Xν ] es también invariante por la izquierda, se cumple que [Xµ , Xν ] = cλµν Xλ
donde las cλµν son las constantes de estructura del álgebra de Lie G, correspondiente
a G, ya que la cλµν puede ser determinada en e ∈ G. Esto se pude ver usando la
3. LA REPRESENTACIÓN ADJUNTA Y LA FORMA DE MAURER CARTAN. 331
invariacia por la izquierda. dLg ([Xµ , Xν ]) = cλµν Xλ (g) para todo g ∈ G. En par-
ticular para e ∈ G, lo que hace que cλµν no depende de g. A las constentes cλµν se les
conoce como constantes de estructura del grupo. Estas constantes cumplen
con algunas propiedades interesantes que quedaran como ejercicio.
Ejercicio 18.41. Demuestren que
a) cλµν = cλµν
b) cτµν cλτσ + cτσµ cλτν + cτνσ cλτµ = 0, identidad de Jacobi
La ecuación fundamental de las 1-formas en el espacio contangente de un grupo
de Lie es la que sigue.
base
Proposición 18.42. Sea G grupo de Lie y {θµ } ⊂ T ∗ G base del espacio
contangente de G. Entonces se cumple la ecuación
1
dθµ = − cµνλ θν ∧ θλ
2
donde las cµνλ son las constantes de estructura de G, el álgebra correspondiente a
G.
Demostración 18.43. Sabemos que
dθµ (Xν , Xλ ) = Xν (θµ (Xλ )) − Xλ (θµ (Xν )) − θµ ([Xν , Xλ ])
= Xν (δλµ ) − Xλ (δνµ ) − θµ (cνλ α Xα ) = −cνλ µ
se sigue que
1
− cαβ µ θα ∧ θβ (Xν , Xλ ) = −cµνλ
2
Asi mismo, la forma de Maurer-Cartan cumple con la misma ecuación anterior,
que se acostumbta escribir de una manera mas elegante. Esta forma la veremos en
la siguiente proposición.
Proposición 18.44. Sea G grupo de Lie y w su forma de Maurer-Cartan. La
forma de Maurer-Cartan w se puede escribir como
w = Vν ⊗ θν ; w (g) := wg ,
iso
para toda g ∈ G, donde {Vµ } es la base del espacio tangente de G, Te G ∼
= G; {θµ }
base
es base del espacio cotangente de G, {θµ } ⊂ T ∗ G y satisface la ecuación
1
dθ + [θ ∧ θ] = 0.
2
Demostración 18.45. Sea Y = Y µ Xµ ∈ Tg G, con Xµ la base invariante por
la izquierda de T G, entonces
θ (Y ) = Y µ θ (Xµ )
= Y µ d Lg−1 g Xµ |g
= Y µ d Lg−1 g ◦ dLg (Vµ )|e
= Y µ d Lg−1 ◦ Lg e (Vµ ) = Y µ Vµ
Por otro lado
Vν ⊗ θν (Y ) = Y µ Vν θµ (Xµ ) = Y µ Vµ .
332 18. GRUPOS DE LIE
Esta base se llama matrices de Pauli, y son la base canónica del álgebra su. Las
matrices de Pauli cumplen con las relaciones de conmutación
[σ1 , σ2 ] = 2iσ3 ,
[σ2 , σ3 ] = 2iσ1 ,
[σ3 , σ1 ] = 2iσ2 .
y suelen ser la base del modelo estándar de partı́culas elementales.
Ejercicio 18.61. Encuentren una base {σi } del álgebra o(2) y calculen sus
constantes de estructura ckij de la relación [σi , σj ] = ckij σk .
Ejercicio 18.62. Encuentren una base del espacio tangente del grupo SU (2)
y luego su base dual. Con ella construyan sus constantes de estructura. Contruyan
una base {σi }i=1,2,3 del álgebra su(2) y calculen también sus constantes de estruc-
tura ckij de la relación [σi , σj ] = ckij σk . Busquen una base del álgebra en donde los
dos conjuntos de bases de estructura sean iguales.
Ejercicio 18.63. Encuentren la forma de Maurer-Cartan para el grupo SU (2)
utlilizando la traslación izquierda sobre el grupo y luego calculen la traslación derecha
sobre ella. Finalmente apliquen este resultado a un vector del espacio tangente de
SU (2).
Ejercicio 18.64. Encuentren una base del espacio tangente del grupo de Lorentz
y luego su base dual. Con ella construyan sus constantes de estructura. Contruyan
una base {σi }i=1,2,3 del álgebra su(2) y calculen también sus constantes de estruc-
tura ckij de la relación [σi , σj ] = ckij σk . Busquen una base del álgebra en donde los
dos conjuntos de bases de estructura sean iguales.
Ejercicio 18.65. Encuentren la forma de Maurer-Cartan para el grupo de
Lorentz utlilizando la traslación izquierda sobre el grupo y luego calculen la traslación
derecha sobre ella. Finalmente apliquen este resultado a un vector del espacio tan-
gente del grupo de Lorentz.
Part 7
APLICACIONES
CHAPTER 19
APLICACIONES
1. Ecuaciones Quirales
La aplicación a la que nos referimos es la resolución de las ecuaciones quirales1.
Estas ecuaciones son la generalización de la ecuación de Laplace para un grupo
arbitrario, aquı́ veremos como utilizando nuestro conocimientos de ecuaciones def-
erenciales, variable compleja, grupos de Lie, etc, podemos resolver estas complica-
disimas ecuaciones. El método se llama mapeos armónicos y su poder y elegancia
son dignos de dedicarles esta capı́tulo.
Las ecuaciones quirales se definen como sigue
Definición 19.1. Sea G es un grupo de Lie paracompacto y g ∈ G un mapeo
tal que
g : C ⊗ C¯ → G
g → g(z, z̄) ∈ G,
Las ecuaciones quirales para g se definen como
(19.1) (αg,z g −1 ),z̄ + (αg,z̄ g −1 ),z = 0
donde α2 = det g
Se utiliza que el grupo de Lie sea paracompacto para que podamos garantizar
la existencia de una métrica en el espacio correspondiente. Normalmente g(z, z̄) se
escribe en una representación matricial de G. Las ecuaciones quirales es un sistema
de ecuaciones de segundo orden, en derivadas parciales, no lineales. Si g es solo una
función g = eλ , la ecuación quiral se transforma en la ecuación:
(19.2) (αg,z g −1 ),z̄ + (αg,z̄ g −1 ),z = (αλ,z ),z̄ + (αλ,z̄ ),z
Como veremos mas adelante, la función α = z + z̄. Si hacemos el cambio de variable
z = ρ + iζ, la ecuación (19.2) se transforma en
(19.3) (ρ λ,ρ ),ρ + (ρ λ,ζ ),ζ = 0
1Este capı́tulo esta basado en el artı́culo Tonatiuh Matos. Exact Solutions of G-invariant
Chiral Equations. Math. Notes, 58, (1995), 1178-1182. Se puede ver en: hep-th /9405082
337
338 19. APLICACIONES
1
(19.4) ((r2 − 2m r + σ 2 )λ,r ),r + (sin(θ)λ,θ ),θ = 0
sin(θ)
Esta Lagrangiana representa una teoria topológica cuántica de campo con el grupo
de norma G y lo que vamos a hacer en este capı́tulo es estudiar un método para
encontrar la forma explı́cita de g ∈ G en términos de las coordenadas z y z̄.
1
(19.6) β,z = tr(g,z g −1 )2 , g∈G
4(ln α),z
Lema 19.9. Sea G grupo de Lie y las matrices Az (g) y Az̄ (g) definidas como
en la definición 19.7 y l la métrica (19.8), con derivada covariante ∇. Entonces
(19.9) ∇a Ab − ∇b Aa = [Ab , Aa ]
donde [a, b] significa conmutación de los ı́ndices. Esto es posible gracias a que G es
un espacio paracompacto. De aquı́ se sigue que
∇R = 0
Ya estamos listos para explicar el método para encontrar campos quirales ex-
plicitamente.
Sea Vp una subvariedad de G y {λi } i = 1, · · · , p coordenadas locales total-
mente geodésicas sobre Vp . La variedad G es conocida, entonces podemos conocer
a la subvariedad Vp . De hecho, Vp es un subgrupo de G y Vp es también simétrico.
Las simétrias de G y Vp también son isometrias, ya que ambos son paracompactos
y la métrica Riemanniana (19.13) y i∗ l respectivamente, donde i es la restricción
de Vp sobre G heredan estas isometrias. Supongamos que Vp tiene d isometrias,
entoces se sigue que:
X
(19.16) (αλi,z ),z̄ + (αλi,z̄ ),z + 2α Γijk λj,z λk,z̄ = 0
ijk
Pero que V2 se simétrica implica que k es una constante. Un espacio V2 con cur-
vatura constante tiene tres vectores de Killing. Sean
1
ξ1 = [(kτ 2 + 1)dλ + (kλ + 1)dτ ]
2V 2
1
ξ2 = [−τ dλ + λdτ ]
V2
1
ξ3 = [(kτ 2 − 1)dλ + (1 − kλ2 )dτ ]
2V 2
donde V = 1 + kλτ , una base de los vectores de Killing de V2 . Las relaciones de
conmutación para estos tres vectores de Killing son:
1 2
Γ ,Γ = −4kΓ3 ,
2 3
Γ ,Γ = 4kΓ2 ,
3 1
(19.24) Γ ,Γ = −4Γ2
Pero para obtener las relaciones de conmutación de sl(2, R) tenemos que poner k =
−1. Una representación compatible del grupo sl(2, R) con las reglas de conmutación
(19.24) son las matrices:
1 −1 0 2 0 b 3 0 −b
Γ =2 , Γ = , Γ =
0 1 a 0 a 0
donde ab = 1. Entoces las ecuaciones (19.18) quedan como:
2
−1 1 τ −1 b(1 − τ )2
g,λ g = Aλ = 2
V −a(1 + τ )2 1 − τ2
2
1 λ −1 b(1 − λ)2
g,τ g −1 = Aτ = 2
V −a(1 + λ)2 1 − λ2
Integrando estas ecuaciones encontramos finalmente
1 c(1 − λ)(1 − τ ) e(τ − λ)
(19.25) g=
1 − λτ e(τ − λ) d(1 + λ)(1 + τ )
e
donde cd = −e2 , a = c y b = − de . Para la ecuación armónica se obtiene
4τ
(αλ,z ),z̄ + (αλ,z̄ ),z + αλ,z λ,z̄ = 0
1 + λτ
4λ
(19.26) (ατ,z ),z̄ + (ατ,z̄ ),z + ατ,z τ,z̄ = 0
1 + λτ
Igualmente como antes, para cada solución de las ecuaciones (19.26) en la ecuación
(19.25) se obtiene una solución distinta para las ecuaciones quirales para el grupo
SL(2, R).
pueden cuantizar, las teorias geométricas no. La razon puede ser la forma en que
cada teoria entiende las interacciones de la naturaleza. Mientras que la interacción
es un concepto puramente geométrico en la relatividad general y en las teorias
geomt́ricas de unificación, en teoria de norma la interacción entre partı́culas se da
por medio de intercambio de partı́culas virtuales. Es posible que mientras no haya
un concepto unificado de como debe entenderse la interacción en la naturaleza, no
va a haber una teoria unificada de todas las fuerzas. Aquı́ nos vamos a concentrar
en las teorias geométricas de unificacón. Como veremos, la unificación de todas
las interacciones requiere de la matemática estudiada en estes libro. La razon de
estudiarla es puramente académico y no tiene un sentido fı́sico necesariamente. A
estas teorias geométricas de unificación se les llama también teorias de Kaluza-
Klein, por ser ellos los primeros en proponerlas.
Vamos a iniciar viendo como es posible geometrizar las teorias de norma. El
principio fundamental de la teoria general de la relatividad de Einstein es que las
interacciones gravitacionales son producto de la geometria del espacio-tiempo. La
materia le dicta al espacio-tiempo como curvarse, mientras que el espacio tiempo
determina la dinámica de la materia. Por supuesto queda abierta la pregunta si
todas las demás interacciones de la naturaleza también son geométricas. Estas
interacciones son modeladas con las teorias de norma. En principio uno puede
geometrizar las teorias de norma observando el principio de acoplamiento mı́nimo.
Este principio consite en substituir el momento de una partı́cula pµ , con el momento
(19.27) pµ ⇀ pµ + eAaµ ta ,
donde las Aaµ son los potenciales de Yang-Mills y ta ∈ G, es la base del espacio
tangente a G, el grupo de invariancia de la teoria de norma. En un sistema coorde-
nado, esto se puede interpretar como cambiar las derivadas parciales en el sistema
por la derivada coovariante Dµ = ∂µ + eAaµ ta en un espacio interno o espacio de
isoespin. Sin embargo, lo que definimos es una conexión en este espacio interno,
donde se cumple una relación de conmutación para la derivada covariante dada por:
(19.28) [Dµ , Dν ] = −eFµν
a
donde las funciones Fµν = Fµν ta estan dadas por:
a
(19.29) Fµν = ∂µ Aaν − ∂ν Aaµ + efbc
a b c
Aµ Aν
a
donde las constantes fbc son las constantes de estructura del álgebra G, es decir
a
[tb , tc ] = fbc ta
Con esta conexión podemos definir la curvatura del espacio. La diferencia aqui
es que el espacio interno no necesariamente tiene una métrica y la conexión Aaµ es
diferente a los sı́mbolos de Christoffel.
Sea P el haz fibrado principal (P, B 4 , π, G, U, ψ), o graficamente dado por:
G
↓
P
↓π
B4
con conexión ω y cuya fibra es un grupo paracompacto G y su base es un espacio
Riemanniano cuatro dimensional, vean la figura 1
346 19. APLICACIONES
Esta definición induce una métrica en P , ya que las hipótesis anteriores separan
el espacio en una parte vertical, dada por el grupo G y otra horizontal, determinada
por la sección cruzada σ. Ası́ la métrica sobre P puede ser definida como
ĝ(Ûv , V̂v ) = g̃(Ûv , V̂v )
ĝ(ÛH , V̂v ) = 0
(19.30) ĝ(ÛH , V̂H ) = g(dπ(ÛH ), dπ(V̂H ))
donde g̃, g y ĝ son las métricas sobre G, sobre el espacio base B 4 y sobre P ,
respectivamente. Si {ω̂ A } es una base de las 1-formas definidas sobre P , la métrica
(19.30) puede ser escrita como
(19.31) ĝ = gαβ ω̂ α ⊗ ω̂ β + Iab ω̂ a ⊗ ω̂ b ,
la cual es definida sobre todo P . Vamos a escribir la métrica ĝ en coordenadas
locales. P es un haz fibrado y por tanto es localmente un producto cartesiano de
un conjunto abierto U ∈ B 4 con la fibra G. Es decir, como ya vimos, existe un
homeomorfismo ϕ, llamado la trivialización de P tal que
ϕ:P → U ×G
x → (b, g)
con b ∈ U ⊂ B 4 y g ∈ G.
Sea {êa } una base del espacio tangente vertical de P y {êα } la base del espacio
complemento, el espacio horizontal, en nuestro caso de cuatro dimensiones. Por
definición, las proyecciones de los vectores base están dadas por:
dπ(êα ) = eα
(19.32) dπ(êa ) = 0
donde {eα } es una base del espacio tangente del espacio base U .
2. GEOMETRIZACIÓN DE TEORIAS DE NORMA 347
Ahora vamos a proyectar los vectores base {êα } y {êa } al espacio tangente de
U × G usando la trivialización. La proyeccón de U × G sobre U es una proyección
canónica dada por
π1 : U × G → U,
(x, a) → x
de tal forma que
(19.33) π = π1 ◦ ϕ
Tomemos la proyección de {êα , êa } a T (U × G) tal que
dϕ(êα ) = Bαβ eα − Am
α em
(19.34) dϕ(êa ) = Caβ eβ + Dam em
donde {em } es una base invariante por la derecha del espacio tangente de G, tal que
{eα , em } es una base del espacio tangente de U × G. Pero de la ecuación (19.33)
tenemos:
dπ(êα ) = dπ1 ◦ dϕ(êα ) = Bαβ eβ = eα
(19.35) ϕ(êa ) = dπ1 ◦ dϕ(êa ) = Caβ eβ = 0
i.e. Bαβ = δαβ y Caβ = 0. El conjunto dϕ(êa ) = Dam em es una base del espacio
tangente de G, el cual podemos reescribir simplemente como Dam em → ea . Entonces
obtenemos.
(19.36) dϕ(êα ) = eα − Am
α em
(19.37) dϕ(êa ) = ea .
De (19.37) es sencillo obtener la base del espacio contangente correspondiente, esta
es:
eα − Amα em
(19.38) ēA =
em
α
A ω
(19.39) ω̄ =
ω a + Aaα ω α
donde {ω β } es la base dual de {eα } y {ω m } es la base dual de {em }. Con esta base
ya podemos escribir la métrica ḡ del haz P en la trivialización U , obtenemos
(19.40) ḡ = gαβ ω α ⊗ ω β + Inm (ω n + Anα ω α ) ⊗ (ω m + Am β
β ω )
(19.53) A = σ∗ ω
350 19. APLICACIONES
Indice Analitico
A
Absolutamente convergente
Acotado por arriba
Acotado por abajo
Actúa por la derecha
Acción Efectiva
Acción Libre
Acción Transitiva
Álgebra
Álgebra tensorial
Álgebra de Lie
Álgebra sobre un conjunto
Anillo
Anillo de los enteros
Anillo de los reales
Anillo conmutativo
Anillo con unidad
Anillo sin divisores de cero
Anillo cociente
Anillo ideal
Argumento
Atlas
Atlas equivalentes
Automorfismo
B
Base
Base coordenada
Biyectiva
Bola
C
Camino
Camino constante
Campocombinacion lineal
Campo de norma
353
354 20. INDICE ANALITICO
Campo ordenado
Carta
Cartas
Cartas compatibles
Cerradura lineal
Clase de equivalencia
Clausura
Celula de Jordan
Cerradura lineal
Codiferencial exterior
Coeficientes de Fourier
Cofactores de una matriz
Compactificación por un punto
Compactificación
Composición de mapeos
Composición
Complejo conjugado
Complemento ortogonal
Concatenación
Conceptos locales
Condiciones de Cauchy-Riemann
Conjunto abierto
Conjunto cociente
Conjunto compacto
Conjunto complementario
Conjunto complemento
Conjunto denso
Conjunto denso
Conjuntos de Borel
Conjunto de las funciones trigonométricas
Conjunto de funciones suaves
Conjunto diferencia
Conjunto parcialmente ordenado
Conjunto potencia
Conjunto universo
Conjunto vacio
Conexión
Constantes de estructura
Converge
Convolución
Coordenadas nulas
Coordenadas hiporbólicas
Cota superior
Cota inferior
Criterio de comparación
Cuadraturas
Cubierta
Curva
20. INDICE ANALITICO 355
D
Delta de Dirac
Delta de Kronecker
Derivada
Derivada exterior adjunta
Derivada de Lie
Desigualdad de Bernoulli
Determinante
Diagramas de Venn
Diferencial
Diensión (vectorial)
Distancia
Distancia canónica
Distancia discreta
Diferencial exterior
Distancia max
Dominio de definición
Dominio de la carta
Dominio integral
Dominio de valores
Dos Forma de Curvatura
E
Ecuación caracteristica
Ecuación de Difusión
Ecuación de Helmholtz
Ecuación de Killing
Ecuación de Laplace
Ecuación de onda
Ecuación de Poisson
Ecuación diferencial de Hermite
Ecuación diferencial de Laguerre
Ecuación diferencial de Legendre
Ecuación diferencial ordinaria
Ecuación lineal ordinaria de primer orden
Ecuación lineal ordinaria de segundo orden
Ecuaciones elipticas
Ecuaciones hiperbolicas
Ecuaciones parabolicas
Elemento neutro
Entorno
Epimorfismo
Escalar de Ricci
Espacio de Banach
Espacio abiertos
356 20. INDICE ANALITICO
Espacio base
Espacio cerrados
Espacio conexo
Espacio cotangente
Espacio con Medida
Espacio derecho
Espacio de Hausdorff
Espacio de Hilbert
Espacio izquierdo
Espacio de Lorentz
Espacio disconexo
Espacio Euclidiano
Espacio Medible
Espacio métrico
Espacio metrizable
Espacio métrico completo
Espacio normal
Espacio normado
Espacio ortogonal
Espacio paracompacto
Espacio Pseudo-Euclidiano
Espacio Pseudométrico
Espacio Pseudonormado
Espacio perpendicular
Espacio regular
Espacio tangente
Espacio topológico
Espacio total
Espacio vectorial
Espacio Unitario
Espacios homeomorfos
Espacios isomorfos
Espacios topológicos
Estructura diferenciable
Eigen valor
Eigen vector
F
Factor integrante
Factores invariantes
ϕ−relacionados
ϕ−invariante
Fibra del haz
Fibra sobre un haz
Finita por vecindades
Forma Armónica
Forma canónica diagonal
Forma canónica
20. INDICE ANALITICO 357
Forma Cerrada
Forma Cocerrada
Forma Coexacta
Forma Exacta
Forma de Maurer-Cartan
Full-back
Frontera de una función
Función
Función
Función abierta
Funcióon acotada
Función analı́tica
Función armónica
Función continua
Función continua
Función continua
Función exponencial
Función holomorfa
Función indicadora
Función medible
Función regular
Función simple
Funcı́on suave
Función suave en W
Funciones Elementales
Función de Green
Funciones de transición
Funciones de transición
Funciones suaves en una vecindad
G
Grupo Abeliano
Grupo Conmutativo
Grupo de automorfismos
Grupo de estructura
Grupo de isometrı́as
Grupo de Lorentz
Grupo Ortogonal
Grupo Topológico
Grupo unitario
Grupo especial lineal
Grupo especial lineal complejo
Grupo especial ortogonal
Grupo especial unitario
Grupo uniparamétrico de transformación
H
358 20. INDICE ANALITICO
Haces isomórficos
Haz
Haz cotangente
Haz fibrado
Haz fibrado principal
Haz tangente
Haz trivial
Haz vectorial
Haz de Hopf
Haz de marcos
Homomorfismo
Homeomorfismo
I
Identidades de Bianchi
Identidad de Jacobi
Imagen de la carta
Imagen de un conjunto bajo una función
Imagen inversa de un conjunto bajo una función
Imagen reciproca
Imagen recı́proca
Inclusión
Inducción matemática
Indices covariantes
Indices contravariantes
Infimo
Integral de Gauss
Intersección de conjuntos
Invariante bajo ϕ
Invariante por la izquierda
Invariante por la derecha
Inversa de una matriz
Inversión conforme
Inyectiva
Isometrı́a
Isomorfismo
I-esima función coordenada
I-esima función coordenada del sistema de coordenadas
L
Lapaciano
Laplaciano
Lazo
Linealmente dependiente
Linealmente independiente
Lı́mite
Localmente finita
20. INDICE ANALITICO 359
Loop
1-forma
1-forma
M
Mapeo
Mapeo inverso
Mapeos lineales
Matriz adjunta
Matriz antihermitiana
Matriz antisimetrica
Matriz asociada al polinomio
Matriz caracteristica
Matriz cuasidiagonal
Matriz de Jordan
Matrices de Pauli
Matriz diagonal
Matriz hermitiana
Matriz nilpotentes de grado n
Matriz polinomial
Matriz regular
Matriz singular
Matriz simétrica
Matriz transpuesta
Matriz triagonal
Matrices equivalentes
Matrices similares
Maximo
Medida
Medida discreta
Medida de Dirac
Medida de Lebesgue
Medida discreta de probabilidad
Medida de probabilidad
Medida discreta de probabilidad
Métrica Euclideana
Métrica de Friedman-Robertson-Waker
Metrizable
Minimo
Modos normales
Módulo
Monoide
Monomorfismo
Monopolo de Dirac
Metodo de Gauss Jordan
N
360 20. INDICE ANALITICO
Norma
Norma Euclidiana
Norma de Lorentz
N-formas
N-formas
No pertenece al conjunto
Nucleo
O
Operador adjunto
Operador d’Alabertiano
Operador autoadjunto
Operador anti-autoadjunto
Operación Asociativa
Operación binaria
Operación Invertible por la izquierda
Operación Invertible por la derecha
Operación Conmutativa
Operador * de Hodge
Orden parcial
Ortogonales
Orden
P
Paréntesis de Lie
Parte Real
Parte Real
Parte imaginaria
Parte imaginaria
Pertenece al conjunto
Polinomios de Legendre
Polinomios de Hermite
Polinomios de Laguerre
Polinomios de Tchebichef
Polinomios de Jacobi
Polinomios de Gegenbauer
Polinomios de Tchebichef de segunda clase
Polinomios de Legendre
Polinomios asociados de Laguerre
Polinomio carateriztico
Polinomio minimo
Polinomio caracteristico de la ecuación diferencial
Polinomios de Bessel
Polo de orden m
Polo simple
Potencia n-ésima del conjunto
Primera forma fundamental de Cartan
20. INDICE ANALITICO 361
R
Radio de convergencia
Rango
Realesnegativos
Realespositivos
Refinamiento
Región simplemente conexa
Región de conexión múltiple
Reglade Cramer
Reglasde Morgan
Relación
Relación antireflexiva
Relación antisimétrica
Relación n-áriasobre
Relación binaria
Relación de equivalencia
Relación de recurrencia
Relación reflexiva
Relación transitiva
Relación simétrica
Reparametrización
Representación adjunta
Representación de grupos
Restricción de mapeos
Rotación conforme
362 20. INDICE ANALITICO
S
Semicampo
Segunda forma fundamental de Cartan
Serie de Fourier
Serie de Fourier
Series de Laurent
Serie de Maclaurin
Serie de Taylor
Sección
Simbolos de Chistoffel
Semigrupo
Signatura de la Variedad
Singularidad removible
Singularidad evitable
Sistema completo
Sistema de coordenada local del haz
Sistema de coordenadas
Sistema de ecuaciones lineales
Sistema ortogonal
Sitema ortonormal
Sistema ortonormal
Solución unicamente determinada
Subanillo
Subgrupo
Subgrupo normalgrupo
Subespacio Vectorial
Subconjunto
Subconjunto propio
Subgrupo de Lie
Sucesión
Sucesión de Cauchy
Sucesión convergente
Superficie de Riemann
Suryectiva
Subgrupos
Subcubierta
Supremo
Subespacio topológico
T
Tensor
Tensor de Curvatura
Tensor de Einstein
Tensor de Levi-Civita
Tensor de Ricci
Tensor Métrico
Tetrada
20. INDICE ANALITICO 363
Tetrada Nula
Teorema de Abel
Teorema de Laplace
Teorema de Leibniz
Teorema del residuo
Transformación conforme
Transformación homográfica
Transformada integral
Transformada de Laplace
Transformada de Fourier
Transformada finita de Fourier
Transformación de similaridad
Transformaciones lineales
Transformación de dualidad
Traslación conforme
Trayectoria
Trivialización local
Traza
Traslación derecha
Traslación izquierda
Topologı́a cociente
Topologı́a discreta
Topologı́a inducida
Topologı́a inducida
Topologı́a indiscreta
Topologı́as de Sierpinski
Topologı́a relativa
U
Unión de conjuntos
Uno-formas
V
Valor absoluto
Valor propio
Variedad diferenciable
Variedad Euclidiana
Variedad Lorenziana
Variedad Pseudoriemanniana
Variedad Riemanniana
Variedad suave
Variedad suave
Variedades difeomórficas
Variedad real de dimensión n
Variedad real diferenciable
Vector de Killing
Vector contravariant
364 20. INDICE ANALITICO
Vector covariant
Vector nulo
Vectores perpendiculares
Vector propio
Vector tangente
Vector tipo espacio
Vector tipo nulo
Vector tipo tiempo
Vecindad
W
Wronskiano