M M II Tensores
M M II Tensores
M M II Tensores
Iwasawa
Mayo 2022
2
Capítulo 1
Álgebra tensorial
1.1. Introducción
Los tensores son un objeto matemático que hasta las fechas modernas no había sido muy
usado más que para el tratamiento de la relatividad general y un poco de hidrodinámica.
Ahora son muchas ramas de la física las que se encargan de atormentar a los nuevos físicos con el
uso de los tensores: gravitación, física de partículas, física de la materia condensada, elasticidad,
mecánica de fluidos, etc. Algunos ejemplos de tensores muy conocidos son el tensor métrico
de la relatividad: g µν . También tenemos al tensor de esfuerzos: T ab . El tensor métrico nos
describe la geometría del espacio tiempo, así como el tensor de esfuerzos describe las tensiones
geométricamente.
Al espacio físico siempre se le puede asociar un espacio vectorial, sea R3 tal espacio, la geometría
intrínseca de este y las simetrías que juegan un rol importante en el estudio de las teorías físicas
son tratables mediante el análisis tensorial.
La notación a usar para los espacios vectoriales será en general la letra V, para tal espacio es
posible construir su espacio dual, denotado por V ∗ . Si {ei }i=1,...,N es una base para en espacio
N −dimensional V entonces su respectiva base dual se denota {ϵi }i=1,...,N , pues dado el espacio
V ∗ de transformaciones de V en R o en C se tiene que
dim(V) = N = dim(V ∗ )
También se usará la convención de sumas de Einstein para simplificar la notación de las
sumas:
X
N
aki bij ≡ aki bij (1.1.1)
i=1
También se dice que la expresión (1.1.1) es una contracción. De este modo se pueden escribir
los elementos de la representación matricial de un operador A mediante como αij , pues Aei =
P j
αij ej = αi ej . De igual forma se pueden representar vectores de V en una base {ei }: Sea
j
v ∈ V, entonces, v = αj ej . Usando el producto interior usual del espacio Rn se tiene:
X X
n
x · y = α j ej · β i ei = αj β i (ej · ei ) = α j β j ≡ α j βj
i,j
| {z } j=1
=δij
3
4 CAPÍTULO 1. ÁLGEBRA TENSORIAL
Proposición 1.2.1
′ ′ N2
Sea B = {ei }N
i=1 la base de V y B = {eα }α=1 la base de W. Entonces
1
forman una base de L (V, W) y dim (L (V, W)) = dim (V) · dim (W).
2) Si τjα son los elementos de la matriz T ∈ L (V, W) con respecto a las bases B y B ′
entonces
X
N2 X
N1
T = τjα Tjα ≡ τjα Tjα
α=1 j=1
La independencia lineal de los e′β ser base de W implica que cβi = 0 para cada i, β. Por tanto las
transformaciones Tjβ son linealmente independientes. Vemos que la cantidad de transformaciones
dadas es N1 · N2 = dim (V) · dim (W).
Ahora usamos el hecho de que existe una representación matricial de T : V 7→ W dada por
Es decir, τβj Tβj = T. Por tanto, las transformaciones dadas forman una base de L (V, W) y, se
sigue que dim (L (V, W)) = N1 · N2 . ■
Con la proposición 1.2.1 y el hecho de que dim (F) = 1 para cualquier campo F, se tiene que
dim (V ∗ )) = dim (L (V, F)) = N , donde N es la dimensión de V. En este caso, los elementos del
espacio dual V ∗ son llamados funcionales lineales y la base de ese espacio es llamada base dual.
Cuando el campo F es el campo de los reales (R), la base de la proposición 1.2.1 es {Tβ1 }N β=1 ,
denotada como {ϵj }N j=1 y cumplen
ϵj ei = δij (1.2.1)
La ecuación (1.2.1) es llamada relación dual, donde la base de R es e′ = 1. La base dual de la
base B de V se denota como B ∗ .
Si B ′ = {f i }N ′
i=1 es otra base de V y R es la matriz de transición de B en B , tomamos la base
dual de B como B = {φ }k=1 , queremos ver la forma de la matriz de transición de B ∗ a B ′∗ .
′ ′∗ k N
φk f i = akt ϵt (rij ej ) = akt rij ϵt ej = akt rij δjt = akj rij = δik
1.2. TENSORES COMO MAPEOS MULTILINEALES 5
donde rij son las entradas de la matriz R. Vemos que todos los índices corren de 1 a N , por
P
N
tanto akj rij = akj rij es la entrada ki1 de la matriz AR:
j=1
(AR)ki = δik
T(v 1 , · · · , av i , · · · , v r ) =aT(v 1 , · · · , v i , · · · , v r )
T(v 1 , · · · , v i + v ′i , · · · , v r ) =T(v 1 , · · · , v i , · · · , v r ) + T(v 1 , · · · , v ′i , · · · , v r )
Ejemplo 1.2.1
T(v 1 , v 2 ) = τ 1 (v 1 )τ 2 (v 2 ) ∈ R
donde τ i ∈ Vi∗ . Es fácil ver que en cada variable el mapeo resulta ser lineal.
Ejemplo 1.2.2
Del ejemplo anterior, dados τ ∈ V ∗ y v ∈ V, dados las bases correspondientes {ϵj } y {ei }:
τ = tj ϵj , v = ai ei . Podemos entonces dar el mapeo T : V ∗ × V 7→ R como
T := v ⊗ τ = ai ei ⊗ tj ϵj
Ejemplo 1.2.3
Figura 1.2.1
Sea V un espacio vectorial con espacio dual V ∗ . Un tensor tipo (r, s) es un mapeo
multilineal:
T rs : V ∗ × V ∗ × · · · × V ∗ × V × V × · · · × V 7→ R
| {z } | {z }
r veces s veces
El conjunto de todos los tensores (r, s) es denotado por Tsr (V) y es un espacio vectoriala .
a Aclárese que esto es bajo la definición de suma y multiplicación por escalar usual para mapeos
Ejemplo 1.2.4
T = v1 ⊗ v2 ⊗ · · · ⊗ vr ⊗ τ 1 ⊗ τ 2 ⊗ · · · ⊗ τ s
Ejemplo 1.2.5
El elemento de línea en R2 está dado por ds2 = dx2 + dy 2 . Se puede definir un tensor
covariante que va de V × V en R como g := dx ⊗ dx + dy ⊗ dy, cuyas componentes son
gij :
1 0
g ij ≡
0 1
El producto tensorial de un tensor T del tipo (r, s) y un tensor U del tipo (k, ℓ) es el
tensor denotado por T ⊗ U del tipo (r + k, s + ℓ):
T ⊗ U : (V ∗ )r+k × V s+ℓ 7→ R
T ⊗ U(θ 1 , ..., θ r+k , u1 , ..., us+ℓ ) = T(θ 1 , ..., θ r , u1 , ..., us )U(θ r+1 , ..., θ r+k , us+1 , ..., us+ℓ )
Ejemplo 1.2.6
T=τ ⊗τ
Dada una base de V y su base dual, los escalares Tij dados en el ejemplo 1.2.6 son llamados
las componentes del tensor T.
e i1 ⊗ e i2 ⊗ · · · ⊗ e i r ⊗ ϵ j 1 ⊗ ϵ j 2 ⊗ · · · ⊗ ϵ j s
donde ik , jk ∈ {1, ..., N }, de modo que se tienen N r+s productos tensoriales de esta
forma, es una base de Tsr (V). Más aún, si A ∈ Tsr (V) entonces
Aji11,i,j22,...,i
,...,jr
s
= A(ϵj1 , ..., ϵjr , ei1 , ..., eis )
Demostración. Se desea probar que ei1 ⊗ ei2 ⊗ · · · ⊗ eir ⊗ ϵj1 ⊗ ϵj2 ⊗ · · · ⊗ ϵjs forma una
base vectorial de Tsr (V), sean Cij11,i,j22,...,i
,...,jr
s
∈ R tales que
Cij11,i,j22,...,i
,...,jr
s
e i1 ⊗ e i2 ⊗ · · · ⊗ e i r ⊗ ϵ j 1 ⊗ ϵ j 2 ⊗ · · · ⊗ ϵ j s = 0
Nótese que ei1 ⊗ ei2 ⊗ · · · ⊗ eir ⊗ ϵj1 ⊗ ϵj2 ⊗ · · · ⊗ ϵjs es un tensor (r, s) actuando sobre (V ∗ )r × V s
en R. Asi, se define el vector
Así,
ei1 ⊗ ei2 ⊗ · · · ⊗ eir ⊗ ϵj1 ⊗ ϵj2 ⊗ · · · ⊗ ϵjs (ϵk1 , ϵk1 , ..., ϵkr , eℓ1 , eℓ2 , ..., eℓs ) =0
ei1 (ϵk1 )ei2 (ϵk2 ) · · · eir (ϵkr ) · ϵj1 (eℓ1 )ϵj2 (eℓ2 ) · · · ϵjs (eℓs ) =0
De modo que
X
N
Cij11,i,j22,...,i
,...,jr
s
ei1 ⊗ ei2 ⊗ · · · ⊗ eir ⊗ ϵj1 ⊗ ϵj2 ⊗ · · · ⊗ ϵjs (V) =0
i1 ,i2 ,...,ir
j1 ,...,js =1
X
N
⇒ Cij11,i,j22,...,i s
δi1 δi2 · · · δikrr δℓj11 δℓj22 · · · δℓjss = Ckℓ11 ,ℓ
,...,jr k1 k2 2 ,...,ℓr
,k2 ,...,ks =0
i1 ,i2 ,...,ir
j1 ,...,js =1
Es decir, la combinación lineal hecha implica que cada escalar es cero, por lo que el conjunto de
los ei1 ⊗ ei2 ⊗ · · · ⊗ eir ⊗ ϵj1 ⊗ ϵj2 ⊗ · · · ⊗ ϵjs es linealmente independiente. Ya que no conocemos
la dimensión de Tsr (V), tenemos que ver si el conjunto dado genera a dicho espacio. Para esto,
retomamos a los vectores V = (ϵj1 , ϵj2 , ..., ϵjr , ei1 , ei2 , ..., eis ), que son una base de (V ∗ )r × V s ,
sabemos que cualquier tensor (r, s) actúa sobre V de la siguiente forma:
A(V) =Aji11,i,j22,...,i
,...,jr
s
Si definimos U := Alk11,l,k22,...,l
,...,ks el1 ⊗el2 ⊗· · ·⊗elr ⊗ϵ ⊗ϵ ⊗· · ·⊗ϵ
r k1 k2 ks 2
como cualquier combinación
lineal, entonces,
A(V) = Alk11,l,k22,...,l r j1 j2 j r i1 i2
,...,ks δl1 δl2 · · · δlr δk1 δk2 · · · δks = U(ϵ , ϵ , ..., ϵ , ei1 , ei2 , ..., eis ) = U(V)
is j1 j2 jr
T = Tji11,j,i22,...,j
,...,ir
e ⊗ e i 2 ⊗ · · · ⊗ e ir ⊗ ϵ j 1 ⊗ ϵ j 2 ⊗ · · · ⊗ ϵ j s
s i1
(1.2.3)
Ejemplo 1.2.7
A = Aij ei ⊗ |{z}
ϵj
|{z}
∈V ∈V ∗
De manera similar al ejemplo anterior, un tensor T ∈ Tsr (V) se puede ver como un operador
en V o V ∗ :
A = Aijk ei ⊗ ϵj ⊗ ϵk
∗
donde B = {ei }N
i=1 es la base de V y B = {ϵ }ℓ=1 es la base dual. Sean B = {ei }i=1 y
ℓ N N
∗ ∗
B = {ϵ }ℓ=1 otras bases de V y V respectivamente. Tenemos que
ℓ N
A(zki ϵk , rjn en , slk el ) = zki rjn slk A(ϵk , en , el ) = zki rjn slk Aknl
Es decir,
i
Ajk = zki rjn slk Aknl (1.2.5)
La ecuación (1.2.5) es lo que se conoce como regla de transformación del tensor A.
Ejemplo 1.2.8
J β := ∂α F αβ
que junto a la ecuación anterior, forman un par de ecuaciones equivalente a las cuatro
ecuaciones de Maxwell, es decir, describen el electromagnetismo. El tensor F αβ se define
como
Fαβ = ∂α Aβ − ∂β Aα
donde los Ai son las componentes del tensor (0, 1) o vector covariante antisimétricoa
(también llamado 1-formab ) A que contiene la información sobre los potenciales de los
observadores inerciales. Al hacer el cambio de base, se tendrá que
F αβ = ∂ α Aβ − ∂ β Aα
ϵ
F αβ =Rα ∂ϵ Rβγ Aγ − Rβϵ ∂ϵ Rα
γ
Aγ
ϵ γ
=Rα Rβ ∂ϵ Aγ − Rβϵ Rα
γ
∂ ϵ Aγ
| {z }
ϵ Rγ ∂ A
=Rα β γ ϵ
ϵ γ ϵ γ
=Rα Rβ (∂ϵ Aγ − ∂ γ Aϵ ) = R α Rβ Fϵγ
a Más adelante se definen los tensores antisimétricos.
b De igual forma se definirán lo que son las p−formas y los p−vectores.
1.2.2. Contracción
Como Tsr (V) es un espacio vectorial, para cada (r, s), podemos determinar transformacio-
nes lineales de este a un espacio (r′ , s′ ), por ejemplo: T01 (V) 7→ T00 (V) mapea del espacio de
1.2. TENSORES COMO MAPEOS MULTILINEALES 11
tensores (1, 0): aj ej ∈ V a R; T01 (V) 7→ T01 (V) resulta ser el mapeo de V 7→ V. Si definimos la
transformación lineal tr : T11 (V) 7→ T00 (V) ≡ R como
X
tr(A) = Aii
i
donde A = Aik ei ⊗ ϵk , tenemos lo que se conoce como traza de la matriz dada por Aik . El tipo
de transformaciones que ”bajan el rango del tensor” de esta forma son lo que se conoce como
contracciones.
Ejemplo 1.2.9
i
El tensor de curvatura R es un tensor tipo (1, 3), dado por sus componentes Rjkl .
Podemos definir una transformación C : T3 (V) 7→ T2 (V) similar a tr al ”contraer” los
1 0
índices i y k:
C
X
i
Rjkl 7→ Rjkl
k
= k
Rjkl
k
k
Las nuevas componentes Rij := Rikj definen lo que se conoce como el tensor de Ricci. Así
mismo, usando las componentes del tensor métrico g ij , se puede determinar la curvatura
escalar:
R = g ij Rij
tal que
h(T1 , T2 , ..., Tk̄ ) ∈ Tℓk (V) donde Tα ∈ Tsr (V) con α ∈ {1, ..., k̄}
entonces hay una suma sobre k para cada componente dada por cada arreglo de dichos índices,
es decir,
p
dim(V)
X ↓
i′ ,i′ ,...,i′ i1 ,i2 ,...,ip−1 ,k,ip+1 ,...,ir
[C(A)]j1′ ,j2′ ,...,jr−1
′ = Aj1 ,j2 ,...,jq−1 ,k,jq+1 ,...,js (1.2.6)
1 2 s−1
k=1 ↑
q
12 CAPÍTULO 1. ÁLGEBRA TENSORIAL
Ejemplo 1.2.10
Dado T32 (V), se tiene C 12 : T32 (V) 7→ T21 (V), si T ∈ T32 (V) entonces sus componentes son
αβ
Tijk , si tomamos V = R3 entonces cada índice está en {1, 2, 3} y
β
X
3
αβ 1β 2β 3β
[C(T )]ik = Tiαk = Ti1k + Ti2k + Ti3k
α
Retomando el tensor del ejemplo 1.2.9, es decir el tensor de curvatura R ∈ T31 (Tp M), se
puede dar una contracción C 12 : Rijk
α
7−→ Rilk
l
.
El mapeo de contracción se puede aplicar sucesivamente:
Es decir, podemos componer las contracciones (ver figura 1.2.2): C pq22 ◦ C pq11 : Tsr (V) 7→ Ts−2
r−2
(V).
Figura 1.2.2
C pq11 C pq22
C pq22 ◦ C pq11
Composición de las contracciones, que
resulta en una ”contracción doble”.
Cm
m := C qm ◦ C qm−1 ◦ · · · ◦ C q1 : Ts (V) 7−→ Ts−m (V)
pm pm−1 p1 r r−m
(1.2.7)
Crr (A) = Aα
α1 α2 ...αr ∈ R
1 α2 ...αr
1.2. TENSORES COMO MAPEOS MULTILINEALES 13
g αβ Rαβ := R ∈ R = T00
Sean A ∈ T0r (V) y B ∈ Tr0 (V), se define h , i : T0r (V) × Tr0 7→ R comoa
hA, Bi := C pqm
m
◦ C pqm−1
m−1
◦ · · · ◦ C pq11 (A ⊗ B)
a Este operador es más bien una generalización del emparejamiento natural dado por la ecuación
Ejemplo 1.2.11
=Aij Bkl
C 12 ◦C 21
Aij Bkl ei ⊗ ej ⊗ ϵk ⊗ ϵl 7−→ Aβα Bαβ
C 21 ◦C 12
Aij Bkl ei ⊗ ej ⊗ ϵk ⊗ ϵl 7−→ Aαβ Bβα ≡ Aβα Bαβ
Ejemplo 1.2.12
hA, Bi =C rr ◦ C 22 ◦ · · · ◦ C 11 (A ⊗ B)
=Aαβ...τ Bαβ...τ (1.2.9)
14 CAPÍTULO 1. ÁLGEBRA TENSORIAL
Podemos definir un mapeo dado por A, de modo que tome un tensor en Tr0 y lo lleve a R de la
siguiente forma:
A(B) = Ai1 i2 ...ir ei1 ⊗ · · · ⊗ eir (Bj1 j2 ...jr ϵj1 ⊗ · · · ⊗ ϵjr )
=Ai1 i2 ...ir Bj1 j2 ...jr ei1 (ϵj1 ) · · · eik (ϵjk ) · · · eir (ϵjr )
| {z }
j
=δi k
k
i1 i2 ...ir
=A Bi1 i2 ...ir
Así, (1.2.9) se puede escribir como
hA, Bi = A(B)
De igual forma se puede obtener
hB, Ai = B(A) = Bi1 i2 ...ir Ai1 i2 ...ir
de donde es claro que hA, Bi = hB, Ai, el mapeo es simétrico.
También se puede dar como g = gij ϵi ⊗ ϵj . La simetría viene dada por la invarianza del
tensor al intercambiar los índices:
g = gµν ϵµ ⊗ ϵν = gνµ ϵν ⊗ ϵµ
Fuera del ejemplo anterior, podemos pensar en tensores simétricos como matrices simétricas,
recordemos que T11 (V) ' L (V) ' L (V ∗ ), entonces podemos ver a los tensores tipo (1, 1) como
matrices, mediante sus componentes. En el espacio tiempo el tensor métrico tiene una matriz
g11 g12 g13 g14
g21 g22 g23 g24
g= g31 g32 g33 g34
i ...i
Si A ∈ Tsr y Aij11ij22...i
...js = Ajl ...jls entonces A es totalmente simétrico.
r k1 kr
Teorema 1.3.1.
2 1
π
π(1)=2
π(2)=1
π(3)=2
1 3 2 3
donde π(i) = j y π(j) = i. Tenemos también, que cualquier permutación π se puede ver como
una sucesión de transposiciones (denotadas por σk ):
π → σn σn−1 · · · σ1 (1.3.2)
donde cada transposición representa una permutación entre dos elementos de un conjunto de
modo que la ecuación (1.3.1) representa la simetría del tensor S bajo σ. De este modo, el
intercambio arbitrario de índices del tensor es equivalente a aplicar (1.3.2) de modo que para
cada σi el tensor se preserva y al final es invariante bajo π. ■
Así como denotamos por T0r (V) al conjunto de tensores (r, 0), S r (V) denotará el conjunto de
todos tensores simétricos tipo (r, 0). Se puede ver que si A, B ∈ S r (V) y a es un escalar entonces
es decir, S r (V) es subespacio de Tsr (V). También se define el espacio de tensores simétricos de
tipo (0, s): Ss (V). Ahora queremos definir un mapeo, tal que si A ∈ T0r entonces
A 7−→ As ∈ Sr
Si consideramos un tensor tipo (1, 1) con componentes Aij podemos definir el siguiente mapeo:
1
Aij 7→ Sij := (Aij + Aji )
2
16 CAPÍTULO 1. ÁLGEBRA TENSORIAL
Es decir, al ser las componentes Aij arbitrarias, no podemos concluir nada del tensor A :=
Aji ei ⊗ ϵj . Pero vemos que Sji = Sij de modo que el tensor correspondiente S es simétrico:
1 1
(Aij + Aji )ei ⊗ ϵj = (Aji + Aij )ej ⊗ ϵi
2 2
Nótese que la única permutación distinta de la identidad es {i, j} 7→ {j, i}3 Ahora podemos dar
la siguiente
donde la suma es sobre todas las r! permutaciones π de {1, 2, ..., r}. Vamos a escribir
S(A) := AS .
1 X
AS (τ σ(1) , τ σ(2) , ..., τ σ(r) ) = A(τ σ(1) , τ σ(2) , ..., τ σ(r) )
r! π
1 X
= A(τ 1 , τ 2 , ..., τ r )
r! π
1 X
=A(τ 1 , τ 2 , ..., τ r ) = A(τ 1 , τ 2 , ..., τ r )
r! π
|{z}
=r!
Ejemplo 1.3.2
Para r = 2 solo hay dos permutaciones, e = (1, 2) y π = (2, 1) de modo que π 2 = e (es
equivalente al grupo cíclico Z2 ) y
1 X
AS (τ 1 , τ 2 ) = A(τ π(1) , τ π(2) )
2! π
1
= A(τ 1 , τ 2 ) + A(τ 2 , τ 1 )
2
1
Aij
S = A(ϵi , ϵj ) + A(ϵj , ϵi )
2
1
= (Aij + Aji ) em ⊗ en (ϵi , ϵj ) = δm
i j
δn
2
Para r = 3, tenemos un grupo de permutaciones de orden 3, como el grupo de simetrías del
triángulo como se muestra en la figura 1.3.1.
3 Recordar que las permutaciones son solo mapeos biyectivos sobre un mismo conjunto A, mapean cada
Figura 1.3.1
1
e=(1,2,3)
g1 =(3,1,2)
g2 =(2,3,1)
g3 =(2,1,3)
g4 =(3,2,1)
g5 =(1,3,2)
2 3
Las transformaciones de simetría del
triángulo forman un grupo, en este caso
es isomorfo o equivalente al grupo Z3 .
1
AS = A(τ 1 , τ 2 , τ 3 ) + A(τ 3 , τ 2 , τ 1 ) + A(τ 2 , τ 3 , τ 1 )
6
A(τ 2 , τ 1 , τ 3 ) + A(τ 3 , τ 2 , τ 1 ) + A(τ 1 , τ 3 , τ 2 )
1 ijk
Aijk
S = (A + Atodas las permutaciones de ijk )
6
Ejemplo 1.3.3
A = Aij ei ⊗ ej
Donde ik ∈ {1, ..., N } para cada k = 1, ..., r. Por la simetría, debemos tener que
para cada permutación. Nos fijamos en la figura 1.3.2, tenemos una caja con N − 1 paredes
móviles en su interior además de N espacios vacíos. En cada espacio podemos colocar cierto
número de objetos ×. De este modo, cada espacio o casilla representa uno de los N vectores de
la base de V que podemos escoger para eik , y el número de × que hay en cada una es el número
de veces que ha sido escogido ese vector. Así, debe haber r × dentro de la caja, estamos dejando
que se repitan los índices ik . De este modo, para ver las posibles combinaciones para la base
del tensor, debemos contar todas las posiciones posibles para las paredes y las ×, permutamos
estos N − 1 + r elementos y nos da (N + r − 1)!.
18 CAPÍTULO 1. ÁLGEBRA TENSORIAL
Figura 1.3.2
× ×× · · · ×× × × × ×
1 2 3 N-5 N-4 N-3 N-2 N-1
Permutaciones dentro de una caja.
Ahora bien, por la simetría sabemos que cada arreglo de posiciones que se repita bajo
permutaciones de las ×(equivalente a permutar los ínidces ik ) no debe contarse, para cada
arreglo hay r! permutaciones equivalentes a un solo arreglo. De este modo obtenemos el número
(N + r − 1)!/r!, pues el orden de las × no importa. Del mismo modo, el orden de las paredes
internas no importa, por lo que al final el conteo nos dice que
(N + r − 1)!
dim (S r (V)) = (1.3.4)
r!(N − 1)!
(r + s)!
AB(τ 1 , τ 2 , . . . , τ r+s ) = S(A ⊗ B)(τ 1 , τ 2 , . . . , τ r+s )
r!s!
1 X
= A(τ π(1) , . . . , τ π(r) )B(τ π(r+1) , . . . , τ π(r+s) )
r!s! π
Vamos a considerar solamente tensores de tipo (r, 0), para los covariantes todos los resultados
son análogos.
Teorema 1.4.1.
Al espacio de los tensores antisimétricos lo denotamos por Ar (V), este es subespacio vectorial
de los tensores del tipo (r, 0). Análogamente, Ar (V) será el subespacio correspondiente de Tr0 .
1.4. TENSORES ANTISIMÉTRICOS 19
Como σ ∈ Sr , es decir Sr = {e, ..., σ, ...}4 , entonces podemos determinar el siguiente conjunto
llamado coset de σ en teoría de grupos (las permutaciones forman un grupo)
Denotamos π ′ = πσ, de modo que cada π ′ es determinada de manera única por π o de otro
modo π ′ ≡ π, así
1 X ′ ′ ′
T A (τ σ(1) , τ σ(2) , . . . , τ σ(r) ) = ϵπ T (τ π (1) , τ π (2) , . . . , τ π (r) )
r! ′
π
Ejemplo 1.4.1
Vemos que
ϵ123 = 1 ϵ213 = −1
S3 = {(1, 2, 3) (3, 1, 2) (2, 3, 1)
ϵ312 = 1 ϵ321 = −1
(2, 1, 3) (3, 2, 1) (1, 3, 2)}
ϵ231 = 1 ϵ132 = −1
Así,
1
T A (τ 1 , τ 2 , τ 3 ) = (T (τ 1 , τ 2 , τ 3 ) + T (τ 3 , τ 1 , τ 2 ) + T (τ 2 , τ 3 , τ 1 )
6
− T (τ 2 , τ 1 , τ 3 ) − T (τ 3 , τ 2 , τ 1 ) − T (τ 1 , τ 3 , τ 2 ))
4 Recuérdese que e denota a la permutación identidad. S será el grupo de permutaciones para r elementos
r
de un conjunto de cardinalidad r.
6 Cuando σ y π son pares o impares, πσ es par y por tanto ϵ ϵ = (±1)(±1) = 1, cuando una es par y la otra
π σ
es impar entonces πσ es impar y por tanto ϵπ ϵσ = (±1)(∓1) = −1. Si una de las dos permutaciones no es par
ni impar, πσ tampoco y ϵπ ϵσ = 0.
20 CAPÍTULO 1. ÁLGEBRA TENSORIAL
En el ejemplo anterior nótese que si aplicamos la permutación a (i, i, k) nos arroja (π(i), π(i), k),
que no es par ni impar, por tanto se tendrá que (T A )iik = 0. De manera similar para índices
repetidos los coeficientes son cero.
Nótese como el espacio vectorial define si se trata de p-vectores o p-formas, pues los p-
vectores son tensores tipo (p, 0), es decir, (V ∗ )p 7→ R. En cambio las p-formas son de tipo
(0, p): V p 7→ R. De ahí el nombre, pues los p-vectores se expresan en la base de vectores
(contravariantes):
(p + q)!
A∧B = A(A ⊗ B)
p!q!
Sea V = R3 , con {ei }3i=1 base de V y V∗ con base dual {ϵj }3j=1 . El producto wedge (v 1 ∧ v 2 ) ∈
Λ2 (V ∗ ) es
v 1 (ϵj ) =v ℓ eℓ (ϵj ) = v j
v 2 (ϵi ) =um em (ϵi ) = ui
B ij = v 1 ∧ v 2 (ϵi , ϵj ) = v i uj − v j ui
donde i, j = 1, 2, 3 ≡ x, y, z, así,
B xy =v x uy − v y ux
B xz =v x uz − v z ux
B yz =v y uz − v z uy
(v ∧ b)µν =v µ bν − v ν bµ
hv, bi =v µ bν ηµν
=r!A(v 1 ⊗ v 2 ⊗ · · · ⊗ v r )
donde el orden del grupo Sr resulta ser |Sr | = r!, de este modo, tomando S3 = {e, g1 , g2 , g3 , g4 , g5 }
entonces |S3 | = 3!.
Se puede verificar que el producto ∧ es asociativo y lineal . Retomando {ei }N i=1 base de V y
∗
{ϵj }N j=1 base de V , determinamos el producto e 1 ∧ e 2 ∧ · · · ∧ e N . Tomamos N vectores duales
ϵj 1 , ϵj 2 , . . . , ϵj N :
X
(e1 ∧ e2 ∧ · · · ∧ eN )(ϵj1 , . . . , ϵjN ) = ϵπ eπ(1) (ϵj1 ) ∧ eπ(2) (ϵj2 ) ∧ · · · ∧ eπ(N ) (ϵjN )
π∈SN
X j1 j2 jN
= ϵπ δπ(1) δπ(2) · · · δπ(N )
π
Notemos que j1 , j2 , ..., jN = 1, 2, ..., N y π(1), π(2), ..., π(N ) = 1, 2, ..., N , con π(1) 6= π(2), si
j1 = j2 = j entonces
j j
δπ(1) δπ(2) = δ1j δ2j = 0 para π(1) = 1, π(2) = 2
j j
En general si π(m) 6= π(n), δπ(m) δπ(n) = 0; es decir, si hay dos elementos iguales del conjunto
{j1 , j2 , ..., jN } entonces
Si suponemos que todos los elementos de {j1 , j2 , ..., jN } son distintos entonces ∃σ ∈ SN tal que
y por tanto,
X j1 j2 jN
(e1 ∧ e2 ∧ · · · ∧ eN )(ϵj1 , . . . , ϵjN ) = ϵπ δπδ −1 (j ) δπδ −1 (j ) · · · δπδ −1 (j ) = 0
1 2 N
π
si π 6= σ, pero si π = σ entonces,
1 {1, ..., N } 7→ {j1 , ..., jN } es impar
(e1 ∧ · · · ∧ eN )(ϵj1 , . . . , ϵjN ) =ϵj1 j2 ···jN = 0 dos o más índices iguales (1.5.2)
−1 {1, ..., N } 7→ {j1 , ..., jN } es par
Teorema 1.5.1.
a ∧ (b + c) = a ∧ b + a ∧ c
A ∧ B = (−1)pq B ∧ A
donde A ∈ Λp (V ∗ ) y B ∈ Λq (V ∗ ).
Particularmente, si p = q = 1, v 1 ∧ v 2 = −v 2 ∧ v 1 .
V W
De modo que tenemos dos espacios: Λp (V) y Λp (W), con una transformación inducida T ∗ :
Λp (W) 7→ Λp (V) llamada transformación pull-back, está definida por
Figura 1.5.1
V W
T∗
Λp (V) Λp (W)
Proposición 1.5.1
Sea T : V 7→ W y S : W 7→ U :
1. T ∗ : Λp (W) 7→ Λp (V),
2. (S ◦ T )∗ = T ∗ ◦ S ∗ ,
T ∗ (p ∧ σ) = (T ∗ p) ∧ (T ∗ σ)
∗
Si {ei }N
i=1 es una base de V, con estos vectores construimos una base para Λ (V ) usando
p
el producto wedge:
e i 1 ∧ e i 2 ∧ · · · ∧ e ip
Pues cada elemento de esta forma es un tensor antisimétrico, de modo que al aplicarlo sobre
la base de (V ∗ )p da la relación “dual” (1.5.2). ¿Cuántos elementos hay en la base? ¿Cuál es la
dimensión dim (Λp (V ∗ ))? Sea ω ∈ Λp (V ∗ ), entonces
De modo que, queremos todos los vectores linealmente independientes, tomando en cuenta la
anticonmutatividad del producto wedge (teorema 1.5.1) vemos que
e i1 ∧ e i 2 ∧ · · · ∧ e i p , e i 2 ∧ e i 1 ∧ · · · ∧ e ip , ..., e i2 ∧ e i3 ∧ · · · ∧ e i1
1 N (N − 1) · · · (N − (p − 1) · · · 3 · 2 · 1 N!
N (N − 1) · · · (N − p + 1) = =
p! p!(N − p)! p!(N − p)!
N!
dim (Λp (V ∗ )) = (1.5.4)
p!(N − p)!
24 CAPÍTULO 1. ÁLGEBRA TENSORIAL
Ejemplo 1.5.1
(Nótese que Aii = −Aii implica Aii = 0) Por tanto, este espacio tiene dimensión 3!/2!(3−
2)! = 3, que es la dimensión del espacio de matrices correspondientes.
¿Cuánto vale dim ΛN (V ∗ ) ?
N!
dim ΛN (V ∗ ) = =1
N !(N − N )!
De la misma manera se tiene que
N!
dim Λp (V ) = (1.5.5)
p!(N − p)!
X
N
A= Ai1 i2 ...ip ei1 ∧ ei2 ∧ · · · ∧ eip
i1 <i2 <···<ip =1
1 X X X
N N N
= ··· Ai1 i2 ...ip ei1 ∧ ei2 ∧ · · · ∧ eip
p! i =1 i =1 i =1
1 2 p
M
N
Λ(V ∗ ) = Λp (V ∗ )
p=0
=R ⊕ V ⊕ Λ2 (V ∗ ) ⊕ · · · ⊕ ΛN (V ∗ )
X
N
=⇒ dim (Λ(V ∗ )) = dim (Λp (V ∗ ))
p=0
X
N XN
N! N
= = 1p 1N −p
p=0
p!(N − p)! p=0
p
=(1 + 1)N = 2N
Proposición 1.5.2
v 1 ∧ v 2 ∧ · · · ∧ v p 6= 0
α1 v 1 + · · · + αp v p = 0 ∈ V
α1 v 1 ∧ v 2 ∧ · · · ∧ v p = 0 ∈ Λ(V ∗ )
Ejemplo 1.5.2
v 1 =e1 + 2e2 − e3
v 2 =3e1 + e2 + 2e3
v 3 = − e1 − 3e2 + 2e3
Determinamos su producto:
No es difícil verificar que, en efecto los 3 vectores dados son dependientes, como acabamos
de determinar.
26 CAPÍTULO 1. ÁLGEBRA TENSORIAL
Suponga que {ei }pi=1 con p ≤ dim (V) es un conjunto de vectores linealmente indepen-
dientes en V y que {v i }pi=1 son vectores en V tal que
X
p
ei ∧ v i = 0
i=1
Entonces todos los vectores en {v i }pi=1 son combinaciones lineales de {ei }pi=1 , más aún,
P
p
si v i = Aij ej entonces Aij = Aji .
j=1
X
p
ei ∧ v i ∧ e2 ∧ · · · ∧ ep = e1 ∧ v 1 ∧ e2 ∧ · · · ∧ ep = 0
i=1
−v 1 ∧ e1 ∧ e2 ∧ · · · ∧ ep = 0
Esto implica que el conjunto de los vectores ei más el vector v 1 es linealmente dependiente, es
decir,
es decir,
X
p
v1 = A1j ej
j=1
X
p
vk = Akj ej
j=1
Entonces,
X X
p X 1X
ei ∧ Akj ej = Aij ei ∧ ej = (Aij − Aji )ei ∧ ej = 0
i j=1 i,j
2 i<j
1.6. Orientación
Observemos que
(mano derecha/izquierda)?
1.6. ORIENTACIÓN 27
Sea {v i }N
i=1 base de V, esta está ordenada de la siguiente forma
{v 1 , v 2 , v 3 , ..., v N }
{v 2 , v 1 , v 3 , ..., v N }
Si {v i }N
i=1 es una base orientada y {ui }i=1 es otra base orientada, como los vectores en cada
N
base son linealmente independientes y los vectores ui están relacionados con los vectores v i ,
tenemos que
uk = Rkj v j
donde (Rij ) es la matriz de transición (cambio de base). De esta manera podemos escribir
u1 ∧ u2 ∧ · · · ∧ uN = R1j1 R2j2 · · · RN jN v j1 ∧ v j2 ∧ · · · ∧ v jN
Definición 1.6.3:
∗
Sea V un espacio vectorial. Sea {ϵ}N
i=1 una base orientada de V . El elemento de volumen
orientado µ ∈ ΛN (V) de V es definido por
µ = ϵ 1 ∧ ϵ2 ∧ · · · ∧ ϵ N
Si {ei }N
i=1 y {ϵ }j=1 tienen la misma orientación,
j N
1
µ(e1 , e2 , ..., eN ) =
N!
Si {v i }N
i=1 es otra base orientada de V entonces es orientada respecto a la forma de volumen si
µ(v 1 , v 2 , ..., v N ) > 0.
28 CAPÍTULO 1. ÁLGEBRA TENSORIAL
Capítulo 2
Cálculo tensorial
CONTINUARÁ...
29