Notas

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 104

Procesos Estocásticos II

Diplomado en Riesgos

Gerónimo Uribe Bravo


Instituto de Matemáticas
Universidad Nacional Autónoma de México
CAPÍTULO 1

Martingalas

En este capı́tulo nos enfocaremos en el estudio de las martingalas. Esta es una


clase de procesos fundamental para la teorı́a moderna de la probabilidad. Tanto
ası́ que la herramienta teórica sobre la cual se construye la teorı́a moderna de las
finanzas matemáticas (el llamado cálculo estocástico) es una teorı́a basada en las
martingalas.

1. Recordatorio sobre esperanza condicional


Si (Ω, F , P) es un espacio de probabilidad y B ∈ F es tal que P(B) > 0,
podemos definir la probabilidad condicional de A dado B mediante la fórmula
P(A ∩ B)
P( A | B) =
P(B)
que se puede entender a través de la interpretación frecuentista de la probabilidad.
Ası́, para una variable aleatoria discreta1 estamos acostumbrados a expresiones como
P( A | X = j) y a la conotación que que se les ha dado. Desafortunadamente, una
extensión del concepto de probabilidad condicional a eventos cualquiera no es tan
inmediata2, por lo que primero desarrollaremos algunas propiedades de la esperanza
condicional que nos permitan entender la solución que se le ha dado a este problema
de extensión, definiendo algunos conceptos y verificando algunas propiedades de las
variables aleatorias que nos faciliten el camino.
1.1. Preliminares. A lo largo de la sección, (Ω, F , P) designará a un espacio
de probabilidad arbitrario y al las funciones medibles de Ω en R las llamaremos
variables aleatorias reales, aunque generalmente se omitirá la palabra reales. Si
X : Ω → R es una variable aleatoria en (Ω, F , P) se utilizará la notación
{X ∈ B} = X −1 (B) .
También, mn (m) representará a la medida de Lebesgue sobre los Borelianos de Rn
(R).
Nota. Si f : R → R es Borel medible, entonces f ◦ X es borel medible, por lo
que está definida su esperanza cuando la integral de la composición esté definida.
1Esto es, una función X : Ω → R Borel medible tal que X(Ω) sea a lo más numerable.
2‘?Qué pasarı́a en el caso de eventos condicionantes de probabilidad cero?

1
1. Recordatorio sobre esperanza condicional 2

Definición. Si X : Ω → R es una variable aleatoria, la medida de probabilidad


inducida por X, es la función PX : BR → [0, 1] dada por:
PX (B) = P(X ∈ B) .
Nota. Si PX es absolutamente continua con respecto a la medida de Lebesgue
sobre los Borelianos de R, diremos que X es absolutamente continua y en este caso
existe una densidad gX : R → R tal que
Z
P(X ∈ B) = PX (B) = gX dm.
B

Teorema 1.1 (Teorema de Cambio de variable). Si X : Ω → R es una variable


aleatoria en (Ω, F , P) y f : R → R es Borel medible tal que la integral de f ◦ X está
definida, entonces: Z
E(f ◦ X) = f PX (d ) .

Ejercicio 1.1. Sea X una variable aleatoria normal centrada de varianza 1.


Utilice el teorema de cambio de variable para calcular
E X 2n


para toda n ∈ N.
Proposición 1.1. Sea Z : Ω → R una variable aleatoria fija en (Ω, F , P) y
G = σ(Z). Si X : Ω → R es G medible, entonces existe f : R → R Borel-medible,
tal que X = f ◦ Z.
1.2. Esperanza Condicional. Si Z : Ω → R es una variable aleatoria simple
en (Ω, F , P) y Y : Ω → R es una variable aleatoria, una definición natural de la
probabilidad condicional P( Y ∈ B | Z) es la siguiente:
X
P( Y ∈ B | Z) = P( Y ∈ B | Z = i) 1{Z=i} ,
i∈RZ

donde RZ = Z (Ω) ⊂ R es un conjunto finito. Notemos que en este caso, la proba-


bilidad condicional es una función de la variable aleatoria Z, por lo que resulta ser
σ(Z)-medible y que cumple la relación
Z
P(Y ∈ B, A) = P( Y ∈ B | Z) dP, A ∈ σ(Z) ,
A
que es equivalente a
Z Z
1Y ∈B dP = P( Y ∈ B | Z) dP,
A A
esto es, obtenemos información (la integral sobre un conjunto) de la variable 1Y ∈B ,
que no es necesariamente σ(Z)-medible a través de la variable P( Y ∈ B | Z) que
si lo es, aunque sea para una clase restringida de eventos (σ(Z), que resulta ser
una σ-álgebra). Además, en la propiedad anterior de probabilidad condicional, la
1. Recordatorio sobre esperanza condicional 3

variable aleatoria Z solo juega un papel secundario, y la σ-álgebra σ(Z) se torna


imprescindible. Como un comentario adicional, recordemos que dos variables aleato-
rias Y y Z son iguales P-p.s. si y solo si A Y dP = A Z dP para todo A ∈ F (una
R R

propiedad parecida a la encontrada en la probabilidad condicional), por lo que la


función que a cada elemento A de F le asigna el número A Y dP (que resulta ser
R

una medida con signo si la integral de Y está definida) determina completamente


a la variable aleatoria Y . El comentario anterior puede motivar la definición de
esperanza condicional, de la cual la probabilidad condicional es un caso particular3,
en la que se condiciona con respecto a una σ-álgebra:
Definición. Si X es una variable aleatoria en (Ω, F , P) , y G ⊂ F es una
σ-álgebra, la esperanza condicional de X dado G , denotada por E( X | G ), es
una variable aleatoria G -medible que cumple
Z Z
X dP = E( X | G ) dP
A A
para todo A ∈ G .
Proposición 1.2. Si X : Ω → R es una variable aleatoria en (Ω, F , P) cuya
integral está definida y GR ⊂ F es una
R σ-álgebra, entonces existe una variable aleato-
ria Y : Ω → R tal que A X dP = A Y dP, para A ∈ G . Además, si Z cumple la
misma propiedad, entonces Y = Z casi seguramente respecto a P|G .
Ejercicio 1.2. Si (X, Y ) son dos variables aleatorias con densidad conjunta
f (x, y), pruebe que:
R
f (X, y) g (y) dy
E( g (Y ) | X) = R .
f (X, y) dy
Ejercicio 1.3. Sean X1 , X2 , . . . vaiids. Sea K una variable aleatoria indepen-
diente de X1 , X2 , . . . y con valores en N. Cacule
E( X1 + · · · + XK | K) .
Sugerencia: ¿Qué pasa cuando K toma sólo un valor?
1.3. Propiedades de la esperanza condicional. Las siguientes son algunas
propiedades de la esperanza condicional, en las que consideramos G ⊂ F una
σ-álgebra. Si X y Y son variables aleatorias, la ecuaciónR Y = E( X R| G ) significa
que el lado izquierdo de la ecuación es G -medible y que A Y dP = A X dP para
A ∈ G . Consideraremos solo variables aleatorias cuya integral esté definida, por lo
que la existencia de la esperanza condicional queda garantizada.
Propiedad 1 (Linealidad de la esperanza condicional). Si X y Y son vari-
ables aleatorias integrables y a, b ∈ R, entonces E( aX + bY | G ) existe y es igual a
aE( X | G ) + bE( Y | G ).

3Se utilizará la relación P(A) = E(1 ) para este efecto.


A
1. Recordatorio sobre esperanza condicional 4

Propiedad 2 (Monotonı́a de la esperanza condicional). Si X es no negativa


P-p.s. entonces E( X | G ) existe y es no negativa P|G -p.s..
Propiedad 3. Si la integral de X está definida entonces |E( X | G )| ≤ E( |X| | G ).
Propiedad 4. Si X es G -medible, entonces E( X | G ) = X.
Propiedad 5. Si X es independiente de G entonces E( X | G ) = E(X).
Propiedad 6. E(E( X | G )) = E(X).
Propiedad 7 (Propiedad de torre). Si D ⊂ G y D es σ-álgebra entonces
E( E( X | G ) | D) = E( X | D) = E( E( X | D) | G ) .
Propiedad 8 (Teorema de Convergencia Monótona para la Esperanza Condi-
cional). Si (Xn )n∈N son variables aleatorias tal que 0 ≤ Xn ≤ Xn+1 y X = lim Xn ,
n→∞
entonces E( X | G ) existe y
lim E( Xn | G ) = E( X | G ).
n→∞

Propiedad 9 (Lema de Fatou para la Esperanza Condicional). Si Xn ≥ 0 para


n ∈ N entonces existe  
E lim inf Xn G

n→∞
y  
E lim inf Xn G ≤ lim inf E( Xn | G ) .

n→∞ n→∞

Propiedad 10 (Teorema de Convergencia Dominada para la Esperanza Condi-


cional). Si
(Xn )n∈N ⊂ L1 (P)
es puntualmente convergente y existe Y ∈ L1 (P) tal que |Xn | ≤ Y para n ∈ N,
entonces  
E lim Xn G

n→∞
existe y es igual a lim E( Xn | G ) (donde la existencia de este último lı́mite solo
n→∞
se asegura P|G -p.s.).
Propiedad 11 (G -homogeneidad). Si X1 y X2 son variables aleatorias inte-
grables tales que X1 X2 es integrable y X1 es G -medible entonces
E( X1 X2 | G ) = X1 E( X2 | G ) .
(Note que la hipótesis de integrabilidad del producto quedarı́a garantizada si X1 y
X2 pertenecen a L2 (P)).
Propiedad 12. Si f : R × R → R es boreliana, Rla integral de f (X, Y ) existe,
Y ⊥ G y X es G -medible entonces E( f (X, Y ) | G ) = R f (X, y) PY (dy).
2. Martingalas 5

Propiedad 13. Si H , G ⊂ F son σ-álgebras y H ⊥ σ(G , σ(X)), entonces


E( X | σ(H , G )) = E( X | G ) .
Propiedad 14 (Desigualdad de Jensen para la Esperanza Condicional). Si
ϕ : R → R es una función convexa, la integral de X existe y la integral de ϕ ◦ X
está definida, entonces
ϕ (E( X | G )) ≤ E( ϕ ◦ X | G ) P|G − p.s.
Si ψ : R → R es una función cóncava, X es integrable y la integral de ψ ◦ X está
definida, entonces
ψ (E( X | G )) ≥ E( ψ ◦ X | G ) P|G − p.s..

2. Martingalas
Estudiaremos ahora una familia de procesos estocásticos que es importante den-
tro de la teorı́a de la probabilidad, principalmente por sus aplicaciones teóricas,
tanto ası́, que su estudio resulta imprescindible para la teorı́a moderna de la prob-
abilidad. Mediante su uso, verificaremos ciertos teoremas clásicos para caminatas
aleatorias, como la ley 0 − 1 de Kolmogorov y la ley fuerte de los grandes números.
En este capı́tulo solamente consideraremos procesos estocásticos indicados por un
subconjunto de Z.
Consideremos la siguiente situación: jugamos una serie de volados, obteniendo
1 si ganamos el n-ésimo y −1 si lo perdemos. El modelo matemático que consid-
eraremos está conformado por una sucesión de variables aleatorias independientes

e idénticamente distribuidas (Xi )i=1 , donde Xi representa el resultado del i-ésimo
volado. Nuestra fortuna al tiempo n, Sn , está dada por
n
X
Sn = Xi
i=1

para n ≥ 1 y definiremos S0 = 0. Para que el juego resulte justo para las dos
personas que lo juegan, debemos pedir que P(Xi = 1) = 1/2. Si este es el caso,
podemos preguntarnos por la mejor aproximación a Sn+1 que podemos dar al utilizar
la información sobre el juego que conocemos hasta el tiempo n. La información al
tiempo n la interpretaremos como
Fn = σ(X1 , . . . , Xn ) ,
puesto que esta σ-álgebra contiene a todos los conjuntos de la forma
{X1 = i1 , . . . , Xn = in } ,
y ası́, lo que realmente buscamos es la esperanza condicional de Sn+1 dada Fn , que
es sencilla de calcular, pues
E( Sn+1 | Fn ) = E( Sn + Xn+1 | Fn ) = Sn + E(Xn+1 ) = Sn .
2. Martingalas 6

Como un ejercicio, el lector puede verificar que de hecho,


E( Sn+m | Fn ) = Sn , ∀m ≥ 0,
por lo que al conocer la información hasta el tiempo n, solamente podemos afirmar
que nos quedaremos con lo que tenemos, y como lo mismo sucede con el jugador
contra el cual competimos, el juego resulta ser justo.
Informalmente, podemos definir una martingala como un proceso estocástico
(Xn )n∈N tal que Xn representa la ganancia al tiempo n de un jugador involucrado
en un juego justo respecto a cierta información. Para precisar esta idea, necesitamos
un ingrediente extra:
Definición. Sea (Ω, F , P) un espacio de probabilidad y (Fn )n∈N una colección
de σ-álgebras contenidas cada una en F . Decimos que dicha familia es una fil-
tración si Fn ⊂ Fm cuando n ≤ m.
Si (Fn )n∈N es una filtración, interpretaremos a Fn como la información acu-
mulada al tiempo n.
Definición. Sean (Ω, F , P) un espacio de probabilidad y (Fn )n∈N una fil-
tración en dicho espacio. Una colección de variables aleatorias reales (Xn )n∈N es
una martingala respecto a la filtración considerada si
(1) Xn es Fn -medible.
(2) Xn ∈ L1 .
(3) E( Xn+1 | Fn ) = Xn para cualquier n ∈ N.
La primera propiedad nos dice que conocemos la ganancia al tiempo n a partir
de la información que se nos proporciona hasta ese instante, generalmente se dice
que la sucesión de variables aleatorias es adaptada a la filtración. La segunda es
una hipótesis técnica que nos permite utilizar a la esperanza condicional como un
operador lineal y la tercera nos dice que el juego es justo respecto a la información
proporcionada.
Definición. Supongamos ahora que (Xn )n∈N satisface (1) y (2), pero en vez
de tener una igualdad en (3), observamos una desigualdad:
E( Xn+1 | Fn ) ≤ Xn .
Entonces le llamaremos a la sucesión una supermartingala. (Note que de acuerdo
a nuestra interpretación de Xn como evolución de nuestra fortuna, una supermartin-
gala no tiene nada de super...) Si se da la desigualdad contraria, esto es,
E( Xn+1 | Fn ) ≥ Xn ,
entonces a (Xn )n∈N le llamamos submartingala.
Notemos que si (Xn )n∈N es una martingala, entonces la sucesión (E(Xn ))n∈N
es constante. Para una supermartingala o una submartingala, la palabra constante
2. Martingalas 7

se debe substituir por decreciente o por creciente. Además, podemos inferir una
propiedad más fuerte a partir de (3), a saber, que
E( Xn+m | Fn ) = Xn
si n, m ∈ N. Esto se sigue de las propiedades de la esperanza condicional, puesto
que
E( Xn+m+1 | Fn ) = E( E( Xn+m+1 | Fn+m ) | Fn ) = E( Xn+m | Fn ) .
Una afirmación similar es válida para supermartingalas o submartingalas al cambiar
la igualdad por una desigualdad. Para concluir esta sección, veamos un método para
construir submartingalas a partir de una martingala dada.

Teorema 1.2. Si (Xn )n∈N es una martingala respecto a la filtración (Fn )n∈N
y ϕ : R → R es una función convexa tal que ϕ(Xn ) ∈ L1 , entonces (ϕ(Xn ))n∈N es
una submartingala respecto a la misma filtración.

Demostración. Como cualquier función convexa (sobre R) es continua, en-


tonces ϕ(Xn ) es Fn -medible, que pertenece por hipótesis a L1 . Finalmente, por la
desigualdad de Jensen para la esperanza condicional,
E( ϕ(Xn+1 ) | Fn ) ≥ ϕ(E( Xn+1 | Fn )) = ϕ(Xn ) . 

2.1. Ejemplos. En esta sección supondremos que (Ω, F , P) es un espacio de


probabilidad en el cual están definidas variables aleatorias con las caracterı́sticas
deseadas.

Ejemplo 1.1. Supongamos que X es una variable aleatoria que pertenece a L1


y (Fn )n∈N una filtración en (Ω, F , P). Entonces la sucesión de variables aleatorias
(Xn )n∈N en la cual
Xn = E( X | Fn )
(sin importar la versión de la esperanza condicional) es una martingala respecto a
(Fn )n∈N .
Para verificar la veracidad de la anterior afirmación, notemos que por definión
de esperanza condicional, Xn es Fn -medible y que Xn ∈ L1 . Finalmente, como
Fn ⊂ Fn+1 , entonces
E( Xn+1 | Fn ) = E( E( X | Fn+1 ) | Fn ) = E( X | Fn ) = Xn .
Esta martingala es un ejemplo bastante general y muy importante. Posteriormente
podremos determinar cuando una martingala es de este tipo. A este proceso se le
conoce como la martingala cerrada.

Ejemplo 1.2. Sean (ξi )i=1 variables aleatorias independientes e idénticamente
distribuidas, F0 = {∅, Ω} y Fn = σ(ξ1 , . . . , ξn ) para n ≥ 1. Entonces (Fn )n∈N es
2. Martingalas 8

una filtración.. Si
S0 = 0,
n
X
Sn = ξi n ≥ 1,
i=1

y ξi tiene media finita µ, entonces (Xn )n∈N es una martingala respecto a (Fn )n∈N ,
donde
Xn = Sn − nµ.
Si además, σ 2 = Var(ξi ) < ∞, entonces (Yn )n∈N es martingala respecto a la misma
filtración, donde
2
Yn = (Sn − nµ) − nσ 2 .
Por otro lado, si
ϕ(θ) = E eθξi < ∞


para θ ∈ R, definimos Z0 = 1 y para n ≥ 1:


eθSn
Zn = n,
(ϕ(θ))
entonces (Zn )n∈N es una martingala respecto a la misma filtración.
Como Xn , Yn y Zn están dadas por f (ξ1 , . . . , ξn ), para una función continua
f : Rn → R (una función distinta para cada variable aleatoria) y el vector aleatorio
(ξ1 , . . . , ξn ) es medible respecto a Fn , se sigue que las tres variables consideradas
son Fn -medibles. Para ver que pertenecen a L1 , notemos que Xn , es la diferencia
de dos funciones en L1 , por ser este último cerrado bajo la suma. Además, si ξi
tiene momento de segundo orden finito, entonces a Sn le pasa lo mismo, por lo que
Yn ∈ L1 . Para Zn , el argumento que utilizamos es el de independencia, puesto que
esto implica que
n
E(exp(θSn )) = (ϕ(θ)) < ∞.
Para verificar la última propiedad que define a las martingalas, notemos que
E( Xn+1 − Xn | Fn ) = E( ξn+1 − µ | Fn ) = E(ξn+1 − µ) = 0,
por lo que (Xn )n∈N es efectivamente una martingala. Por otro lado,
 
2 2
E( Yn+1 − Yn | Fn ) =E (Sn+1 − (n + 1) µ) − (Sn − nµ) − σ 2 Fn

=E( 2 (Sn − nµ) (ξn+1 − µ) | Fn )


 
2
+ E (ξn+1 − µ) − σ 2 Fn

=2 (Sn − nµ) E(ξn+1 − µ) + E((ξn+1 − µ))


=0,
2. Martingalas 9

por lo que (Yn )n∈N es una martingala. Finalmente se tiene que

eθξn+1
 
E( Zn+1 | Fn ) = E Zn F n
ϕ(θ)
 θξn+1 
e
= Zn E
ϕ(θ)
= Zn ,

por lo que (Zn )n∈N es una martingala.


Más adelante, utilizaremos estas martingalas para hacer ciertos cálculos refer-
entes a caminatas aleatorias.
Ejemplo 1.3. Sea U una variable aleatoria uniforme en (0, 1) y definamos a
Xn = 2n 1U ≤1/2n .
Entonces X0 , X1 , . . . es una martingala respecto de la filtración que genera.
Ejercicio 1.4. Probar la afirmación anterior.
Notemos que en esta martingala, se tiene que Xn → 0 P-p.s., pero que sin
embargo, (Xn )n∈N no converge en L1 a 0.
Ejemplo 1.4. Consideremos el siguiente experimento aleatorio, se tiene una
urna con r bolas rojas y v bolas verdes. Extraemos una bola, la reemplazamos
junto con c bolas del mismo color, revolvemos la urna y volvemos a realizar el ex-
perimento. Sea X0 la fracción inicial de bolas rojas en la urna y Xn la fracción de
bolas rojas en la urna una vez realizado el experimento n veces. Entonces (Xn )n∈N
es una martingala con respecto a la filtración que genera esta sucesión. Antes de pro-
ceder a verificar la afirmación anterior, debemos considerar el modelo matemático
preciso del experimento aleatorio en cuestión, para poder calcular las esperanzas
condicionales. Notemos que al momento de la n-ésima extracción hay
bn = r + v + nc
bolas en la urna. Sean (Ui ) variables aleatorias independientes e idénticamente
distribuidas, r, v > 0 y definamos X0 = r/(r + v) y para n ≥ 0:
r + v + nc c
Yn+1 = 1Un+1 ≤Xn y Xn+1 = Xn + Yn .
r + v + (n + 1) c r + v + (n + 1) c
Esta es la descripción matemática que utilizaremos del experimento considerado
anteriormente y en él, la variable Xn es función de X0 , U1 , . . . , Un para n ≥ 1 (de
hecho es función de Xn−1 y Un ) y por lo tanto, Un+1 es independiente de Fn , la
σ-álgebra generada por X0 , . . . , Xn .
Ejercicio 1.5. Verificar que la sucesión X es una martingala respecto de (Fn ).
2. Martingalas 10

2.2. El teorema de muestreo opcional de Doob. Entre las razones por las
cuales las martingalas son importantes, se encuentran los teoremas de convergencia
de martingalas, que bajo ciertas condiciones de acotamiento nos permiten concluir
la convergencia casi segura (o de otro tipo) de una martingala. Para abordar este
resultado, es importante extender la igualdad E(Xn ) = E(X0 ) para abarcar no sólo a
tiempos deterministas como n, sino también a ciertos tiempos aleatorios, concepto
que procedemos a discutir. Consideremos (Ω, F , P) un espacio de probabilidad,
(Fn )n∈N una filtración y (Xn )n∈N una martingala respecto a la anterior filtración.
Nuestro objetivo es observar a la martingala a un tiempo que a su vez es una
variable aleatoria. Esto se logra como sigue: si T : Ω → N es una variable aleatoria
y definimos a XT : Ω → R por medio de
XT (ω) = XT(ω) (ω) ,
entonces XT resulta ser una variable aleatoria, puesto que si B ∈ BR , entonces
XT−1 (B) = ∪n∈N {ω ∈ Ω : T (ω) = n, Xn (ω) ∈ B} .
Mediante la anterior variable aleatoria, observamos a la martingala al tiempo aleato-
rio T . En realidad, trabajaremos con una clase más reducida de tiempos aleatorios,
a saber, los tiempos de paro. Para explicarlos, pensemos que al instante n debemos
decidir si parar a la martingala (definiendo a n como el valor de T ) de acuerdo a la
información que tenemos disponible (es decir Fn ). Esto motiva la siguiente
Definición. Sea T : Ω → N ∪ {∞} una variable aleatoria. Decimos que T es
un tiempo de paro respecto a la filtración (Fn )n∈N si
{ω ∈ Ω : T (ω) = n} ∈ Fn ∀n ∈ N.
El lector puede verificar que T es un tiempo de paro respecto a la filtración
(Fn )n∈N si y sólo si {T ≤ n} ∈ Fn .
Teorema 1.3. Sea X una submartingala. Si T es tiempo de paro respecto a
(Fn )n∈N y T está acotado por N entonces
E(XT ) ≤ E(XN ) .
Si X es una martingala entonces
E(XT ) = E(XN ) .
Demostración. Por hipótesis, existe un natural N > 0 tal que T ≤ N . Ası́,
N
X 
E(XT ) = E Xn 1(T =n) ,
n=0

pero como el conjunto {T = n} pertenece a Fn


E Xn 1(T =n) ≤ E E( XN | Fn ) 1(T =n) = E XN 1(T =n) ,
  
2. Martingalas 11

por lo que
N
X 
E(XT ) ≤ E XN 1(T =n) = E(XN ) .
n=0
Si X es una martingala, la desigualdad que utilizamos es una igualdad. 
El teorema anterior vale para tiempos de paro acotados y posteriormente, al
hacer un análisis más a fondo de las martingalas y de los tiempos de paro podremos
extender el teorema anterior a una familia más amplia de tiempos de paro.
Ejercicio 1.6. Sea X una supermartingala. Pruebe que si T es un tiempo de
paro acotado por N entonces
E(XT ) ≥ E(XN ) .
2.3. El teorema de muestreo opcional de Doob y el problema de la
ruina. En esta sección aplicaremos el teorema de muestreo opcional para tiempos de
paro acotados para resolver algunas preguntas concernientes a un problema clásico
dentro de la probabilidad, el problema de la ruina. Utilizaremos las martingalas del
ejemplo (??). Supongamos que dos personas, A y B, juegan a los volados, donde
A gana el n-ésimo volado con probabilidad p ∈ (0, 1). Si A cuenta con una fortuna
inicial de a pesos, B una de b pesos y apuestan en una serie de volados, un peso
cada volado, hasta que uno de los dos quede sin dinero, ‘?cuál es la probabilidad de
que A se quede con la fortuna de B? y ‘?cuál es la duración esperada del juego?
Para responder a dichas preguntas, primero las formularemos en términos de la

caminata aleatoria simple de la siguiente manera: Sean (Xi )i=1 variables aleatorias
independientes que toman el valor 1 con probabilidad p y −1 con probabilidad 1−p.
Ası́, Xi toma el valor 1 si A le gana un peso a B y el valor −1 si pierde un peso en
el i-ésimo volado. Sean
S0 = 1 y Sn = X1 + · · · + Xn para n ≥ 1.
Ası́, a + Sn representa a la fortuna de A después de n volados, y por lo tanto, si
Tx = inf {n ≥ 1 : Sn = x} ,
A le gana su fortuna a B si Tb < T−a . Para responder la primera pregunta, debemos
calcular P(Tb < T−a ) .
La cantidad de volados que juegan hasta que alguien se quede sin dinero es Tb ∧T−a ,
por lo que para responder a la segunda pregunta, debemos
calcular E(Tb ∧ T−a ) .
El análisis es distinto si se trata de un juego justo (p = 1/2) o no. Haremos el caso
p = 1/2 y el caso p 6= 1/2 se dejará indicado como ejercicio.
Necesitamos un resultado preliminar.
Proposición 1.3. Para cualquier a, b > 0, P(Tb ∧ T−a < ∞) = 1.
2. Martingalas 12

Demostración. Sea K un entero mayor a a+b. Notemos que P(|SK | ≥ a ∨ b) >


0 y que, como los eventos
|SK | ≥ a ∨ b, |S2K − SK | ≥ a ∨ b, . . .
son independientes
y tienen
la misma probabilidad, el lema de Borel-Cantelli nos
dice que SnK − S(n−1)k ≥ a ∨ b para una infinidad
de ı́ndices n casi seguramente.
Por otra parte, vemos que si SnK − S(n−1)k ≥ a ∨ b entonces T ≤ nK. 
Caso p = 1/2: Como (Sn )n∈N es martingala respecto a la filtración que gen-
era, tiene media cero y T−a ∧ Tb ∧ n es un tiempo de paro acotado, se tiene
que

0 = E ST−a ∧Tb ∧n .

Además, ST−a ∧Tb ∧n n≥1 converge a ST−a ∧Tb y los elementos de dicha
sucesión están acotados por a∨b,. Por el teorema de convergencia acotada,

0 = E ST−a ∧Tb = −aP(T−a < Tb ) + bP(Tb < T−a ) ,
de donde
a
P(Tb < T−a ) = .
a+b

Para responder a la segunda pregunta en este caso, notemos que Sn2 − n n∈N
es martingala respecto a la filtración que genera, ya que E(Xi ) = 0 y
Var(Xi ) = 1. Al utilizar el tiempo de paro acotado T−a ∧ Tb ∧ n, vemos
que  
E ST2−a ∧Tb ∧n = E(T−a ∧ Tb ∧ n) .

Como ST−a ∧Tb ∧n n≥1 es una sucesión acotada por a2 ∨ b2 y converge a
ST−a ∧Tb , por lo que podemos aplicar el teorema de convergencia acotada
para concluir que
 
E ST−a ∧Tb = lim E ST−a ∧Tb ∧n = lim E(T−a ∧ Tb ∧ n) .
n→∞ n→∞

Como (T−a ∧ Tb ∧ n)n∈N es una sucesión creciente de variables aleatorias


no negativas, que converge a T−a ∧ Tb , por el teorema de convergencia
monótona, se tiene que
   
E(T−a ∧ Tb ) = lim E(T−a ∧ Tb ∧ n) = lim E ST2−a ∧Tb ∧n = E ST2−a ∧Tb .
n→∞ n→∞

Finalmente, al utilizar el valor de P(Tb < T−a ), vemos que


b a
E(T−a ∧ Tb ) = a2 + b2 = ab,
a+b a+b
por lo que la cantidad esperada de volados hasta la ruina de alguno de los
dos jugadores es ab.
Ejercicio 1.7. Suponga que p > 1 − p.
2. Martingalas 13

x
(1) Sea φ(x) = (p/q) y pruebe que (φ(Sn ))n∈N es martingala respecto a la
filtración que genera.
(2) Note que al aplicar el teorema de muestreo opcional de Doob al tiempo de
paro acotado T−a ∧ Tb ∧ n se obtiene

1 = E φ ST−a ∧Tb ∧n .

Utilice alguna propiedad de la esperanza para pasar al lı́mite conforme


n → ∞ y concluir que

1 = E φ ST−a ∧Tb = φ(−a) P(T−a < Tb ) + φ(b) P(Tb < T−a ) .

Concluya con el cálculo explı́cito de P(Tb < T−a ).


(3) Pruebe que (Sn − n (2p − 1))n∈N es una martingala.
(4) Note que al aplicar muestreo opcional al tiempo de paro T−a ∧ Tb ∧ n se
obtiene

E ST−a ∧Tb ∧n = (2p − 1) E(T−a ∧ Tb ∧ n) .

Aplique propiedades de la esperenza al lado derecho y de la probabilidad al


lado derecho que permitan pasar al lı́mite conforme n → ∞ en la expresión
anterior y obtener:

1 
E(T−a ∧ Tb ) = E ST−a ∧Tb
2p − 1
1
= (−aP(T−a < Tb ) + bP(Tb < T−a ))
2p − 1

y calcule explı́citamente E(T−a ∧ Tb ).

2.4. El teorema de convergencia casi segura. Para proceder a estudiar


la convergencia casi segura de las martingalas, necesitamos una caracterización de

la convergencia de sucesiones. Para esto, consideremos una sucesión real {xn }n=0 .
Para verificar si esta sucesión es convergente en R, es necesario y suficiente probar
que lim inf n→∞ xn = lim supn→∞ xn y que esta cantidad pertenece a R. A contin-
uación veremos una manera de concluir que el lı́mite superior y el lı́mite inferior de
la sucesión coinciden: si a < b son dos racionales, veamos cuantas veces cruzan hacia
arriba los puntos x0 , x1 , . . . a [a, b], cantidad que denotamos por U[a,b] (x0 , x1 , . . .) y
cuyo cálculo procedemos a explicar: sean

A1 = {k ∈ N : xk ≤ a} ,
(
min A1 si A1 6= ∅
T1 (x0 , x1 , . . .) =
∞ si A1 = ∅
2. Martingalas 14

y de manera recursiva, para j ≥ 1


A2j = {k ∈ N : T2j−1 ≤ k, xk ≥ b} ,
(
min A2j si A2j 6= ∅
T2j (x0 , x1 , . . .) =
∞ si A2j = ∅
A2j+1 = {k ∈ N : T2j ≤ k, xk ≤ a}
(
min A2j+1 si A2j+1 6= ∅
T2j+1 (x0 , x1 , . . .) = .
∞ si A2j+1 = ∅
A partir de las anteriores cantidades, definimos
U[a,b] (x0 , . . . , xn ) = sup {k ∈ N : k ≥ 1, A2k 6= ∅}
= sup {k ∈ N : k ≥ 1, T2k < ∞} ,
que es la cantidad de cruces hacia arriba de la sucesión en [a, b] pues si que T2k < ∞
entonces la sucesión ha cruzado [a, b] hacia arriba de menos k veces, por definición
de T2k .
Lema 1. El lı́mite inferior de la sucesión (xn )n∈N coincide con el lı́mite superior
de la misma si y sólo si para cualquier pareja de racionales a < b, la cantidad
U[a,b] (x0 , x1 , . . .) es finita.
Demostración. Si el lı́mite inferior de la sucesión, l, no coincide con el lı́mite
superior de la misma, L, entonces existen dos racionales a < b tales que l < a < b <
L. Por definición de lı́mite superior, para cada n ∈ N existe mn ∈ N mayor que n
tal que xmn > b y similarmente, existe m0n ∈ N mayor que n tal que xm0n < a. De lo
anterior podemos concluir que Tk < ∞ para cada k ∈ N, puesto que T1 ≤ m01 , de lo
cual T2 ≤ mT1 y si T2k < ∞, entonces T2k+1 < m0T2k y T2k+2 < mT2k+1 . Ası́, como
la sucesión (Tk )k≥1 es estrictamente creciente, pues a < b, se sigue que el conjunto
cuyo supremo es U[a,b] (x0 , x1 , . . .) es no acotado y por lo tanto esta última cantidad
es igual a ∞.
Por otro lado, si U[a,b] (x0 , x1 , . . .) = ∞ para alguna pareja de racionales a < b,
entonces los conjuntos
{n ∈ N : xn ≤ a} y {n ∈ N : xn ≥ b}
son infinitos, por lo que el lı́mite superior de la sucesión es mayor o igual a b y el
inferior, menor o igual a a, y por lo tanto el lı́mite superior y el inferior difieren. 
Teorema 1.4. Si supn∈N E(|Xn |) < ∞, entonces (Xn )n∈N converge casi segu-
ramente a una variable aleatoria X que pertenece a L1 .
Demostración. Por el lema anterior, notemos que
  \ 
lim inf Xn = lim sup Xn = U[a,b] (X0 , X1 , . . .) < ∞ ,
n→∞ n→∞
a,b∈Q
a<b
2. Martingalas 15

por lo que para demostrar la afirmación del teorema, veremos primero que U[a,b] 4 es
una variable aleatoria finita casi seguramente. De esto se desprenderá que el con-
junto del lado derecho de la anterior igualdad pertenece a F y tiene probabilidad
1, por lo que el lı́mite superior y el inferior de la martingala coinciden casi segura-
mente y por el lema de Fatou, obtendremos que el valor absoluto del lı́mite inferior
(y por lo tanto el del lı́mite de la sucesión) tiene esperanza finita, las conclusiones
del teorema.
Lema 2. para cada k ∈ N mayor o igual a 1, Tk es un tiempo de paro respecto
a la filtración (Fn )n∈N .
Demostración. La prueba se hará por inducción: Para k = 1, la afirmación
se deduce de la igualdad,
{T1 ≤ n} = ∪ni=0 {Xi ≤ a} ,
válida para cualquier n ∈ N. Si i ≤ n, el conjunto {Xi ≤ a} pertenece a Fi y por
lo tanto a Fn , por lo que {T1 ≤ n} pertenece a Fn y por lo tanto T1 es tiempo de
paro respecto a la filtración.
Por otro lado, si Tk es tiempo de paro y k = 2l es par (l ≥ 1), entonces para
n≥2
{Tk+1 ≤ n} = {Tk < n} ∩ {Tk+1 ≤ n}
 
n−1
[ n
[
= {Tk = i} ∩ {Xj ≤ a} ∈ Fn .
i=1 j=i+1

Como Tk+1 ≥ 2, entonces Tk+1 es tiempo de paro. Por otro lado, si k = 2l + 1 es


tiempo de paro (l ≥ 0), entonces para cada n ≥ 2,
{Tk+1 ≤ n} = {Tk < n} ∩ {Tk+1 ≤ n}
 
n−1
[ [n
{Tk = i} ∩ {Xj ≥ b} ∈ Fn .
i=1 j=i+1

De nueva cuenta Tk+1 ≥ 2, por lo que Tk+1 es tiempo de paro. 


En particular, el lema anterior nos permite afirmar que Tk es una variable
aleatoria (posiblemente extendida, pues puede tomar el valor ∞.) Para continuar
con la prueba del teorema, verifiquemos ahora que U[a,b] es una variable aleatoria,
lo cual se desprende de manera inmediata del lema anterior pues

X
U[a,b] = 1(T2k <∞) .
k=1

4Para la prueba de este teorema, las cantidades U


[a,b] y Tk las evaluaremos en X0 , X1 , . . . sin
indicarlo.
2. Martingalas 16

Ahora veamos que U[a,b] finita casi seguramente: para esto, indtroducimos a las
variables aleatorias
bn/2c
X
n
U[a,b] 1(T2k <∞) ,
k=1
 
n
la cantidad de cruces hacia arriba de x0 , . . . , xn en [a, b]. Como U[a,b] es una
n≥1
sucesión creciente de variables aleatorias no-negativas que converge a U[a,b] , entonces
se sigue que
 
n

(1) E U[a,b] → E U[a,b] .

Si Sn = Tn ∧ n, entonces Sn es un tiempo de paro acotado puesto que


(
{Tn ≤ k} si k ≤ n
{Sn ≤ k} = ,
Ω si k > n
por lo que la esperanza de la variable aleatoria
n
X
Vn = XS2k − XS2k−1
k=1

es igual a cero. En la definición de la variable aleatoria Vn , puede haber muchos


sumandos iguales a cero, puesto que para k > bn/2c, S2k = S2k−1 . Sabemos que
(para cada ω ∈ Ω) existe k ≥ 1 tal que Tk ≤ n < Tk+1 . Si k es par, entonces
n
Vn ≥ (b − a) U[a,b] , por lo que en este caso,
n
(b − a) U[a,b] − Vn ≤ 0,
mientras que si k = 2l + 1 es impar, entonces
n n
Vn ≥ (b − a) U[a,b] + Xn − XT2l+1 ≥ (b − a) U[a,b] + Xn − a,
por lo que en este caso
n
(b − a) U[a,b] − Vn ≤ a − Xn ,
de donde obtenemos una cota para cualquier ω ∈ Ω:
n +
(b − a) U[a,b] − Vn ≤ (a − Xn )
Como Vn tiene esperanza 0,
     
n n +
(b − a) E U[a,b] = E (b − a) U[a,b] − Vn ≤ E (a − Xn ) ,

por lo que

n
 1 
+

E U[a,b] ≤ E (a − Xn )
b−a
2. Martingalas 17

Esta es la clásica desigualdad de Doob, que nos permitirá terminar con la prueba
del teorema, puesto de acuerdo a (??),
 
n

E U[a,b] = lim E U[a,b]
n→∞
1 
+

≤ sup E (a − Xn )
n≥1 b − a
 
1
≤ sup E(|Xn |) + |a| < ∞.
b − a n≥1
Ası́, la variable U[a,b] es finita P-p.s., pues pertenece a L1 . 
Por ejemplo, como la esperanza es constante para una martingala, entonces
una martingala no-negativa satisface las condiciones del teorema anterior. En los
ejemplos que hemos analizado, vemos que la martingala (Zn )n∈N del ejemplo (??)
converge casi seguramente, ası́ como las martingalas de los ejemplos (??) y (??).
Veamos que la martingala del ejemplo (??) también converge P-p.s.: Por la de-
sigualdad de Jensen para la esperanza condicional,
E(|Xn |) = E(|E( X | Fn )|) ≤ E(E( |X| | Fn )) = E(|X|) ,
de donde
sup E(|Xn |) ≤ E(|X|) < ∞.
n∈N

Consideremos a la martingala X del ejemplo (??) es un caso particular de la


del ejemplo (??). En efecto, (Xn ) converge casi seguramente (digamos a X∞ ) y es
una sucesión acotada. Por lo tanto, podemos aplicar el teorema de convergencia
acotada para probar que si A ∈ F entonces
lim E(Xn 1A ) = E(X∞ 1A ) .
n→∞

Por otra parte, si A ∈ Fm y m ≤ n entonces


E(Xm 1A ) = E(Xn 1A )
puesto que X es una martingala. Ası́, también vemos que
lim E(Xn 1A ) = E(Xm 1A ) .
n→∞

Se concluye que para todo A ∈ Fm


E(Xm 1A ) = E(X∞ 1A )
y que por lo tanto
Xm = E( X∞ | Fm ) .

A continuación se presentarán las desigualdades de Doob, que permiten que las


martingalas acotadas en Lp para alguna p > 1 de hecho son martingalas cerradas
por su lı́mite casi seguro.
2. Martingalas 18

2.5. Desigualdades maximales de Doob. Ahora veremos un criterio sen-


cillo para verificar que una martingala converge no sólo casi seguramente sino
también en Lp para algún p > 1. Para esto, estudiaremos al máximo valor que
toma una martingala. Con una cota adecuada para el máximo, se puede entonces
simplemente aplicar convergencia dominada para verificar la convergencia en Lp .
Sea M = (Mn , n ≥ 0) una (Fn )-submartingala. Definamos a
+
M n = max Mn+ .
1≤i≤n

Proposición 1.4 (Desigualdad maximal de Doob). Para toda λ > 0,


 + 
λP M n > λ ≤ E Mn+ .


La cota obvia, obtenida al aplicar la desigualdad de Markov, es


 +   +
λP M n > λ ≤ E M n ;
el contenido no trivial de la desigualdad maximal de Doob es que de hecho podemos
acotar la cola de la distribución del supremo de la martingala al utilizar la martingala
misma.
Demostración. Recordemos que Mn+ es una sub-martingala. Definamos a
n + o
y T = min k ≥ 0 : Mk+ > λ ∧ n.

A = Mn > λ
Notemos que
A ∩ {T = k} = Mi+ ≤ λ para i < k, Mk+ > λ ∈ Fk .


Por lo tanto
λ1A∩{T =k} ≤ Mk+ 1A∩{T =k} .
Entonces
n
X
λP(A) = λP(A ∩ {T = k})
k=0
Xn
E Mk+ 1A∩{T =k}


k=0
Xn
E Mn+ 1A∩{T =k}


k=0
= E Mn+ 1A


≤ E Mn+ .


+
A partir de la desigualdad anterior, veremos que las normas p de M n y de Mn+
son comparables. Notemos que obviamente
 +
E Mn+ ≤ E M n .

2. Martingalas 19

El contenido del siguiente resultado es establecer una especie de desigualdad recı́proca.


Proposición 1.5 (Desigualdad Lp de Doob). Para cualquier p ∈ (1, ∞):
+ p
kM n kp ≤ kMn+ kp .
p−1
Demostración. Consideremos una constante K > 0 y escribamos:
 + p  Z K  + 
E Mn ∧ K = pλp−1 P M n > λ dλ
0
Z K Z
≤ pλp−2 Mn+ 1M + >λ dP dλ
n
0
+
Z Z M n ∧K
= Mn+ pλp−2 dλ dP
0
Z p−1
p  +
= Mn+ M n ∧ K dP.
p−1
Al utilizar la desigualdad de Hölder, utilizando el exponente conjugado q = p/(p−1)
se obtiene: p  q
 + p  +
E Mn ∧ K ≤ kXn+ kp k M n ∧ K kq ,
p−1
por lo que despejando se obtiene
+ p
kM n ∧ Kkp ≤ kMn+ kp .
p−1
La demostración termina al tomar el lı́mite conforme K → ∞. 
Finalmente, podemos obtener un criterio de convergencia en Lp para martin-
galas.
Teorema 1.5. Si Mn es una martingala con supn E(|Mn |p ) < ∞ para alguna
p > 1, Xn converge casi seguramente y en Lp a una variable M∞ y se tiene que
Mn = E( M∞ | Fn ) .
Demostración. La hipótesis implica que supn E(|Mn |) < ∞, por lo que el
teorema de convergencia casi segura de martingalas nos permite afirmar que Mn
converge casi seguramente a M∞ . Por otra parte, vemos que
     p
p
E sup |Mn | p = lim E sup |Mn | p ≤ sup E(|Mn | p ) < ∞.
n n→∞ m≤n p−1 n

Puesto que  p
p
|Mn − M∞ | ≤ 2 sup |Mn | ∈ L1 ,
n
podemos aplicar el teorema de convergencia dominada para ver que Mn → M∞ en
Lp conforme n → ∞.
2. Martingalas 20

Finalmente, puesto que Mn converge a M∞ en Lp también converge en L1 y


por lo tanto si A ∈ F entonces
lim E(Mn 1A ) = E(M∞ 1A ) .
n→∞
Por otra parte, si A ∈ Fm y m ≤ n entonces
E(Mm 1A ) = E(Mn 1A )
puesto que X es una martingala. Ası́, también vemos que
lim E(Mn 1A ) = E(Mm 1A ) .
n→∞
Se concluye que para todo A ∈ Fm
E(Mm 1A ) = E(M∞ 1A )
y que por lo tanto
Mm = E( M∞ | Fm ) . 
2.6. La transformada martingalas. Sea M = (Mn ) una martingala. Recorde-
mos que nuestra interpretación es que Mn − Mn−1 es la ganancia que obtenemos de
apostar en un juego justo nuestra fortuna al tiempo n−1. Si ahora decidimos apostar
la fracción Cn de nuestra fortuna, entonces nuestra ganancia será Cn (Mn − Mn−1 ).
Ası́, a las cantidades C0 , C1 , . . . la podemos pensar como la estrategia de apuesta
y Cn obviamente dependerá de la información que tengamos al tiempo n − 1, que
la habı́amos interpretado como Fn−1 . En otras palabras, se requiere que Cn sea
Fn−1 -medible. Esta condición define a lo que se conoce como un proceso predeci-
ble. Nuestra ganancia al tiempo n al seguir la estrategia de apuesta C = C1 , C2 , . . .,
que denotaremos por (C · M )n , está dada por
n
X
(C · M )0 = 0 y (C · M )n = Cm (Mm − Mm−1 ) .
m=1

Teorema 1.6. Sea M una (sub)martingala y C un proceso predecible y acotado


entonces C · M es una (sub)martingala.
Ejercicio 1.8. Pruebe el teorema anterior.
El teorema anterior es otra manifestación del hecho de que no es posible generar
ganancias en un juego justo.
Por ejemplo, consideremos la siguiente estrategia: sean a < b dos reales fijos
y apostaremos ya sea todo lo que tengamos o nada con las siguientes reglas. Nos
fijamos en M y esperamos hasta que M se encuentre por debajo de a, ahı́ comen-
zamos a apostar, deteniéndonos cuando M se encuentre por arriba de b. Repetimos
al infinito. Obviamente esta estrategia trata de utilizar a los cruces hacia arriba de
la martingala en el intervalo [a, b] para producir ganancias. La definición formal de
la estrategia es como sigue:
C1 = 1M0 ≤a y Cn = 1Cn−1 =0 1Mn−1 ≤a + 1Cn−1 =1 1Mn−1 ≤b .
3. Martingalas e integrabilidad uniforme 21

Sea Y = C · M .
Ejercicio 1.9. Sea Un la cantidad de cruces hacia arriba que hace el proceso
M en el intervalo [a, b] antes de n. Argumente que

Yn ≥ (b − a) Un + (Mn − a) .
Al tomar esperanzas verifique que se satisface la desigualdad de cruces de Doob
1 
+

E(Un ) ≤ E (a − Mn ) .
b−a
3. Martingalas e integrabilidad uniforme
El objetivo de esta sección es analizar el concepto de integrabilidad uniforme
de una familia de variables aleatorias integrables. El interés de esta noción, para
el estudio de las martingalas, es que permite caracterizar a las martingalas que son
de la forma Xn = E( X | Fn ), y con esto, permite dar una versión muy general del
teorema de paro opcional de Doob.
Definición. Sea {Xt }t∈T es una familia de variables aleatorias reales. Decimos
que es uniformemente integrable si

lim sup E |Xt | 1 |Xt | ≥c = 0.
c→∞ t∈T

Ejemplo 1.5. La familia que consta de un sólo elemento X ∈ L1 es uniforme-


mente integrable. Esto se sigue de aplicar el teorema de convergencia dominada
para concluir que 
lim E |X| 1 |X| >c = 0
c→∞
al ser X casi seguramente finita.
Ejemplo 1.6. Si {Xt }t∈T es tal que supt∈T E(|Xt | p ) < ∞ para alguna p > 1
entonces dicha familia es uniformemente integrable. En efecto, basta notar que
cp−1 E |Xt | 1 |Xt | >c ≤ E(|Xt | p ) .


Ejemplo 1.7. Para cada X ∈ L1 , a la familia


E = {E( X | G ) : G es subσ-álgebra de F } .
Se afirma que E es uniformemente integrable. En efecto, la desigualdad de Jensen
implica que
E |E( X | G )| 1 |E( X |G )| >c ≤ E E( |X| | G ) 1 |E( X |G )| >c = E X1 |E( X |G )| >c .
  

Por la desigualdad de Markov, vemos que


1 1
P(|E( X | G )| > c) ≤ E(|E( X | G )|) ≤ E(|X|) ,
c c
por lo cual
lim sup P(|E( X | G )| > c) = 0.
c→∞ G ⊂F
3. Martingalas e integrabilidad uniforme 22

Finalmente, se afirma que para cada ε > 0 existe δ > 0 tal que si P(E) < δ, entonces
E(|X| 1E ) < ε. Esto se prueba a partir de la desigualdad

E(|X| 1E ) ≤ cP(E) + E |X| 1 |X| >c .
Por convergencia dominada, el segundo término del lado derecho tiende a cero con-
forme c → ∞. Ası́, dada ε > 0, escogemos c > 0 tal que el segundo sumando del
lado derecho sea menor a ε/2. Basta entonces tomar δ < ε/2c. Esto termina la
prueba de que E es uniformemente integrable, puesto que dada ε > 0, escogemos δ
tal que si P(A) < δ entonces E(|X| 1A ) < ε y finalmente C tal que para toda c ≥ C
y toda G subσ-álgebra de F tengamos
P(|E( X | G )| > c) < δ.
Entonces
E |E( X | G )| 1 |E( X

|G )| >c <ε
para toda c > C.
En vista del ejemplo anterior, si Xn = E( X | Fn ) y (Fn , n ∈ N) es una fil-
tración entonces la martingala (Xn ) es uniformemente integrable. Un ejemplo de
una martingala que no es uniformemente integrable es el siguiente: si U es una vari-
able uniforme en (0, 1) y Xn = 2n 1U ≤2n , entonces Xn es una martingala respecto a
la filtración que genera. Puesto que U > 0 casi seguramente, se sigue que Xn → 0
casi seguramente. Sin embargo, limc→∞ supn E(Xn 1Xn ≥c ) = 1, por lo que no es
uniformemente integrable.
Si {Xt }t∈T es uniformemente integrable, sea c > 0 tal que
sup E(|Xt | 1Xt ≥c ) ≤ 1.
t∈T
Vemos que entonces
sup E(|Xt |) ≤ c + 1 < ∞,
t∈T
por lo que la familia {Xt }t∈T es acotada en L1 .
La importancia de la integrabilidad uniforme es que nos permite relacionar dos
modos de convergencia, la casi segura y la convergencia en L1 :
Teorema 1.7. Si {Xn }n∈N y X son variables aleatorias integrables tales que
Xn → X casi seguramente, entonces las siguientes condiciones son equivalentes:
a) {Xn }n∈N es uniformemente integrable.
b) X ∈ L1 y Xn → X en L1 .
Como hemos visto anteriormente, una condición necesaria y suficiente para que
una sucesión convergente casi seguramente también sea convergente en L1 es que la
sucesión sea uniformemente integrable, por lo que ahora estudiaremos martingalas
uniformemente integrables para abarcar otro modo de convergencia en el estudio de
las martingalas.
Si (Xn )n∈N es una martingala uniformemente integrable (respecto a la filtración
(Fn )n∈N ) entonces el conjunto {E(|Xn |) : n ∈ N} es acotado, por lo que se satisfacen
3. Martingalas e integrabilidad uniforme 23

las condiciones del teorema de convergencia de martingalas y por lo tanto existe


una variable aleatoria integrable X a la que la sucesión converge casi seguramente
conforme n → ∞. Por ser la martingala uniformemente integrable, la convergencia
también se dá en L1 . Si A es un elemento de Fn , la tercera condición que define a
las martingalas nos permite afirmar que
E(Xn 1A ) = E(Xm 1A ) ∀m ≥ n,
y como
E(Xn 1A ) → E(X1A )
por la convergencia de (Xn )n∈N a X en L1 , entonces
E(Xn 1A ) = E(X1A ) ∀A ∈ Fn ,
de donde se concluye que Xn = E( X | Fn ) (pues Xn es Fn -medible) y por lo tanto,
la martingala original era una martingala cerrada. De hecho:
Teorema 1.8. Sea (Xn )n∈N una martingala respecto a la filtración (Fn )n∈N .
Entonces existe una variable aleatoria integrable X tal que Xn = E( X | Fn ) si y sólo
si {Xn : n ∈ N} es uniformemente integrable. Además, si se cumple alguna de las
condiciones anteriores, (Xn )n∈N converge casi seguramente y en L1 a E( X | F∞ ),
donde !
[
F∞ = σ Fn .
n∈N

Nota. Para una martingala cerrada, (E( X | Fn ))n∈N el lı́mite casi seguro no
tiene porque ser igual a X; sin embargo, si F = F∞ , entonces el lı́mite casi seguro
sı́ es igual a X.
Demostración. En el párrafo anterior, hemos visto como para cualquier mar-
tingala uniformemente integrable existe una variable aleatoria integrable X que la
convierte en una martingala cerrada. Ası́, sólo hace falta verificar que una mar-
tingala cerrada es uniformemente integrable. Pero esto es inmediato, pues hemos
verificado que si Σ es una familia de σ-álgebras en Ω contenidas en F , entonces la
familia de variables aleatorias {E( X | G) : G ∈ Σ} es uniformemente integarble, por
lo que cualquier martingala cerrada lo es.
Si se satisfacen alguna de las dos condiciones, sea Y el lı́mite casi seguro y en
L1 para la martingala (Yn = E( X | Fn ))n∈N . Como Yn es F∞ -medible para cada
n ∈ N, se sigue que Y también lo es. Además, por la convergencia en L1 , se sigue
que para todo A ∈ Fn ,
E(X1A ) = E(Yn 1A ) = lim E(Yn+m 1A ) = E(Y 1A ) .
m→∞

Sea
C = {A ∈ F∞ : E(X1A ) = E(Y 1A )} .
3. Martingalas e integrabilidad uniforme 24

Hemos visto que [


Fn ⊂ C ⊂ F∞
n∈N
y la anterior unión de σ-álgebras es un álgebra. Además, C es una clase monótona,
puesto que si (An )n∈N es una sucesión creciente o decreciente de elementos de C
y A es el lı́mite de la anterior sucesión de conjuntos (igual al lı́mite superior o al
inferior, que coinciden) entonces el teorema de convergencia dominada nos permite
afirmar que
E(X1A ) = lim E(X1An ) = lim E(Y 1An ) = E(Y 1A ) ,
n→∞ n→∞
por lo que A pertenece a C . Ası́, por el lema de clases monótonas, C = F∞ , lo cual
nos dice que
Y = E( X | F∞ ) . 
Bajo la hipótesis de integrabilidad uniforme, también podemos dar una primera
extensión del teorema (??):
Teorema 1.9. Si (Xn )n∈N es una martingala uniformemente integable respecto
a la filtración (Fn )n∈N y T es un tiempo de paro respecto a la misma filtración
entonces XT es una variable aleatoria integrable y E(XT ) = E(X0 ).
Demostración. Puesto que Xn converge conforme n → ∞, digamos a X∞ ,
podemos definir a XT aún cuando T no sea finito. Para ver que XT es integrable,
notemos que para cada A ∈ Fn :
E(|Xn | 1A ) ≤ E(E( |X∞ | | Fn ) 1A ) = E(|X∞ | 1A ) .
Dado que T es tiempo de paro, el evento {T = n} pertenece a Fn , por lo que de
acuerdo a la desigualdad anterior
X 
E(|XT |) = E(|X∞ | 1T =∞ ) + E |Xn | 1(T =n)
n∈N
X 
≤ E |X| 1(T =n)
n∈N
= E(|X|) < ∞.
Finalmente, sea
n
X
Yn = X∞ 1T =∞ + Xi 1(T =i) ,
i=0
por lo que (Yn )n∈N converge casi seguramente a XT . Por la las desigualdades
n
X
|Yn | ≤ |X∞ | 1T =∞ + |Xi | 1(T =i) ≤ |XT | ∈ L1 ,
i=0
podemos aplicar el teorema de convergencia dominada para concluir que
E(Yn ) → E(XT )
4. La ley 0 − 1 de Kolmogorov 25

y como
n
X 
E(Yn ) = E(X∞ 1T =∞ ) + E Xi 1(T =i)
i=0
n
X 
= E(X1T =∞ ) + E X1(T =i)
i=0
= E(X1T ≤n ó T =∞ ) ,
se concluye, mediante el uso del teorema de convergencia dominada que
E(Yn ) → E(X) = E(X0 )
y por lo tanto
E(XT ) = E(X0 ) . 

La integrabilidad uniforme nos da un criterio importante para ver si podemos


aplicar el teorema de muestreo opcional de Doob. En efecto, si X = (Xn , n ∈ N) es
cualquier martingala y T es un tiempo de paro finito, la integrabilidad uniforme de
la martingala detenida X T = (Xn∧T , n ∈ N) implica la igualdad E(XT ) = E(X0 ).

4. La ley 0 − 1 de Kolmogorov
En esta sección veremos una primera aplicación de los teoremas de convergencia
de martingalas a sucesiones de variables aleatorias independientes. Sea (Ω, F , P) un
espacio de probabilidad en el cual están definidas una sucesión de variables aleatorias
independientes (Xi )i∈N . Definiremos a
Fn = σ(Xi : i ≤ n) y a F∞ = σ(Xi : i ∈ N) .
El resultado que probaremos, la ley 0 − 1 de Kolmogorov, nos permite concluir bajo
ciertas hipótesis, que un elemento de F∞ tiene probabilidad 0 ó 1. Para esto, sean
\
Gn = σ(Xi : i > n) y T = Gn .
n∈N

Recordemos que T es una σ-álgebra, pues es intersección de σ-álgebras, a la cual


llamaremos la σ-álgebra cola. Por la hipótesis acerca de la independencia de las
variables aleatorias, es natural esperar que Fn y Gn sean independientes y a contin-
uación, veremos que efectivamente esto sucede, pero necesitamos un resultado antes
para concluirlo.
Lema 3. Sea Gn,k = σ(Xn+1 , . . . , Xn+k ). Entonces
 
[
Gn = σ  Gn,k 
k≥1

y las σ-álgebras Fn y Gn,k son independientes.


5. Martingalas reversas y la ley fuerte de los grandes números 26

El lema anterior es parte de uno más general que ya se verificó en cursos ante-
riores.
Proposición 1.6. Las σ-álgebras Fn y Gn son independientes. Además, la
σ-álgebra τ es independiente de Fn para toda n ∈ N.
Demostración. Sea  
[
A = σ Gk,n  .
k≥1

Entonces A es un álgebra que genera a la σ-álgebra Gn . Si


M = {A ∈ Gn : P(A, B) = P(A) P(B) ∀B ∈ Fn } ,
entonces M es una clase monótona que por el lema anterior contiene a A . Por
el lema de clases monótonas, también contiene a σ(A ), lo cual implica que Fn es
independiente de Gn .
Para la segunda afirmación, notemos que τ ⊂ Gn para toda n ∈ N, por lo que
τ es independiente de Fn para toda n ∈ N. 
Finalmente, podemos enunciar y demostrar la Ley 0-1 de Kolmogorov:
Teorema 1.10. Si A ∈ τ , entonces P(A) ∈ {0, 1}.
Demostración. Como A ∈ τ , entonces A es independiente de Fn para cualquier
n ∈ N, de donde
E( 1A | Fn ) = P(A) ∀n ∈ N.
Por otro lado, sabemos que
E( 1A | Fn ) → E( 1A | F∞ ) P − p.s.
y como A ∈ F∞ , entonces
P(A) = 1A P − p.s.,
de donde P(A) ∈ {0, 1}. 

5. Martingalas reversas y la ley fuerte de los grandes números


En esta sección, exploraremos una situación análoga a la contenida en el teorema
de convergencia de martingalas naturales. Lo que se consideró en ese teorema fué
la existencia del lı́mite casi seguro y en L1 de la sucesión
(E( X | Fn ))n∈N ,
donde (Fn )n∈N es una subsucesión creciente de σ-álgebras de F . Si ahora consider-
amos una colección (Fn )n∈Z creciente, ‘?podemos concluir la existencia casi segura
y en L1 de E( X | Fn ) conforme n → −∞? Si Gn = F−n para n ∈ N, por lo que
Gn+1 ⊂ Gn , lo que quisieramos afirmar es la existencia del lı́mite casi seguro y en
L1 de E( X | Gn ) conforme n → ∞.
5. Martingalas reversas y la ley fuerte de los grandes números 27


Para indicar la relevancia de tal afirmación, consideremos una sucesión (Xi )i=1
de variables aleatorias independientes e idénticamente distribuidas con media cero,
(Sn )n∈N la sucesión de sumas parciales asociadas y para n ∈ N, Gn = σ(Sn , Sn+1 , . . .).
Se deja como ejercicio al lector comprobar que
Sn
E( Xi | Gn ) = , i = 1, . . . , n, n ≥ 1
n
por lo que
n
E( Sn | Gn+1 ) = Sn+1 ,
n+1
de donde  
Sn Sn+1
E Gn+1 = .
n n+1
De aquı́ se sigue que
Sn
= E( X1 | Gn )
n
puesto que Gn+1 ⊂ Gn , por lo cual la pregunta que formulamos anteriormente es
acerca del lı́mite casi seguro y en L1 de Sn /n, resultado conocido como la ley fuerte
de los grandes números.
Utilizaremos a continuación los resultados ya verificados sobre martingalas para
atacar la pregunta que nos concierne, para lo cual necesitamos precisar cuales son
los procesos con los cuales vamos a trabajar.
Definición. Sea (Xn )n∈N una sucesión de variables aleatorias y (Gn )n∈N una
sucesión decreciente de σ-álgebras contenidas en F . Decimos que (Xn )n∈N es una
martingala reversa respecto a (Gn )n∈N si
(1) Xn ∈ L1 para toda n ∈ N,
(2) Xn es Gn -medible para toda n ∈ N y
(3) E( Xn | Gn+1 ) = Xn+1 .
Notemos que de las propiedades de la esperanza condicional se sigue la igualdad
Xn+2 = E( Xn+1 | Gn+2 ) = E( E( Xn | Gn+1 ) | Gn+2 ) = E( Xn | Gn+2 ) ,
por lo que de manera inductiva se verifica
Xn = E( X0 | Gn ) .
Ası́, la pregunta formulada anteriormente es simplemente verificar si una martingala
reversa tiene un lı́mite casi seguro y en L1 .
Teorema 1.11. Sea (Xn )n∈N una martingala reversa respecto a (Gn )n∈N . En-
tonces (Xn )n∈N converge casi seguramente conforme n → ∞ a una variable aleatoria
X que pertenece a L1 .
Nota. Nos basaremos en el teorema de convergencia casi segura para mar-
tingalas. En dicho teorema, se vió que para demostrar la existencia del lı́mite
casi seguro, era suficiente verificar que la cantidad de cruces cruces hacia arriba
5. Martingalas reversas y la ley fuerte de los grandes números 28

de X0 , X1 , . . . en [a, b], denotada por U[a,b] (X0 , X1 , . . .), era finita casi seguramente
para cualquier pareja de racionales a, b tal que a < b. En la prueba del teorema,
vimos que la cantidad de cruces hacia arriba de X0 , X1 , . . . en [a, b] ası́ como la canti-
n
dad de cruces hacia arriba de X0 , . . . , Xn en [a, b], U[a,b] (X0 , . . . , Xn ) eran variables
aleatorias y se demostró la desigualdad clásica de Doob.
Demostración. Sea m ∈ N, Yn = −X(m−n)∨0 y Hn = G(m−n)∨0 para n ∈ N.
Verifiquemos que (Yn )n∈N es una martingala respecto a (Hn )n∈N : si n ∈ N, entonces
(
E( − Xm−n−1 | Gn−m ) si n < m
E( Yn+1 | Hn ) =
E( − X0 | Gn ) si n ≥ m
(
−Xn−m si n < m
=
−X0 si n ≥ m
= Yn .
Ası́, por la desigualdad clásica de Doob, y al utilizar la igualdad
n n
U[−b,−a] (Y0 , . . . , Yn ) = U[a,b] (X0 , . . . , Xn )
se tiene que

n
 1 1
E U[a,b] (X0 , . . . , Xn ) ≤ (|b| + E(|Yn |)) = (|b| + E(|X0 |)) .
b−a b−a
De esta manera, vemos que
1

E U[a,b] (X0 , X1 , . . .) ≤ (|b| + E(|X0 |)) ,
b−a
por lo que U[a,b] (X0 , X1 , . . .) < ∞ P-p.s.. Esto nos dice que existe el lı́mite casi
seguro de Xn conforme n → ∞ y para ver que pertenece a L1 , aplicamos el lema
de Fatou:
 
E lim Xn ≤ lim inf E(|Xn |) = lim inf E(|E( X0 | Gn )|) ≤ lim inf E(|X0 |) < ∞.

n→∞ n→∞ n→∞ n→∞

Ahora, veamos que toda martingala reversa es uniformemente integrable, por
lo que la convergencia casi segura nos permitirá concluir la convergencia en L1 .
Teorema 1.12. Si (Xn )n∈N es una martingala reversa respecto a (Gn )n∈N ,
entonces es uniformemente integrable.
Demostración. Como Xn = E( X0 | Gn ) y hemos visto que
{E( X | G ) : G ∈ G} ,
con G una familia de σ-álgebras contenidas en F y X un elemento de L1 es uni-
formemente integrable, se sigue que {Xn }n∈N es uniformemente integrable. 
Pasaremos a la identificación del lı́mite:
5. Martingalas reversas y la ley fuerte de los grandes números 29

Teorema 1.13. Sea (Xn )n∈N una martingala reversa respecto a (Gn )n∈N . En-
tonces !
\
lim Xn = E Xn Gn .

n→∞
n∈N

Demostración. Sea X el lı́mite casi seguro y en L1 de (Xn )n∈N . Como Xm


es Gn -medible para cualquier m ≥ n, se sigue que
X = lim Xn+m
m→∞

es Gn -medible para toda n ∈ N, por lo que es medible respecto a la intersección de


dichas σ-álgebras. Por otro lado, si A ∈ Gn para toda n ∈ N, entonces
E(Xn 1A ) = E(X0 1A )
y por la convergencia de Xn a X en L1 ,
Z Z Z
X P(d =) lim Xn P(d =) X0 P(d.) 
A n→∞ A A

Para finalizar esta sección, daremos una prueba de la ley fuerte de los grandes
números que utiliza las ideas que se han desarrollado.
Teorema 1.14. Sea (Xi )i∈N una sucesión de variables aleatorias independientes

e idénticamente distribuidas tales que Xi ∈ L1 . Si (Sn )n=0 denota a la sucesión de
sumas parciales asociada, entonces
Sn
lim = E(X1 ) P-p.s..
n→∞ n
Demostración. Sea Gn = σ(Sk : k ≥ n) y µ = E(X1 ), por lo que (Sn /n − µ)n≥1
es una martingala reversa respecto a (Gn )n∈N . Esto nos dice que Sn /n − µ tiene un
lı́mite conforme n → ∞ y como
Sn Sn − Sm Xm+1 + · · · + Xn
lim − µ = lim − µ = lim − µ,
n→∞ n n→∞ n n→∞ n
se sigue que dicho lı́mite es medible respecto a σ(Xk : k ≥ m) para toda m ∈ N, de
donde es medible respecto a la σ-álgebra cola asociada a (Xi )i∈N y por lo tanto es
constante. Para determinar la constante5, recordemos que Sn /n también converge
en L1 y que una variable aleatoria constante es igual a su esperanza, por lo que
   
Sn Sn Sn
lim − µ = E lim − µ = lim E − µ = E(S1 − µ) = 0,
n→∞ n n→∞ n n→∞ n
de donde Sn /n converge a µ. 

5Para no utilizar la integrabilidad uniforme en lo que sigue, se puede usar la ley débil de los
grandes números.
6. Urnas de Pólya y el teorema de de Finetti 30

6. Urnas de Pólya y el teorema de de Finetti


Comencemos por analizar con mayor profundidad el ejemplo de las urnas de
Pólya. Sean (Ui ) variables aleatorias independientes e idénticamente distribuidas,
r, v > 0 y definamos X0 = r/(r + v) y para n ≥ 0:
r + v + nc c
Yn+1 = 1Un+1 ≤Xn y Xn+1 = Xn + Yn .
r + v + (n + 1) c r + v + (n + 1) c
Hemos interpretado a la sucesión (Xn )n∈N como la fracciónes sucesivas de bolas
rojas en una urna que inicialmente contiene r bolas rojas y v bolas verdes (aunque
con esta construcción podemos considerar a r y a v como reales positivos) y tal
que, en cada unidad de tiempo, se revuelve, se extrae una bola y se regresa con c
bolas del mismo color. Además, hemos visto que si Fn = σ(U1 , . . . , Un ), entonces
(Xn ) es una (Fn )-martingala acotada. Esto implica que converge casi seguramente
y en L∞ a una variable aleatoria X∞ que se puede interpretar como la proporción
lı́mite de la urna. Ahora determinaremos la distribución de X∞ mediante una
técnica importante que básicamente generaliza nuestra prueba de la ley fuerte de
los grandes números.
Analicemos ahora a la sucesión (Yn ): la variable Yn se interpreta como la indi-
cadora de que en la enésima extracción so obtuvo una bola roja. Ahora calcularemos
la distribución conjunta de (Y1 , . . . , Yn ), para lo cual necesitamos la notación del
factorial ascendente
a(n) = a (a + 1) · · · (a + n − 1) .
Proposición 1.7. Las variables aleatorias (Yn ) son intercambiables y si i1 , . . . , in ∈
{0, 1} y sn = i1 + · · · + in entonces
(sn ) (n−sn )
(r/c) (v/c)
P(Y1 = i1 , . . . , Yn = in ) = (n)
.
((r + v) /c)
Ejercicio 1.10. Pruebe la proposición anterior. Sugerencia, utilice el principio
de inducción.
Definiremos a Sn = Y1 + · · · + Yn , por lo que
r + v + cSn
Xn =
r + v + nc
y por lo tanto Sn /n → X∞ . Más adelante, justificaremos el hecho de que
E( Yj | Sn , Yn+1 , Yn+2 , . . .) = E( Y1 | Sn , Yn+1 , Yn+2 , . . .) si 1 ≤ j ≤ n,
de lo cual obtendremos
E( Y1 | Sn , Yn+1 , . . .) = Sn /n.
Al tomar el lı́mite conforme n → ∞, vemos que
r
= E(Y1 ) = E(X∞ ) .
r+v
7. Regularización de martingalas 31

Procederemos análogamente para el cálculo de los momentos de X∞ . Sea Gn la


σ-álgebra generada por las variables f (Y1 , . . . , Yn ), donde f es una función (medible
y) simétrica. Sea Hn = σ(Gn , Yn+1 , Yn+2 , . . .).
Proposición 1.8. Si π es una permutación de los ı́ndices 1 al n entonces
E( f (Y1 , . . . , Yn ) | Hn ) = E( f (Yπ1 , . . . , Yπn ) | Hn ) .
La proposición anterior nos permite hacer utilizar la intercambiabilidad para
hacer cálculos. Por ejemplo, al utilizar f (y1 , . . . , yn ) = y1 ,vemos que E( Y1 | Hn ) =
Sn /n. Otro ejemplo interesante es
n
!
1 X 1 X
E( Y1 Y2 | Hn ) = Yj Yj = 2
Sn − 2
Yi → X∞ 2
.
n (n − 1) n (n − 1) i=1
1≤i,j≤n
i6=j

Por lo tanto, vemos que


2
 r (r + c) B(r/c + 1, v/c)
E X∞ = E(Y1 Y2 ) = P(Y1 = 1, Y2 = 1) = = .
(r + v) (r + v + c) B(r/c, v/c)
El mismo argumento, muestra que
n B(r/c + n, v/c)
E(X∞ )= ,
B(r/c, v/c)
de lo cual se deduce que X∞ tiene los mismos momentos que una variable B de
parámetros r/c y v/c. Al ser la variable B acotada, cualquier variable aleatoria
que tenga los mismos momentos tendrá dicha distribución. Se concluye que X∞
tiene distribución B de parámetros r/c y v/c. Sin embargo, también obtenemos una
consecuencia sorprendente: aunque las variables Y1 , Y2 , . . . disten mucho de ser iid,
vemos que si H∞ = n Hn , i1 , . . . , in ∈ {0, 1} y sn = i1 + · · · + in entonces:
T

n
Y
n−sn
P( Y1 = i1 , . . . , Yn = in | H∞ ) = X∞
sn
(1 − X∞ ) = P( Y1 = ij | H∞ ) ,
j=1

por lo cual la sucesión Y1 , Y2 , . . . es iid, pero condicionalmente a H∞ (y por lo tanto,


también condicionalmente a X∞ ).
Este es un caso particular del teorema de de Finetti que afirma que toda sucesión
de variables intercambiables es condicionalmente iid.

7. Regularización de martingalas
Ahora daremos una extensión adicional del teorema de convergencia de martin-
galas y probaremos el teorema de regularización de martingalas. Este último es útil
a la construcción de una gran familia de procesos estocásticos entre los cuales se en-
cuentran los procesos de Feller y en particular los procesos de Lévy. Nos centraremos
en procesos a tiempo continuo.
7. Regularización de martingalas 32

Definición. Una filtración a tiempo continuo es una colección (Ft )t≥0 de


subσ-álgebras de F tales que si s ≤ t entonces Fs ≤ Ft . Decimos que la filtración
es continua por la derecha si, al definir
\
Ft+ = Fu ,
u>t

se tiene que Ft = Ft+ . Decimos que la filtración es completa si F0 (y por lo tanto


también cada Ft con t > 0) contienen a los conjuntos P nulos de F∞ . Decimos
que la filtración satisface las hipótesis habituales si es continua por la derecha y
completa.
Una colección de variables aleatorias (Xt )t≥0 es una martingala respecto de
(Ft )t≥0 si
(1) Xt es Ft -medible.
(2) Xt es integrable.
(3) Si s ≤ t entonces E( Xt | Fs ) = Xs .
Análogamente se definen las nociones de supermartingala y submartingala al reem-
plazar la igualdad por ≤ y ≥ respectivamente.
Considere dos colecciones de variables aleatorias (Xt , t ≥ 0) y (Yt , t ≥ 0), deci-
mos que Y es una modificación de X si P(Xt = Yt ) = 1 para toda t ≥ 0.
Extenderemos ahora la noción de cantidad de cruces de una función f : [0, ∞) →
R: recordemos que si F ⊂ [0, ∞) es finito, ya tenemos definida la noción de la canti-
dad de cruces hacia arriba de (f (t))t∈F en el intervalo [a, b], llamémosle UF (f, a, b).
Si T ⊂ R es arbitrario, podemos definir
UT (f, a, b) = sup UF (f, a, b) .
F ⊂T,F finito

Es claro que si T es numerable y X es un proceso estocástico entonces UT (X, a, b) es


una variable aleatoria. Por otra parte, si T = [u, v] ∩ Q, entonces para todo t ∈ [u, v]
existen los lı́mites
f (t+) = lim t ∈ [u, v)
s↓t,s∈T

f (t−) = lim t ∈ (u, v]


s↓t,s∈T

si y sólo si UT (f, a, b) < ∞ para cualquier pareja de racionales a < b. En este caso,
si f es acotada entonces los lı́mites por la derecha y por la izquierda son finitos.
Teorema 1.15 (Desigualdad de cruces de Doob). Si (Xt )t≥0 es una (Ft )-super-
martingala y T ⊂ [0, ∞) es numerable entonces
E(UT (X)) ≤ sup E (a − Xt )− .

t∈T
7. Regularización de martingalas 33

El teorema anterior se sigue de la desigualdad de cruces de Doob que ya de-


mostramos al tomar supremos. Nuestro objetivo ahora será demostrar la siguiente
proposición.
Teorema 1.16. Sea (Xt , t ≥ 0) una martingala respecto a una filtración (Ft , t ≥ 0)
continua por la derecha y completa. Entonces existe una modificación Y de X que
también es una martingala respecto de (Ft , t ≥ 0) y tal que Y tiene trayectorias
càdlàg casi seguramente.
Demostración. Veamos primero que supt∈[0,n]∩Q |Xt | < ∞ casi seguramente.
En efecto, al pasar al lı́mite (sobre conjuntos finitos que vayan creciendo a [0, n] ∩ Q,
la desigualdad maximal de Doob nos dice que
! !
E(|Xn |)
P sup |Xs | = ∞ = lim P sup |Xs | > λ ≤ lim = 0.
t∈[0,n]∩Q λ→∞ t∈[0,n]∩Q λ→∞ λ

Para cualquier n ∈ N y a < b, la desigualdad de cruces de Doob nos dice que



E U[0,n]∩Q (X, a, b) ≤ |a| + E(|Xn |) < ∞,
por lo cual 
P U[0,n]∩Q (X, a, b) < ∞ = 1.
Por σsubaditividad, vemos que

P U[0,n]∩Q (X, a, b) < ∞ si a, b ∈ Q, a < b y n ∈ N = 1.
En dicho conjunto, que denotaremos por N c , X admite lı́mites por la izquierda y
por la derecha en t para todo t ≥ 0, mismos que son finitos, y por lo tanto podemos
definir a (
Xt+ (ω) si ω ∈ N c
X̃t (ω) = .
0 si ω ∈ N
Como Xt+ es Ft+ -medible y Ft+ = Ft entonces Xt+ es Ft -medible y puesto que
N pertenece a F∞ y tiene probabilidad cero, entonces N ∈ Ft y por lo tanto X̃t
es Ft -medible. Además, X̃ es continuo por la derecha en N c por el argumento
siguiente: si ε > 0 entonces
existe δ > 0 tal que si r ∈ [t, t + δ] ∩ Q y ω ∈ N c
entonces X̃t (ω) − Xr (ω) < ε; al tomar lı́mite conforme r → s ∈ [t, t + δ], vemos


que X̃t (ω) − X̃s (ω) ≤ ε. Una argumento análogo muestra que X̃ admite lı́mites

por la izquierda en N c .
Si t1 < t2 y sn es una sucesión de racionales que decrecen a t1 , sabemos que
E( Xt2 | Fsn ) = Xsn
y por el teorema de convergencia de Lévy hacia abajo, vemos que casi seguramente
y en L1 :
X̃t1 = lim Xsn = lim E( Xt2 | Fsn ) = E( Xt2 | Ft1 + ) = E( Xt2 | Ft1 ) = Xt1 ,
n→∞ n→∞
7. Regularización de martingalas 34

por lo que X̃ es una modificación de X.


Consideremos ahora t1 < t2 y sn una sucesión de racionales que decrezcan a t2 .
Puesto que Xsn converge casi seguramente y en L1 a X̃t2 , como vimos en el párrafo
anterior, el teorema de convergencia dominada para la esperanza condicional nos
dice que  
X̃s1 = E( Xsn | Fs1 ) → E X̃t2 Fs1 ,

por lo que X̃ es una Ft -martingala. 


CAPÍTULO 2

Movimiento Browniano

Consideremos una caminata aleatoria √ simple y simétrica S = (Sn , n ∈ N). El


teorema lı́mite central afirma que Sn / n converge débilmente a una variable nor-
mal estándar. Una manera de interpretar al movimiento browniano es como una
extensión multidimensional (inclusive infinito-dimensional o funcional) del teorema
lı́mite central. En efecto, si S se extiende por interpolación lineal en cada
√ intervalo
[n, n + 1] y consideramos al proceso estocástico S n dado por Stn = Snt / n, vemos
que Stn converge débilmente a una normal de media 0 y varianza t. Por otra parte,
como S tiene incrementos independientes y estacionarios (cuando nos restringimos
a instantes de tiempo naturales) entonces si 0 = t0 < t1 < · · · < tm entonces para
n suficientemente grande los incrementos Stni − Stni−1 , con 1 ≤ i ≤ m son independi-
entes. Por lo tanto, vemos que dichos incrementos convergen débilmente a un vector
aleatorio con entradas gaussianas independientes de varianzas respectivas ti − ti−1
para 1 ≤ i ≤ m. El movimiento browniano es justamente un proceso estocástico
que recoge este comportamiento lı́mite de las caminatas aleatorias.
Definición. Un movimiento browniano en ley es un proceso estocástico
B = (Bt , t ≥ 0) tal que:
(1) B0 = 0
(2) B tiene incrementos independientes: si 0 = t0 < t1 < · · · < tm entonces
Bti − Bti−1 , 1 ≤ i ≤ m son independientes
(3) B tiene incrementos estacionarios: Bt+s − Bt tiene la misma distribución
que Bs y
(4) la distribución de Bt es normal de media 0 y varianza t.
Un movimiento browniano es un movimiento browniano en ley que tiene trayec-
torias continuas.

1. Martingalas y procesos asociados


Continuaremos con algunos procesos asociados al Browniano que resultan ser
útiles para su análisis. Comenzaremos con algunas martingalas.
Proposición 2.1. Sea B un movimiento browniano. Entonces los siguientes
procesos son martingalas.
(1) Bt , t ≥ 0,
35
1. Martingalas y procesos asociados 36

(2) Bt2 − t, t ≥ 0,
2
(3) eλBt −λ t/2 y
2
(4) cosh(λBt ) e−λ t/2 .
Demostración. Se tiene que Bt − Bs es independiente de Fs para s ≤ t; nse
deduce lo anterior pues por una parte Bt − Bs es independiente de Bsi − Bsi−1 i=0
para cualquier n ≥ 0 y cualquier colección de reales
0 = s0 ≤ s1 ≤ · · · ≤ sn ≤ s.
y por otra, dichas variables aleatorias generan Fs . (Luego, se aplica el lema de
clases de Dynkin.)
(1) Vemos que
0 = E( Bt − Bs | Fs ) = E( Bt | Fs ) − Bs ,
pues Bs es Fs medible. Se conlcuye que B es una (Ft )t≥0 -martingala.
(2) Al ser B una martingala y Bt − Bs independiente de Fs , se tiene que
t − s = E(Bt − Bs )
 
2
= E (Bt − Bs ) Ft
= E Bt2 Ft − 2E( Bt Bs | Ft ) + Bs2


= Bs2 − E Bt2 Fs ,


de acuerdo a las propiedades de la esperanza condicional.


(3) Basta recordar que el cálculo de la transformada de Laplace de una variable
normal estandar y utilizar el que Bt −Bs es independiente de Fs para s ≤ t
y se distribuye N (0, t − s,) pues entonces:
2
   
eλ (t−s)/2 = E eλ(Bt −Bs ) = E eλ(Bt −Bs ) Ft = E eλBt Ft e−λBs .



Contruyamos ahora una martingala a dos parámetros con el movimiento brow-


niano: consideremos
Mt,s = Bt − Bs
para 0 ≤ s < t y Fs,t = σ(Bu − Bs : u ∈ [s, t]). Entonces, como Fs,t es independi-
ente de Fs (por la propiedad de incrementos independientes de B) y está contenida
en Ft , si 0 ≤ u ≤ s < t ≤ v, se tiene que
E( Mu,v | Fs,t ) = E( Bv − Bu | Fs,t )
= E( Bv − Bt | Fs,t ) + E( Bs − Bu | Fs,t ) + Bt − Bs
= Bt − Bs = Mt,s .
Ahora analizaremos cuatro procesos importantes que ilustran propiedades de invari-
ancia de la distribución del movimiento browniano.
Proposición 2.2. El movimiento browniano B tiene las siguientes propiedades
de invariancia.
1. Martingalas y procesos asociados 37

Simetrı́a: −B es un movimiento browniano


Homogeneidad temporal: Para toda t ≥ 0 el proceso B t dado por Bst =
Bt+s − Bt es un movimiento browniano independiente
√ de σ(Bs : s ≤ t).
Autosimilitud: Para toda c > 0 el proceso Bct / c, t ≥ 0 es un movimiento
browniano.
Inversión temporal: El proceso
(
0 t=0
Xt = ,
tB1/t t > 0
para t ≥ 0, es un movimiento browniano.
Demostración.
(1) Los incrementos de −B son iguales a menos los incrementos de B. Por lo
tanto, los primeros serán independientes y estacionarios. Las trayectorias
de −B son continuas y comienzan en cero. Finalmente, puesto que la
distribución normal centrada es invariante ante la transformación x 7→ −x,
vemos que −Bt y Bt tienen la misma distribución y por lo tanto −B es
un movimiento browniano.
(2) Notemos que las trayectorias de B t son continuas y comienzan en cero. Si
0 = s0 < s1 < · · · < sn , entonces
 
Bst1 − Bst0 , . . . , Bstn − Bstn−1 = Bt+s1 − Bt , . . . , Bt+sn − Bt+sn−1 ;


puesto que los incrementos de B son independientes y estacionarios, ve-


mos que los de B t también lo son. Además, ya que Bst = Bt+s − Bt ,
vemos Bst tiene distribución normal (0, s). Finalmente, para verificar que
B t es independiente de Ft , notemos que por la propiedad de incremen-
tos independientes de B, Btt1 , . . . , Bttn es independiente de (Bs1 , . . . , Bsn )
si s1 , . . . , sn ≤ t. Por clases monótonas, se verifica entonces que B t es
independiente de Ft .
(3) Se omite. Buen ejercicio
(4) Puesto el proceso de interés es gaussiano, se verifica mediante un cálculo de
varianzas-covarianzas, que (Xt1 , . . . , Xtn ) y (Bt1 , . . . , Btn ) si t1 , . . . , tn ≥ 0.
Por lo tanto, X es un movimiento browniano en ley. Sin embargo, no es
nada trivial es que el proceso de interés tiene trayectorias continuas, en par-
ticular en cero. Ofrecemos dos pruebas: la primera es notar que B satisface
la ley fuerte de los grandes números: Bt /t → 0 conforme t → ∞ casi segu-
ramente. Esto se verifica al notar que Bn , n ∈ N es una caminata aleatoria
con distribución de salto integrable y media cero por lo cual Bn /n → 0
casi seguramente. Por otro lado, las variables sups∈[0,1] |Bs+n − Bn | inde-
pendientes (como se prueba a partir de la propiedad de incrementos inde-
pendientes de B) e idénticamente distribuidas (al utilizar la homogeneidad
temporal del movimiento browniano). Por otro lado, la desigualdad L2 de
1. Martingalas y procesos asociados 38

Doob aplicada a la submartingala |B| implica que


 
4
P sup |Bs | > nλ ≤ 2 2 ]E |B1 | 2 .

s≤1 n λ
Por lo tanto
X  
P sup |Bn+s − Bn | > nλ < ∞
n s≤1

y por el lema de Borel-Cantelli observamos que casi seguramente existe un


ı́ndice N tal que
sups≤1 |Bs+n − Bs |
≤λ
n
para n ≥ N . Se sigue que
sups≤1 |Bs+n − Bs |
lim sup ≤λ
n→∞ n
casi seguramente y como esto sucede para toda λ > 0 vemos que
sups≤1 |Bs+n − Bs |
lim sup = 0.
n→∞ n
Finalmente, concluimos que

|Bs | Bbsc + supt≤1 Bt+bsc − Bbsc
0 ≤ lim sup ≤ lim sup = 0.
s→∞ s s→∞ bsc
Ası́, se ha probado que lims→∞ Bs /s = 0. La segunda prueba comienza
con notar que B y X tienen las mismas distribuciones finito-dimensionales
y trayectorias continuas en (0, ∞). Luego, si sk1 , sk2 , . . . es una enumeración
de los racionales en [0, 1/k] para k ≥ 1,se escribe
n o \ [ \ n o
lim Bt = 0 = Bski < 1/n ,

t→0
n≥1 k≥1 i

y se tiene una expresión similar para {limt→0 Xt = 0}. Por continuidad de


P, se sigue entonces que
 
1 = P lim Bt = 0
t→0
 
= lim lim lim P Bsk1 < 1/n, . . . , Bski < 1/n

n→∞ k→∞ i→∞
 
= lim lim lim P Xsk1 < 1/n, . . . , Xski < 1/n

n→∞ k→∞ i→∞
 
= P lim Xt = 0 . 
t→0

Finalmente, estudiaremos algunos otros procesos importantes que se definen a


partir del movimiento browniano.
Proceso de calor: Es el proceso estocástico (t, Bt ) , t ≥ 0.
2. Vectores gaussianos y la distribución normal multivariada 39

Movimiento browniano multidimensional: Si d ≥ 1, sean B 1 , . . . , Bd d


movimientos brownianos independientes. Entonces B = B 1 , . . . , B d es
el llamado movimiento browniano en dimensión d.
Procesos de Bessel de dimensión entera: Si B es un movimiento brow-
niano d dimensional, el proceso R dado por Rt = kBt k es el llamado
proceso de Bessel d-dimensional.
Máximo acumulativo: Si B es un movimiento browniano unidimensional,
su máximo acumulativo es el proceso B dado por B t = maxs≤t Bs . Es un
proceso adaptado respecto a la filtración canónica de B y tiene trayectorias
continuas.
Proceso de tiempos de arribo: Se trata del inverso generalizado del máximo
acumulativo; formalmente se trata del proceso T dado por
Ta = inf {t ≥ 0 : Bt > a}
para a ≥ 0. Es un proceso con trayectorias no decrecientes y continuas por
la derecha. De hecho, veremos que es un subordinador estable. Al utilizar
la martingala exponencial del movimiento browniano es fácil calcular su
transformada de Laplace. Rt
Proceso de tiempo de positividad: Sea At = 0 1Bs >0 ds. Entonces At
es una variable aleatoria, lo cual se prueba al notar que la función (t, ω) 7→
Bt (ω) es medible en el espacio producto, lo que es consecuencia de que las
trayectorias de B sean continuas. Entonces se puede aplicar Tonelli para
concluir que At es variable aleatoria. Con esto, se deduce que A es un
proceso con trayectorias continuas. Podrémos calcular explı́citamente la
distribución de At .
Proceso de edad de las excursiones: Sea gt = sup {s ≤ t : Bs = 0}. Puesto
que para cada t ≥ 0, Bt 6= 0 casi seguramente, entonces casi seguramente
gt < t.

2. Vectores gaussianos y la distribución normal multivariada


A continuación, trabajaremos con variables aleatorias con valores en Rn ; a los
elementos de Rn los tomaremos como vectores columna. Si x ∈ Rn e i ∈ {1, . . . , n},
denotaremos por xi a su i-ésima coordenada y si x0 es el vector transpuesto de x,
0
escribiremos x0 = (x1 , . . . , xn ) ó x = (x1 , . . . , xn ) .
Definición. Un vector gaussiano es una variable aleatoria X definida en
un espacio de probabilidad (Ω, F , P) y con valores en Rn y tal que para cualquier
λ ∈ Rn , la combinación lineal
X
λ·X = λi Xi
i
tiene distribución normal. Asociado a un vector gaussiano está el vector de medias
0
µ = (E(X1 ) , . . . , E(Xn )) y la matriz de varianzas-covarianzas Σ (de tamaño n × n)
tal que Σi,j = Σj,i = Cov(Xi , Xj ).
2. Vectores gaussianos y la distribución normal multivariada 40

Primero recordaremos, o más bien formalizaremos, algunos cálculos para el


caso unidimensional. Sea X una variable aleatoria normal de media µ y varianza
σ 2 . Entonces X tiene la misma distribución que σN + µ donde N es una variable
normal estándar.
(1) Calculemos la función generadora de momentos de X en términos de la de
N:
E euX = E euσN +uµ = euµ E euσN .
  

(2) Calculemos ahora la función generadora de momentos de N :


Z ∞ Z ∞
2 1 2 2 1 2
E euN = eux e−x /2 √ dx = eu /2 e−(x−u) /2 √ dx = eu /2 .

−∞ 2π −∞ 2π
(3) Concluimos que
2 2
E euX = euµ e−u σ /2 .


(4) Probemos la desigualdad


2
P(N > x) ≤ e−x /2

si x > 0. Ésta desigualdad se sigue del siguiente razonamiento: para


x, λ > 0:
2
eλx P(ξ > x) ≤ E eλξ 1ξ>x ≤ E eλξ = e−λ /2 ,
 

por lo cual para cualquier λ > 0,


2
P(ξ > x) ≤ e−λx+λ /2
.
Al minimizar el lado derecho de la expresión anterior sobre λ > 0 (el
mı́nimo ocurre cuando λ = x), se obtiene la desigualdad deseada.
(5) Calculemos ahora los momentos de N ; como su distribución es simétrica,
los momentos de orden impar son cero. Los de orden par los calculamos
como sigue: todos los momentos son finitos pues los momentos exponen-
ciales son finitos; esto es, por el teorema de convergencia monótona
X  1
E N 2n = E euN < ∞

n
2n!

por lo cual todos los momentos de orden par son finitos. Otra forma de
2 2 2 2
verlo es puesto que xn e−x /2 = xn e−x /4 e−x /4 , y x 7→ xn e−x /4 es aco-
2
tada y x 7→ e−x /4 es integrable, se sigue que todos los momentos son
finitos. Esto implica que la función generadora de momentos es infini-
tamente diferenciable y que su enésima derivada en cero es el momento
de orden n de N . Esto se verifica al utilizar los criterios para intercam-
biar derivadas e integrales del libro de Bartle. Sea φN la generadora de
2. Vectores gaussianos y la distribución normal multivariada 41

2
momentos de la gaussiana. Hemos visto que φN (u) = eu /2 , por lo que
(2n)
φN (0) = 2n!/n!2n . Ası́:
2n!
E N 2n =

.
n!2n
Ahora, como la serie de momentos de N es absolutamente convergence, el
teorema de convergencia dominada nos permite afirmar que

 X un n 2
E eiuN = E(N n ) (i) = e−u /2 .
n=0
n!

(6) Un caso particular muy útil es que E N 4 = 3.
(7) Ahora calculemos los momentos de |N |, ya tenemos a los momentos de
orden par; los de orden impar se calculan de manera distinta:
Z ∞ −x2 /2
2n+1 e
x2n 2x dx

E |N | = √
0 2π
Z ∞ −y/2
e
= √ y n dy
0 2π
2n+1
= √ n!

n+1/2

=2 n!/ π.
(8) Ahora calcularemos la función caracterı́stica de X, al utilizar los cálculos
sobre momentos pares y el siguiente razonamiento: al maximizar, se tiene
que
2 2 2 2 2
eux e−x /2 = eux−x /4 e−x /4 ≤ eu e−x /4 ,
por lo cual E eu |N | < ∞. Al utilizar el teorema de convergencia domi-


nada, se sigue que


n
 X (iu)
E eiuN = E(N n ) .
n
n!
Puesto que los momentos de orden impar de n son cero, se sigue que
 X (2n)! u2n (−1)n X  −u2 n 1 2
E e iuN
= n
= = e−u /2 .
n
n!2 (2n)! n
2 n!
Ahora veremos que la distribución de un vector gaussiano está determinada
por µ y A, tal como la distribución gaussiana está determinada por la media y la
varianza. Para esto, sea λ ∈ Rn y calculemos la media y la varianza de λ · X: la
media es
X n n
X
E(λ · X) = λi E(Xi ) = λi µi = λ · µ
i=1 i=1
2. Vectores gaussianos y la distribución normal multivariada 42

y la varianza es
n
!
X
Var(λ · X) = Var λi Xi
i=1
n
X
= E(λi (Xi − µi ) λj (Xj − µj ))
i,j=1
Xn
= λi λj Ai,j
i,j=1
0
= λ Aλ.
Recordemos que las variables aleatorias en Rn están determinadas por su función
caracterı́stica. Como λ · X es una variable aleatoria gaussiana, se sigue que
0
E eiλ·X = eiλ·µ e−λ Aλ/2 .


Se sigue por lo tanto que X tiene una distribución normal multivariada con media
µ y matriz de varianzas-covarianzas A. Se deduce el siguiente corolario importante.
Corolario 1. Las entradas de un vector gaussiano son independientes si y
sólo si son no-correlacionadas.
La prueba se basa en notar que si las entradas de un vector gaussiano son
no-correlacionadas entonces la matriz de varianzas-covarianzas es diagonal lo cual
implica que la función caracterı́stica se factoriza y que por lo tanto las entradas son
independientes.
Necesitaremos ver que las sucesiones débilmente convergentes de variables aleato-
rias gaussianas.
Proposición 2.3. Si Xn es una sucesión de variables gaussianas que converge
débilmente a una variable aleatoria X entonces X es gaussiana, |Xn | p es uniforme-
mente integrable para toda p > 0 y E(Xnp ) → E(X p ).
Demostración. Sean µn = E(Xn ) y σn2 = Var(Xn ). Por hipótesis
2 2
eiuµn −σn u /2 = E eiuXn → E eiuX
 

para toda u ∈ R. Vemos entonces que


2 2
e−σn u /2 = E eiuXn → E eiuX ,
 

2
por lo que e−σn es convergente y como la función caracterı́stica es distinta de cero en
una vecindad de cero, vemos que σn2 es una sucesión acotada y convergente, digamos
a σ 2 . Esto nos muestra que µn es también una sucesión acotada. Pero entonces,
como eiuµn es convergente para cualquier u ∈ R, esto no muestra que cualesquiera
dos lı́mites subsucesionales µ1 y µ2 de µn satisfacen µ1 − µ2 = 2kπ/u para todo
2. Vectores gaussianos y la distribución normal multivariada 43

u ∈ R donde k ∈ Z, lo cual forza la igualdad k = 0 y por lo tanto µ1 = µ2 . Esto


implica que µn converge, digamos a µ, y por lo tanto
2 2
E eiuX = eiuµ−σ u /2 ,


por lo cual X es normal de media µ y varianza σ 2 . Vemos que además,


E euXn → E euX < ∞,
 

por lo que para toda p > 1 se tiene que supn E(|Xn | p ) < ∞ y por lo tanto (|Xn | p ) es
uniformemente integrable para toda p ≥ 1, lo cual a su vez implica que E(|Xn | p ) →
E(|X| p ) para todo p ≥ 1. 
Ahora haremos algunos cálculos con la distribución gaussiana. Primero, cal-
culemos la distribución de N 2 :
√ 
P N 2 ≤ x = 2P 0 ≤ N ≤ x ,


por lo que
e−x/2 1
fN 2 (x) = √ √ .
2π x
Se concluye que N 2 tiene distribución Γ de parámetros (1/2, 1/2), donde el primer
parámetro es el de posición y el segundo el de escala. (Si γa,b tiene distribución Γ
de parámetros (a, b) entonces
1 a−1
P(γa,b ∈ dx) = (bx) be−bx dx,
Γ(a)
por lo que cγa,b ∼ Γ(a, b/c) y esto último explica el nombre de parámetro de escala.)
Pasemos al cálculo de la distribución de N2 /N1 , donde N1 y N2 son gaussianas
independientes: primero calculamos la densidad de (N1 , N2 /N1 ) al utilizar la trans-
formación (x, z) 7→ (x, zx), cuyo jacobiano es x, vemos que
2 2 x
fN1 ,N2 /N1 (x, z) = fN1 ,N2 (x, zx) x = e−x (1+z )/2 .

Al integrar z en la expresión anterior, utilizando el cambio de variable y = x2 /2,
obtenemos:
Z Z
2 2 x 2 1 1
fN2 /N1 (z) = e−x (1+z )/2 dx = 2 e−y(1+z ) dy = .
2π 2π π (1 + z 2 )
Se sigue que N2 /N1 tiene ley Cauchy; la distribución asociada se puede explicitar
en términos de la función arcoseno.
Sea C una variable aleatoria Cauchy; ahora caracterizaremos a la distribución
de A = 1/(1 + C 2 ). Como
 p 
P(A ≥ x) = P 1/x ≥ 1 + C 2 = P 1/x − 1 ≥ C 2 = 2P 0 ≤ C ≤ 1/x − 1 ,
 

entonces
p  1 −1 1
fA (x) = −2fC (1 − x) /x p 2
= p .
2 (1 − x) /x x π x (1 − x)
3. Existencia del movimiento browniano 44

Por lo tanto, A tiene distribución Beta de parámetros 1/2, 1/2, que es la llamada
distribución arcoseno. Ası́, vemos también que N12 / N12 + N22 tiene distribución
arcoseno.
Cuando X1 , . . . , Xδ son independientes y normales estándar, se puede calcular
la distribución de X1 /kXk mediante el siguiente razonamiento: como para x > 0
2P(0 ≤ X1 /kXk < x) = P X12 < X22 + · · · Xδ2 x2 /(1 − x2 ) ,
 

entonces
2fX1 /kXk (x)
Z ∞ Z yx2 /(1−x2 )
∂ 1 ν−1/2 −y/2 1
= dy ν+1/2 y e dz √ z −1/2 e−1/2z
∂x 0 2 Γ(ν + 1/2) 0 2Γ(1/2)
Z ∞ −1/2
x2 x2

1 2x 1 −y
= dy ν+1/2 y ν−1/2 e−y/2 y √ y e 2(1−x2 )

0 2 Γ(ν + 1/2) (1 − x2 )2 2Γ(1/2) 1 − x2


Z ∞
1 −3/2 1 1
=2 1 − x2 dy ν+1 y ν−1 ey 2x2
Γ(ν + 1/2) Γ(1/2) 0 2
Γ(ν + 1) ν−1/2
1 − x2

=2 .
Γ(ν + 1/2) Γ(1/2)
Notemos X1 /kXk y kXk son independientes pues la distribución de X es invariante
ante transformaciones ortogonales. La interpretación ahora es clara: como X12 tiene
distribución Γ de parámetros 1/2 y 1/2 se sigue que kXk tiene distribución Γ de
parámetros δ/2 y 1/2, es independiente de X1 /kXk cuya distribución es la de Sδ ,
por lo que se ha verificado la factorización de la distribución normal cuando δ es un
entero positivo. La interpretación de la ley arcoseno es ahora clara: se trata de la
distribución de |X1 | /kXk cuando δ = 2.

3. Existencia del movimiento browniano


3.1. El método de Lévy. Sea (Ω, F , P) un espacio de probabilidad en el que
están definidas una colección de variables aleatorias independientes e idénticamente
distribuidas
(ξi,n )0≤i≤2n ,n≥0
de distribución N (0, 1).
Definamos X0 (0) = 0, X0 (1) = ξ0,0 y extendamos linealmente la definición de
X0 al intervalo [0, 1]. Definiremos una sucesión de procesos continuos con trayec-
torias continuas (Xn )n≥0 postulando que Xn sea lineal sobre los intervalos de la
forma [k/2n , (k + 1) /2n ] y que
       
2j 2j 2j + 1 2j + 1 ξ2j+1,n
Xn n = Xn−1 n y Xn n
= X n−1 n
+ (n+1)/2 .
2 2 2 2 2
Una visualización de los procesos Xn se puede ver en la Figura ??
3. Existencia del movimiento browniano 45

0.6 0.6 0.6


0.4 0.4 0.4
0.2 0.2 0.2

0.2 0.4 0.6 0.8 1 0.2 0.4 0.6 0.8 1 0.2 0.4 0.6 0.8 1
-0.2 -0.2 -0.2
-0.4 -0.4 -0.4

0.6 0.6 0.6


0.4 0.4 0.4
0.2 0.2 0.2

0.2 0.4 0.6 0.8 1 0.2 0.4 0.6 0.8 1 0.2 0.4 0.6 0.8 1
-0.2 -0.2 -0.2
-0.4 -0.4 -0.4

0.6 0.6 0.6


0.4 0.4 0.4
0.2 0.2 0.2

0.2 0.4 0.6 0.8 1 0.2 0.4 0.6 0.8 1 0.2 0.4 0.6 0.8 1
-0.2 -0.2 -0.2
-0.4 -0.4 -0.4

Figura 1. El procedimiento recursivo de Lévy para definir al


movimiento browniano

Notemos que para toda n ≥ 0, Yn = (Xn (k/2n ))0≤k≤2n es un vector aleatorio


gaussiano, por lo que el proceso Xn es un proceso gaussiano ya que Xn (t) es una
combinación lineal de las entradas de Y n . Para determinar a dicho proceso es sufi-
ciente explicitar su función de covarianza, que a su vez se obtiene por interpolación
lineal en cada intervalo [j/2n , (j + 1) /2n ] a partir de las cantidades:
    
k l
E Xn n Xn n ;
2 2
notemos que la función de media es cero.
Lema 4. Se tiene la igualdad
    
k l k∧l
E Xn n Xn n = n
2 2 2
Demostración. La prueba se hará por inducción sobre n, siendo la base in-
ductiva (n = 0) inmediata. Si el lema es cierto para n − 1 y k y l son pares, entonces
también es válido para n. Por otra parte, si k = 2j +1 y l es par entonces, al utilizar
la independencia entre ξ2j+1,n y Xn−1 , se obtiene
     
2j + 1 1 j 1 j+1 ξ2j+1,n
Xn = Xn−1 n−1 + Xn−1 n−1 + (n+1)/2 ,
2n 2 2 2 2 2
3. Existencia del movimiento browniano 46

por lo que
    
k l
E Xn n Xn n
2 2
         
1 j l/2 1 j+1 l/2
= E Xn−1 n−1 Xn−1 n−1 + E Xn−1 n−1 Xn−1 n−1 +0
2 2 2 2 2 2
1 j ∧ (l/2) 1 (j + 1) ∧ (l/2)
= + .
2 2n−1 2 2n−1
Al analizar los distintos casos que pueden darse, nos damos cuenta de que
    
k l (2j + 1) ∧ l
E Xn n Xn n = .
2 2 2n
por otra parte, si tanto l como k son impares pero distintos, el análisis es análogo.
Finalmente, si k = l = 2j + 1, al escribir a Xn (k/2n ) en términos de Xn−1 y utilizar
la hipótesis de inducción y la independencia entre ξk,n y Xn−1 , se observa que
    2 !
k 1 j 1j+1 1 j ξk,n
E Xn n = + + 2 n−1 + E
2 4 2n−1 4 2n−1 42 2(n+1)/2
4j + 1 1 2j + 1
= n+1
+ n+1 = . 
2 2 2n
Verifiquemos ahora que la sucesión de procesos (Xn )n∈N converge uniforme-
mente. Para ésto, consideremos el evento
( )
An = sup |Xn (t) − Xn−1 (t)| > 2−n/4
t∈[0,1]
     
Xn 2j + 1 − Xn−1 2j + 1 > 2−n/4

= max
0≤j≤2n−1 −1
2n 2n
 
= max
n−1
|ξ2j+1,n | > 2(n+2)/4 .
0≤j≤2 −1

Entonces, por la subaditividad de P, el hecho de que las variables ξi,j tengan


ditribución N (0, 1) y la cota para la cola de la distribución normal estandar:
2n−1
X−1  
P(An ) ≤ P |ξ1,1 | > 2(n+2)/4
j=0
(n+2)/2
≤ 2n−1 × 2 × e−2 /2
.
P
De la cota anterior, se conluye la convergencia de la serie i P(Ai ), por lo cual, el
lema de Borel-Cantelli nos permite afirmar que existe E ∈ F tal que P(E) = 1 tal
que si ω ∈ E, existe n0 = n0 (ω) tal que para n ≥ n0 se tiene que
|Xn (t) − Xn−1 (t)| ≤ 2−n/4 ,
3. Existencia del movimiento browniano 47

de lo cual se deduce la convergencia uniforme de la sucesión (Xn )n∈N hacia un lı́mite


X = (Xt )t∈[0,1] que es entonces continuo. La prueba estará (basicamente) terminada
cuando verifiquemos que X es un movimiento browniano en [0, 1]; sin embargo,
ésto se sigue del hecho de que una sucesión de variables aleatorias gaussianas que
converge en probabilidad (lo cual está implicado por la convergencia casi segura)
también converge en Lp para toda p ≥ 1, se puede tomar el lı́mite cuando n → ∞
con k = b2n sc/2n y l = b2n tc/2n en el lema anterior para concluir que la función
de media de X es cero y que
E(Xt Xs ) = t ∧ s.
Si s1 ≤ s2 ≤ t1 ≤ t2 , al igualdad anterior implica que
E((Xs2 − Xs1 ) (Xt2 − Xt1 )) = s2 − s1 − s2 + s1 = 0,
por lo que X tiene incrementos independientes (recordemos que se trata de un
proceso gaussiano) y como tiene trayectorias continuas, empieza en cero y Xt tiene
distribución N (0, 1), se sigue que X es un movimiento browniano.
Para concluir, falta contruir un movimiento browniano en [0, ∞) en vez de en
[0, 1], pero ésto se puede lograr considerando una sucesión de movimientos browni-
anos independientes en [0, 1] y concatenando sus trayectorias.

3.2. El método de Kolmogorov. Esbozaremos uno de los métodos más gen-


erales para construir procesos con trayectorias continuas, basados en el criterio de
continuidad de Kolmogorov. Si 0 ≤ t1 < · · · < tn , definamos µt1 ,...,tn como la dis-
tribución normal multivariada de media cero y matriz de varianza-covarianza Σ dada
por Σi,j = tj ∧ tj . Al quitar la coordenada i a un vector aleatorio con distribución
µt1 ,...,tn obtenemos un vector aleatorio cuya distribución es µt1 ,...,ti−1 ,ti+1 ,...,tn , por
lo cual se puede aplicar el teorema de consistencia de Kolmogorov para concluir que
existe un espacio de probabilidad en el que están definido un proceso estocástico
(Bt , t ≥ 0) tal que la distribución de (Bt1 , . . . , Btn ) es µt1 ,...,tn . Es claro que entonces
B es un movimiento browniano en ley.
Teorema 2.1 (Criterio de continuidad de Kolmogorov). Sea X un proceso
estocástico real tal que existen constantes α, β, K ≥ 0 tales que
1+β
E(|Xt − Xs | α ) ≤ K (t − s) .
Entonces
 existeun proceso estocástico X̃ tal que X es modificación de X̃, es decir
que P Xt = X̃t = 1 para toda t ≥ 0, y cuyas trayectorias son continuas.

Puesto que
2
E |Bt − Bs | 4 = 3 (t − s)


si 0 ≤ s ≤ t, vemos que el criterio de Kolmogorov aplica para construir una mod-


ificación de B con trayectorias continuas. Dicha modificación es un movimiento
browniano.
4. La propiedad de Markov 48

4. La propiedad de Markov
La propiedad de homogeneidad temporal del movimiento browniano (que también
comparte con el proceso de Poisson y otros procesos de Lévy) se puede interpretar
también como una propiedad de Markov.
Proposición 2.4 (Propiedad de Markov para el movimiento browniano). Sea
B un movimiento browniano y Ft , t ≥ 0 su filtración canónica. Entonces para
toda t > 0, el proceso B t dado por Bst = Bt+s − Bt es un movimiento browniano
independiente de Ft .
De igual manera, la homogeneidad se puede extender a tiempos de paro e inter-
pretar como una propiedad de Markov fuerte. Recordemos que un tiempo de paro
es una función T : Ω → [0, ∞] tal que {T ≤ t} ∈ Ft . Dado un tiempo de paro,
podemos definir a la σ-álgebra FT mediante:
FT = {A ∈ F : A ∩ T ≤ t ∈ Ft } .
Ejercicio 2.1. Probar que FT es una σ-álgebra.
Proposición 2.5 (Propiedad de Markov fuerte para el movimiento browniano).
Sea B un movimiento browniano y Ft , t ≥ 0 su filtración canónica. Si T es un
tiempo de paro finito, el proceso B T dado por BsT = BT +s − BT es un movimiento
browniano independiente de FT .
Demostración. Consideremos a T n = d2n T e/2n . Entonces T n es un tiempo
de paro puesto que
   
k+1 k k+1
Tn = = < T ≤ .
2n 2n 2n
Además, T n decrece a T conforme n → ∞. Notemos además que si A ∈ FT
entonces    
k+1 k+1
A ∩ Tn ≤ = A ∩ T ≤ ∈ F k+1 ,
2n 2n 2n

por lo que en particular A ∈ FT n .


Ahora descomponemos sobre el valor de T n para calcular
k+1 k+1 
 n n
iu1 BtT +···ium BtTm
X  n
iu1 Bt 2 +···ium Btm2n
E 1A e 1 = E 1A∩{T n = k+1 e 1
2n }
k∈N

que por la propiedad de Markov usual, se reexpresa como:


X  
iu1 Bt1 +···ium Btm iu1 Bt1 +···ium Btm
 
= P 1A∩{T n = k+1 E e = P(A) E e
2n }
k∈N

Al pasar al lı́mite conforme n → ∞ se obtiene


 T T

E 1A eiu1 Bt1 +···ium Btm = P(A) E eiu1 Bt1 +···ium Btm .

5. Algunos cálculos distribucionales 49

Puesto que la función caracterı́stica determina a la distribución de un vector aleato-


rio, vemos que
P BtT ≤ x1 , . . . , BtT ≤ xm A = P(Bt1 ≤ x1 , . . . , Btm ≤ xm ) ,

1 m

T
por lo que B es un movimiento browniano independiente de A y ası́ concluimos
que B T es un movimiento browniano independiente de FT . 

5. Algunos cálculos distribucionales


En esta sección utilizaremos la propiedad de Markov y de Markov fuerte del
movimiento browniano para calcular ciertos aspectos distribucionales de este pro-
ceso.
Sea B un movimiento browniano, B su proceso de máximo acumulativo y T su
proceso de tiempos de arribo.
Proposición 2.6. El proceso T es un subordinador autosimilar. Además,
√ R∞ −λx
E e−λTa = e−a 2λ = e−a 0 (1−e )ν(dx)


donde
1
ν(dx) = √
.
2πx3
2
Finalmente, para cada a > 0, Ta tiene la misma distribución que a/B 1 .
Demostración. Comenzamos con el cálculo de la transformada de Laplace.
2
Al aplicar muestreo opcional a la martingala Mt = eλBt −λ t al tiempo de paro Ta
(hasta el cual M permanece acotada) se ve que

E eλTa = e−a 2λ .


Por una parte Z ∞ Z ∞


1 − e−λx ν(dx) = λ e−λy ν(y) dy,

0 0
R∞
donde ν(y) = ν(dx), y, utilizando la definición de la función Γ, vemos que
y
r Z ∞ √ −λx
2 2e
= √ dx,
λ 0 πx
de lo cual se deduce que si
Z ∞ √
1 − e−λx ν(dx) = 2λ

0
entonces r
2
ν(y) =
πx
y por lo tanto
1
ν(dx) = √ 1x>0 dx.
2πx3
5. Algunos cálculos distribucionales 50

Por construcción, T es el inverso continuo por la derecha de S, por lo que es


no-decreciente y continuo por la derecha y por lo tanto càdlàg. Para ver que T0 = 0
casi seguramente, notemos que
E e−λT0 = 1,


y como e−λT0 ≤ 1 entonces e−λT0 = 1 casi seguramente.


Veamos ahora que T tiene incrementos independientes y estacionarios. Puesto
que Ta+b −Ta es el tiempo que transcurre para que B·+Ta −a sobrepase b, por lo que
la propiedad de Markov fuerte nos dice que Ta+b − Ta tiene la misma distribución
que Tb y además es independiente de FTBa . Por otra parte, FaT ⊂ FTBa , por lo que
T tiene incrementos independientes. Se concluye que T es un subordinador.
Finalmente, debemos ver que es un subordinador autosimilar. Veremos es-
pecı́ficamente que Tca y c2 Ta tienen la misma distribución.√ Esto se deduce de que
ambas variables tienen transformada de Laplace λ 7→ e−ac 2λ . Una prueba basada
en la autosimilitud del movimiento browniano además nos dice que los procesos
Tca , a ≥ 0 y c2 T√
a , a ≥ 0 tienen
√ la misma distribución. En efecto, recordemos que
puesto que Bct / c, t ≥ 0 y cBt , t ≥ 0 tienen la misma distribución. T es el pro-
ceso de tiempos de arribo del segundo mientras que cT√ca , a ≥ 0 es el proceso de
tiempos de arribo del primero.
Finalmente, notamos que por autosimilitud y la relación entre B y T se sigue
que  √   
2
P(Ta ≤ t) = P a ≤ B t = P a/ t ≤ B 1 = P a2 /B 1 ≤ t .



Veamos ahora que la distribución de B 1 se conoce explı́citamente.


Proposición 2.7 (Principio de reflexión). El proceso estocástico B b dado por
(
Bt t < Tb
Btb =
2b − Bt t ≥ Tb
es un movimiento browniano. En consequencia, la variable B 1 tiene la misma dis-
tribución que |B1 |,
2b − a −(2b−a)2 /2t
fB1 ,B 1 (a, b) = 1a<b √ e
2πt3
y
1 2
fTa (t) = 1t>0 √ e−a /2t
.
2πt3
Demostración. Si B̃t = Bt+Tb − b, entonces B̃ es un movimiento browniano
independiente de Dt = Bt∧Tb , t ≥ 0. Notemos que B se puede reconstruir a partir
de D y B̃ a partir de la igualdad
(
Dt t < Tb
Bt = .
b + B̃t−Tb t > Tb
5. Algunos cálculos distribucionales 51

Puesto que −B̃ también es un movimiento browniano, vemos que entonces el proceso
( (
b Dt t < Tb Dt t < Tb
Bt = =
b − B̃t−Tb t > Tb 2b − Bt t ≥ Tb
es un movimiento browniano.
A través de la igualdades de conjuntos
{Tb ≤ t, Bt ≤ b} = Tb ≤ t, Btb ≥ b = Btb ≥ b ,
 

vemos que
P(Tb ≤ t) = P(Bt ≥ b) + P(Bt ≤ b, Tb ≤ t)
= P(Bt ≥ b) + P Btb ≥ b


= 2P(Bt ≥ b)
= P(|Bt | ≥ b) .
Si a ≤ b, apliquemos un argumento similar con los conjuntos
B t ≥ b, Bt ≤ a = {Tb ≤ t, Bt ≤ a} = Btb ≥ 2b − a
 

para obtener
2 2
∂ 2e−(2b−a) /2t
2 (2b − a) e−(2b−a) /2t
fBt ,B t (a, b) = 1a<b √ = 1a<b √ . 
∂a 2πt 2πt3
Recordemos que una variable Cauchy estándar tiene densidad
1
.
π (1 + x2 )
En este caso la función de distribución es
1 arctan(x)
+ .
2 π
También se sabe que la distribución Cauchy es la misma que la del cociente de dos
gaussianas estándar.
Proposición 2.8. Sean B 1 y B 2 dos movimientos brownianos independientes y
T el proceso de tiempos de arribo de B 1 . Entonces BT2 1 tiene la misma distribución
1
a
que aC.
Veamos ahora un resultado clásico conocido como primera ley arcoseno de Paul
Lévy. Sean
dt = inf {s ≥ t : Bs = 0} y gt = sup {s ≤ t : Bs < 0} .
Proposición 2.9. Sea  C una variable Cauchy; entonces dt tiene la misma
distribución que t 1 + C 2 y g1 tiene la misma distribución que 1/(1 + C 2 ).
5. Algunos cálculos distribucionales 52

Demostración. Notemos que dt = t + T0 ◦ θt . Por lo tanto, si N es una


gaussiana estándar independiente de B, se tiene que
P(dt > r) = P(t + T0 ◦ θt > r)
= P t + Bt2 /N 2 > r


= P t 1 + B12 /N 2 > r
 

= P t 1 + C2 > r .
 

Por otra parte, vemos que


 
1
P(g1 < t) = P(dt > 1) = P t 1 + C 2 > 1 = P
 
< t .
1 + C2
Al derivar, obtenemos la densidad arcoseno para g1 :
r
1 1 t 1 1
fg1 (t) = 2 = √√ . 
π (1/t) 2 t − 1 t2 π t 1−t
CAPÍTULO 3

Integración estocástica

En este capı́tulo se dará una introducción al cálculo estocástico. Especı́ficamente,


veremos por qué la integral de Lebesgue-Stieltjes es insuficiente para integrar re-
specto del movimiento browniano y cómo se puede sortear este problema. Se in-
troducirá la célebre fórmula de Itô y veremos cómo resolver ecuaciones diferenciales
estocásticas conducidas por el movimiento browniano. Como veremos, la teorı́a de
las martingalas es fundamental para desarrollar esta teorı́a.
El proceso estocástico más importante en estas notas es el movimiento browni-
ano. Recordemos su definición.
Definición. Un movimiento browniano es una colección de variables aleato-
rias B = (Bt , t ≥ 0) tales que:
(1) B comienza en cero
(2) B tiene trayectorias continuas
(3) B tiene incrementos independientes y estacionarios
(4) La distribución de Bt es normal centrada de varianza t.
El teorema lı́mite central nos permite entender a la distribución normal como
una forma de aproximar a la suma de muchas contribuciones independientes (e
idénticas desde el punto de vista probabilı́stico). Ası́, cada incremento del movimiento
browniano se podrı́a interpretar como una perturbación aleatoria obtenida de sumar
muchas contribuciones pequeñas. Ası́, una forma de agregarle una fuente de error
a una ecuación diferencial del tipo
dct = ϕ(ct ) dt
es considerar a
Z t
dct = ϕ(ct ) dt + dBt ó equivalentemente ct = x + ϕ(cs ) ds + Bt .
0

Un ejemplo muy concreto es el del proceso de Ornstein-Uhlenbeck, en el que b(Xs ) =


λXs . La interpretación en este caso es, si B denota nuestra ganancia o pérdida al
jugar (continuamente) con un capital inicial x, Xt será nuestra ganancia si se paga
interés a tasa λ por un préstamo ó un impuesto de la misma tasa.
Las ecuaciones diferenciales estocásticas surgen de la idea de hacer que la mag-
nitud de la perturbación aleatoria dependan de la posición del sistema para llegar
53
1. Introducción a la integral de Lebesgue-Stieltjes 54

a ecuaciones del tipo


Z t Z t
dXt = b(Xt ) dt + σ(Xt ) dBt ó Xt = b(Xs ) ds + σ(Xs ) dBs .
0 0

Sin embargo, surge inmediatamente el problema de interpretar a la integral respecto


del movimiento browniano. Puesto que, como veremos, las trayectorias de B tienen
variación infinita en cualquier intervalo, entonces no se puede interpretar como una
integral de Lebesgue-Stieltjes. Aunque no sea posible definir a la integral estocástica
como lı́mite de sumas de Riemann trayectoria por trayectoria, sı́ se le puede definir
como lı́mite en probabilidad para una clase adecuada de integrandos (que no ven el
futuro). La contribución de Itô fue darse cuenta de esto y entonces profundizar en el
estudio de las similitudes y diferencias entre la integral usual y la integral estocástica.
Al reinterpretar el artı́culo de Itô, algunos otros probabilistas como Doob se dieron
cuenta de la similitud existente entre la integral estocástica y la transformada de
martingala a tiempo discreto, lo cual ha marcó el desarrollo posterior del cálculo
estocástico como una teorı́a apoyada fundamentalmente en las martingalas.
La integral estocástica respecto del movimiento browniano fue introducida en
[?]. En este artı́culo, Itô introduce la integral estocástica respecto del movimiento
browniano con la idea de utilizarla para darle sentido a ecuaciones diferenciales
estocásticas (para las cuales da un teorema de existencia y unicidad) y utilizar a
estas para dar construcciones de procesos de Markov con trayectorias continuas.
Seguiremos de cerca este artı́culo.

1. Introducción a la integral de Lebesgue-Stieltjes


Comencemos por recordar la definición de integral de Lebesgue-Stieltjes cuando
el integrando es una función de variación acotada.
Definición. Decimos que una función f : [0, ∞) → R es de variación acotada
en el intervalo [0, t] si
X
sup |f (ti ) − f (ti−1 )| < ∞,
π={0=t0 <···<tn =t} i

donde el supremo es sobre todas las particiones de [0, t]. Denotaremos por Vt (f ) al
supremo anterior.
Diremos que f tiene variación localmente acotada si Vt (f ) < ∞ para toda
t ≥ 0 y que f tiene variación acotada si limt→∞ Vt (f ) < ∞.
Si f es una función de variación localmente acotada, la célebre descomposición
de Jordan nos afirma que la podemos escribir como diferencia de dos funciones no
decrecientes. En efecto, es fácil verificar que
Vt (f ) + f (t) Vt (f ) − f (t)
t 7→ ,
2 2
1. Introducción a la integral de Lebesgue-Stieltjes 55

son no decrecientes y su suma es f (t). Una forma más intuitiva puede ser el definir
la variación positiva o negativa de una función de variación acotada como
X
sup |f (ti ) − f (ti−1 )| ± ≤ Vt (f ) < ∞
π={0=t0 <···<tn =t} i

y notar que ambas funciones son no decrecientes. Por otra parte, se tiene la de-
scomposición
X
f (t) − f (0) = |f (ti ) − f (ti−1 )| + − |f (ti ) − f (ti−1 )| − ,

lo cual nos hace sospechar que f (t)−f (0) = Vt+ (f )−Vt− (f ). (Esto se puede justificar
al escribir a las variaciones como lı́mites al considerar una sucesión de particiones que
se refinen y que alcancen los supremos.) Aún más, este argumento nos indica que si
f es también continua por la derecha entonces f se puede escribir como la diferencia
de dos funciones no-decrecientes continuas por la derecha. Puesto que cada una de
estas funciones no decrecientes está asociada a una medida, vemos que existe una
medida con signo µ tal que f (t) = µ([0, t]). Si g : [0, ∞) → R es localmente acotada
y medible, podemos entonces definir R t a la integral de Lebesgue-Stieltjes de g
respecto de f en [0, t], denotada 0 g df mediante
Z t Z t
g df = g dµ.
0 0

El teorema siguiente nos afirma que las funciones de variación acotada apare-
cen naturalmente al tratar de considerar integrales elementales y extenderlas por
”continuidad”. Si nuestra función f es función continua por la derecha y πn es una
sucesión de particiones de [0, t] que se refinan y cuyo paso tiende a cero, definamos
X
S n (h) = h(ti ) (f (ti+1 ) − f (ti )) .
πn
Rt
Si h es continua y f es de variación acotada en [0, t] entonces S n (h) → 0
h df .

Teorema 3.1. La sucesión (S n (h) , n ∈ N) converge a un lı́mite para toda función


continua h si y sólo si f es de variación acotada en [0, t].

Demostración. Ya hemos mostrado una de las implicaciones. Para la recı́proca,


supongamos que (S n (h) , n ∈ N) converge a un lı́mite para toda función continua h
en [0, t]. Es bien sabido que el espacio de funciones continuas en [0, t], al dotarlo de
la norma uniforme, es un espacio de Banach. Además, T n es una funcional lineal
continua definido en él. Es fácil construir una función h de norma uniforme 1 tal
que
X
Tn (h) = |f (ti ) − f (ti−1 )|
πn
2. La variación cuadrática del movimiento browniano 56

(por ejemplo al imponer que h(ti ) = sgn(f (ti ) − f (ti−1 )) e interpolar linealmente).
Por lo tanto,
Vt (f ) ≤ sup kT n k.
n
Por otra parte, para toda h continua se tiene que
sup |T n (h) | < ∞,
n

por lo que el principio de acotamiento uniforme (conocido también como teorema


de Banach-Steinhaus) implica que
sup kT n k < ∞.
n

Ası́, vemos que f tiene variación acotada. 

Análogamente a como se definió la noción de variación de una función, podemos


definir el de p-variación para p > 0.
Definición. Sean f : [0, ∞) → R y p > 0. Se define la p-variación de f en [0, t]
como
X
sup |f (ti ) − f (ti−1 )| p .
π={0=t0 <···<tn =t} i

La denotaremos por Vtp (f ).


Proposición 3.1. Si f es una función continua de p-variación finita en [0, t]
entonces su p0 -variación es cero si p0 > p e infinito si p0 < p.
Demostración. Sean πn una sucesión de particiones cuyo paso tiende a cero
y tales que
X
|f (ti ) − f (ti−1 )| p → Vtp (f ) < ∞,
πn

Si p < p0 , notemos que


X 0 0 X
|f (ti ) − f (ti−1 )| p ≤ max |f (ti ) − f (ti−1 )| p −p |f (ti ) − f (ti−1 )| p .
πn
πn πn

Como f es continua, el máximo del lado derecho tiende a cero, mientras que la suma
del lado derecho tiene un lı́mite finito. Por lo tanto, el lado izquierdo tiende a cero.
Un razonamiento análogo concluye la prueba de la afirmación restante. 

2. La variación cuadrática del movimiento browniano


En esta sección veremos por qué la integral de Lebesgue-Stieltjes no se puede
aplicar para definir una integral respecto del movimiento browniano. La razón
principal está en el concepto de variación cuadrática del movimiento browniano.
2. La variación cuadrática del movimiento browniano 57

Proposición 3.2. Sea B un movimiento browniano en ley. Para toda t ≥ 0,


si ∆n es una sucesión de particiones de [0, t] cuya norma tiende a cero, entonces la
sucesión de variables aleatorias
X 2
Bti − Bti−1
ti ∈∆n

converge en L2 a t.
Prueba de la Proposición ??. Calculemos simplemente la norma L2 (P) al
cuadrado de la diferencia entre las variables de interés:
 !2   ! 
X 2 X 2  2
E Bti − Bti−1 − t  = E Bti − Bti−1 − (ti − ti−1 ) 
i i
!
Xh 2 i2
=E Bti − Bti−1 − (ti − ti−1 ) ,
i

donde la última igualdad se justifica pues las variables


 2 
Bti − Bti−1 − (ti − ti−1 )
i

son independientes
 y tienen media cero. Si ahora utilizamos el hecho de que
E X 4 = 3σ 2 si X tiene distribución N (0, σ 2 ), entonces
X  2 2  X 2
E Bti − Bti−1 − (ti − ti−1 ) =2 (ti − ti−1 )
i i
≤ 2 |∆n | t → 0,
lo cual demuestra la afirmación de la proposición. 

Como veremos, la proposición anterior es un caso particular de un resultado


análogo para martingalas continuas que conforma uno de los pilares sobre los que
se sostiene la teorı́a del cálculo estocástico. El teorema al que se hace referencia es
el Teorema 1.3 del capı́tulo 4 de [?] y la demostración que se encuentra ahı́ utiliza
solamente resultados básicos sobre martingalas como la desigualdad maximal de
Doob. En [?] se encuentra el mismo teorema (teorema 5.1 del capı́tulo 1) para
martingalas continuas de cuadrado integrable. En particular, se sigue que hBi : t 7→
t es el único proceso creciente y adaptado a la filtración (aumentada) de B tal que
B 2 − hBi es una martingala.
Proposición 3.3. Casi seguramente, las trayectorias de B son de variación
infinita en [u, v] para todo u ≤ v.
Demostración. Basta probar que para cada u ≤ v fijos, las trayectorias de B
tienen variación infinita en [u, v]. Sin embargo, por la Proposición ?? aplicada al
3. Propiedades de la integral de Lebesgue-Stieltjes 58

movimiento browniano B·+u − Bu , vemos que si ∆n es una sucesión de particiones


de [u, v] cuya norma tiende a cero entonces
X
Bti − Bti−1 → ∞
∆n

en probabilidad. Ası́, al pasar a una subsucesión para que la convergencia sea casi
segura, vemos que la variación de B en [u, v] es casi seguramente infinita. 
Podrı́amos sin embargo, considerar a las sumas tipo Riemann
X 
Hti Bti − Bti−1
∆n

y considerar el lı́mite conforme n → ∞. Sin embargo, puesto que las trayectorias


de B son casi seguramente de variación infinita, el Teorema ?? implica que habrá
funciones H para las cuáles no hay convergencia.

3. Propiedades de la integral de Lebesgue-Stieltjes


En esta sección se nos concentraremos en algunas propiedades de la integral de
Lebesgue-Stieltjes que posteriormente contrastaremos con propiedades de la integral
estocástica. Comenzamos con la regla de asociatividad, la fórmula de integración
por partes y la regla de la cadena.
La regla de asociatividad nos dice que, como función del intervalo de integración,
una integral de Lebesgue-Stieltjes es de variación acotada y permite reexpresar la
integral respecto de ella. Formalmente:
Proposición 3.4. Sea f una función de variación localmente acotada, g una
función medible y acotada y definamos
Z t
h(t) = g df.
0
Entonces h es de variación localmente finita y si g̃ es medible y acotada entonces
Z t Z t
g̃ dh = g̃g df.
0 0

Con la notación h = g · f , podemos escribir la fórmula de manera compacta:


g̃ · (g · f ) = (g̃g) · f.

Pasemos ahora a la fórmula de integración por partes.


Proposición 3.5. Sean f y g dos funciones de variación localmente acotada.
Para toda t > 0 se tiene que
Z t Z t
f (t) g(t) = f (0) g(0) + g− df + f dg.
0 0
3. Propiedades de la integral de Lebesgue-Stieltjes 59

Demostración. Sean µf y µg las medidas con signo asociadas a f y a g y


µ = µf ⊗ µg . Entonces
µ [0, t]2 = f (t) g(t) .


Por otra parte, puesto que


[0, t]2 = {(0, 0)} ∪ {(r, s) : 0 ≤ r ≤ s ≤ t} ∪ {(r, s) : 0 ≤ s < r ≤ t} ,
podemos utilizar el teorema de Tonelli-Fubini para concluir que
Z t Z t
µ [0, t]2 = f (0) g(0) +

f dg + g− df. 
0 0

La fórmula de integración por partes admite la siguiente forma más simétrica:


Z t Z t X
f (t) g(t) = f (0) g(0) + f− dg + g− df + ∆f (s) ∆g(s) .
0 0 s≤t

Un caso, que resultará interesante contrastar con la integral estocástica, es


Z t
2 2
f (t) = f (0) + 2f− df.
0

Aunque el siguiente resultado admite una versión para funciones discontinuas,


nos concentraremos en el caso continuo.

Proposición 3.6 (Regla de la cadena). Si f es una función continua de variación


localmente acotada y F es de clase C1 entonces F ◦ f es continua, de variación lo-
calmente acotada y
Z t
F ◦ f (t) = F ◦ f (0) + F 0 ◦ f df.
0

Demostración. La idea de la prueba es notar que si la fórmula es válida


para F y para G y α, β ∈ R entonces la fórmula también es válida para la función
α Id F + βG. Puesto que la fórmula es válida para la función identidad, también
lo será para polinomios y, al aproximar a F 0 (y por ende a F ) uniformemente en
[0, t] por una sucesión de polinomios, podremos concluir la fórmula para toda F
continuamente diferenciable.
Basta entonces probar que si
Z t
F ◦ f (t) = F ◦ f (0) + F 0 ◦ f df.
0

entonces
Z t
tF ◦ f (t) = Id (F 0 ◦ f ) + F ◦ f df.
0
3. Propiedades de la integral de Lebesgue-Stieltjes 60

Sin embargo, de acuerdo a la fórmula de integración por partes, vemos que si λ es


la medida de Lebesgue
Z t Z t
tF ◦ f (t) = F ◦ f dλ + Id dF ◦ f
0 0
Z t Z t
= F ◦ f dλ + Id F 0 ◦ f df
0 0
Z t
= F ◦ f + Id F 0 ◦ f df
0
Z t
0
= (Id F ) ◦ f df. 
0

Finalmente, analizaremos la llamada fórmula de cambio de variable, al intro-


ducir un concepto fundamental llamado inverso continuo por la derecha y estudiar
la técnica de cambios de tiempo.
Sea f : [0, ∞) → [0, ∞] no decreciente y continua por la derecha (por lo que
también admite lı́mites por la izquierda). Definimos a f −1 mediante
f −1 (t) = inf {s ≥ 0 : f (s) > t} .
La idea de la construcción es que la gráfica de f −1 se obtiene al intercambiar los
ejes en la gráfica de f : los intervalos de constancia de f se convierten en saltos de
f −1 y los saltos de f se convierten en intervalos de constancia de f −1 .
Proposición 3.7. La función f −1 es no decreciente, continua por la derecha,
f ◦ f −1 ≥ Id y además
f (t) = inf s > 0 : f −1 (s) > t .


Si f es continua entonces f ◦ f −1 = Id.


Informalmente podemos escribir la fórmula para f en términos de f −1 como
−1 −1

f = f.

Demostración. Si t ≤ t̃ entonces

{s ≥ 0 : f (s) > t} ⊃ s ≥ 0 : f (s) > t̃ .
Al tomar ı́nfimos obtenemos la monotonı́a de f −1 .
Si tn ↓ t entonces
[
{s ≥ 0 : f (s) > t} = {s ≥ 0 : f (s) > tn } .
n

Al tomar ı́nfimos, concluimos que f (t) = limn f −1 (tn ). En efecto, es claro que
−1

t−1 (f ) ≤ limn t−1


n (f ) y por definición de f
−1
(t), vemos que para toda ε > 0
t < f f −1 (t) + ε ,

3. Propiedades de la integral de Lebesgue-Stieltjes 61

por lo cual
tn < f f −1 (t) + ε


para n suficientemente grande y por lo tanto

lim f −1 (tn ) ≤ f −1 (t) + ε.


n

Por definición de f −1 (t), si ε > 0 se satisface

f f −1 (t) + ε > t


y por continuidad por la derecha de f obtenemos

f ◦ f −1 (t) ≥ t.

Si s−1 (f ) > t entonces f (t) ≤ s. Por otra parte, si ε > 0, al ser f continua por
la derecha, vemos que existe una vecindad derecha de t en la cual f ≤ f (t) + ε. Por
lo tanto f −1 (f (t) + ε) > t y ası́ vemos que

f (t) = inf s ≥ 0 : f −1 (s) > t .




Finalmente, si f es continua y no decreciente, entonces es sobre. Si (xn ) decrece


estrictamente a x, existe (tn ) estrictamente decreciente (digamos con lı́mite t) tal
que f (tn ) = xn . Por continuidad, se sigue que f (t) = x y que a la derecha de t
f > x. Vemos que entonces f −1 (x) = t y que f ◦ f −1 (x) = f (t) = x. 

Ahora podemos enunciar la fórmula de cambio de variable.

Proposición 3.8. Si g : [0, ∞) → [0, ∞) es Borel-medible y f es no-decreciente


entonces Z Z
g df = g ◦ f −1 1f −1 <∞ dλ.
[0,∞) [0,∞)

Demostración. Se sigue del procedimiento de aproximación estándar de fun-


ciones medibles al notar que la proposición es válida para g = 1[0,t] ; en efecto, basta
notar que x ≥ 0 : f −1 (x) ≤ t es un intervalo de tamaño f (t).



La razón de llamar a una tal fórmula cambio de variable es el siguiente ejercicio.

Ejercicio 3.1. Pruebe que si f es no decreciente y continuamente diferenciable


entonces
Z t Z t
g df = gf 0 dλ.
0 0
4. La integral estocástica respecto del movimiento browniano 62

4. La integral estocástica respecto del movimiento browniano


El objetivo de esta sección será construir una integral respecto de las trayectorias
brownianas. Esto es, definir integrales del tipo
Z t
Hs dBs .
0

Aquı́, H serı́a una función continua, que podrı́a ser aleatoria o no. El problema para
definirla como una integral de Lebesgue-Stieltjes, aún cuando H sea determinista,
es el siguiente.
Proposición 3.9. Casi seguramente, las trayectorias de B son de variación
infinita en [u, v] para todo u ≤ v.
Demostración. Basta probar que para cada u ≤ v fijos, las trayectorias de B
tienen variación infinita en [u, v]. Sin embargo, por la Proposición ?? aplicada al
movimiento browniano B·+u − Bu , vemos que si ∆n es una sucesión de particiones
de [u, v] cuya norma tiende a cero entonces
X
Bti − Bti−1 → ∞
∆n

en probabilidad. Ası́, al pasar a una subsucesión para que la convergencia sea casi
segura, vemos que la variación de B en [u, v] es casi seguramente infinita. 

Podrı́amos sin embargo, considerar a las sumas tipo Riemann


X 
Hti Bti − Bti−1
∆n

y considerar el lı́mite conforme n → ∞. Sin embargo, puesto que las trayectorias


de B son casi seguramente de variación infinita, el Teorema ?? implica que habrá
funciones H para las cuáles no hay convergencia. La idea de Itô fue considerar
un modo de convergencia distinto para las sumas tipo Riemann (la convergencia en
probabilidad) además de restringir a los integrandos posibles. Por ejemplo, podemos
inmediatamente integrar a B respecto de B (donde Ht = Bt ): puesto que
X  1 X 2  2
Bti−1 Bti − Bti−1 = Bti − Bt2i−1 − Bti − Bti−1 ,
2
∆n ∆n

la Proposición ?? implica que


X B2 − t
Bti−1 Bti − Bti−1 → t

2
∆n

en probabilidad. Aquı́ ya nos podemos dar cuenta de que necesariamente habrá


una diferencia entre la integral de Lebesgue-Stieltjes y la integral respecto de las
4. La integral estocástica respecto del movimiento browniano 63

trayectorias brownianas, puesto que si f es continua y de variación localmente finita


y f (0) = 0, entonces
Z t 2
f (t)
f df =
0 2
de acuerdo a la fórmula de integración por partes. La diferencia es por supuesto la
existencia de la variación cuadrática para las trayectorias brownianas.
Sea ∆ una 2n + 1-upla t0 , . . . , tn , τ1 , . . . , τn de reales en [0, t], donde 0 = t0 <
t1 < · · · < tn = t, 0 ≤ τ1 , . . . , τn−1 ≤ t y τi ≤ ti−1 . (La idea es que t1 , . . . , tn forman
la partición de [0, t] sobre la cual se consideran los incrementos del movimiento
browniano y a las τi las utilizamos para evaluar al integrando.) A una tal 2n + 1-
upla le llamaremos partición con instantes de evaluación. Definimos
d(∆) = max (ti − τi ) .
1≤i≤n−1

Notemos que entonces


τi ≤ ti−1 ≤ ti ≤ τi + d(∆) .
Sea H un proceso estocástico adaptado a FtB , t ≥ 0 con trayectorias continuas.
Definamos entonces X
Yt∆ =

Hτi Bt∧ti − Bt∧ti−1 .

Ejercicio 3.2. Pruebe que Y ∆ es una martingala respecto de la filtración


canónica generada por el movimiento browniano. Pruebe además que si H está
acotado por la constante C entonces
 2 
E Yt∆ ≤ C 2 t.

Teorema 3.2. Para toda ε, η > 0, existe δ > 0 tal que si d(∆) , d(∆0 ) < δ
entonces  
0
P Ys∆ − Ys∆ > ε < η.

La forma en que Itô escribe el teorema anterior es que Y ∆ converge en proba-


bilidad conforme d(∆) → 0.
Demostración. Sea ∆ una sucesión con instantes de evaluación consistente
de la partición s0 , . . . , sm y de los instantes de evaluación σ1 , . . . σm .
Si t0 , . . . , tn es un refinamiento de s0 , . . . , sm definamos
τj = σi si (tj−1 , tj ) ⊂ (si−1 , si ) .
Definamos entonces ∆0 como la partición con evaluadores conformada por t0 , . . . , tn
y τ1 , . . . , τn , por lo que
0
Y∆ =Y∆ .
Notemos que
d(∆0 ) = max tj − τj+1 ≤ max si − σi+1 = d(∆) ,
por lo que ∆0 es una especie de refinamiento de la partición con evaluadores.
4. La integral estocástica respecto del movimiento browniano 64

Si ∆ y ∆ ˜ son dos particiones con evaluadores distintas, podemos entonces ex-


˜
presar a Y y a Y ∆ en términos de la misma partición, pero con instantes de

evaluación distintos y escribir por tanto


˜
X
Y∆−Y∆ =

(Hτi − Hτ̃i ) Bti − Bti+1 .
i

Como H tiene trayectorias continuas, entonces para toda ε, η > 0 existe δ > 0 tal
que
P(|Ht − Hs | < ε si |t − s| ≤ δ, s, t ≤ 1) > 1 − η.
(Razón: se puede discretizar al evento anterior al considerar s, t racionales y utilizar
la continuidad uniforme en elintervalo
 [0, 1].)
Sean ε, η > 0. Si d(∆) , d ∆˜ < δ, donde δ = δ(ε, η). Definamos

Ci = (Hτi − Hτ̃i ) 1 |Hτ −Hτ̃i | <ε ,


i

por lo que
 
˜
X
P Y ∆ − Y ∆ 6= Ci Bti − Bti−1 < η.
Por otra parte
hX  X
i 2
E Ci2 (ti − ti−1 ) ≤ ε2 T.

E Ci Bti − Bti−1 =

Por lo tanto !
X  √
Ci Bti − Bti−1 > ε ≤ εT

P

i
y por lo tanto
 √ 
˜
P Y ∆ − Y ∆ > ε ≤ ε + η.

Es entonces sencillo ver (al considerar una sucesión de particiones evaluadoras


∆n con d(∆n ) → 0 y tales que Y ∆n converja en probabilidad) que existe una variable
aleatoria Y tal que para toda ε, η > 0 existe δ > 0 tal que si d(∆) < δ entonces
P Y ∆ − Y > ε < η.



Definición. La integral estocástica de H respecto de B en el intervalo [0, 1]


es el lı́mite en probabilidad de las sumas de Riemann
X 
Hτi Bti − Bti−1

(donde ∆ es una partición evaluadora de [0, 1]) conforme d(∆) → 0. Se denotará


R1
por 0 Hs dBs .
4. La integral estocástica respecto del movimiento browniano 65

Claramente, los argumentos funcionan de igual manera en el intervalo [u, v] en


vez de [0, 1]. Además, de acuerdo a la definición, tenemos que
Z t
B2 − t
Bs dBs = t .
0 2
Itô introdujo su célebre fórmula para calcular otras integrales estocásticas.
El argumento anterior de hecho puede mejorarse para poder considerar una
integral indefinida y probar propiedades de continuidad respecto del intervalo de
integración. Antes de eso, enunciemos algunas propiedades de la integral estocástica.
Proposición 3.10. Sean F y G dos procesos continuos y adaptados respecto
de la filtración browniana. Entonces:
Rt
(1) s dBr = Bt − Bs ,
Rt Rt Rt
(2) si λ, µ ∈ R entonces s [λFs + µGs ] dBs = λ s Fs dBs + µ s Gs dBs y
(3) si r < s < t entonces
Z s Z t Z t
Fu dBu + Fu dBu = Fu dBu .
r s r

Ejercicio 3.3. Pruebe la proposición anterior.


Ejercicio 3.4. Mediante aproximación por sumas tipo Riemann, pruebe las
siguientes dos igualdades:
Rt Rt
(1) 0 s dBs = tBt − 0 Bs ds y
Rt Rt
(2) 0 Bs2 dBs = Bt3 /3 − 0 Bs ds.
Proposición 3.11. Sea H un proceso adaptado con trayectorias continuas. Si
existe una función continua tal que E Ht2 ≤ Mt entonces
Z t 2 ! Z t
E Hr dBr ≤ Mr dr.
s s

Sean H 1 , H 2 , . . . procesos estocásticos adaptados con trayectorias continuas y


suponga que H n converge a H uniformemente en probabilidad, es decir,
 
lim P sup |Hsn − Hs | > ε = 0
n→∞ s≤t

para toda ε > 0. Entonces


 Z t Z t 
n

lim P Hs dBs − Hs dBs > ε = 0.

n→∞ 0 0

Demostración. Se probará el resultado cuando s = 0. Sea (∆n ) una sucesión


cuyo paso tiende a cero y tal que la sucesión de integrales estocásticas elementales
X 
In = Hti−1 Bti − Bti−1
∆n
4. La integral estocástica respecto del movimiento browniano 66
Rt
converge casi seguramente a la integral estocástica 0 Hr dBr . Entonces, por el lema
de Fatou:
Z t 2 !   X Z t
2
E Hr dBr ≤ lim inf E [In ] ≤ lim inf Mti−1 (ti − ti−1 ) = Mr dr
0 n→∞ n→∞ 0
n
puesto que M es Riemann integrable al ser continua.
Sea 
−ε
 Hs − Hsn ≤ −ε
n
Cs = Hs − Hsn −ε < Hs − Hsn < ε .

ε Hs − Hsn ≥ ε

Al utilizar particiones aproximantes, es fácil ver que
Z t Z t   
P Csn dBs 6= [Hs − Hsn ] dBs ≤ P sup |Hs − Hsn | > ε .
0 0 s≤t

Puesto que Csn ≤ ε, se sigue que


 Z t Z t 2 !


n 1 n
P Cs dBs ≥ ε ≤ E Cs dBs ≤ εt.
0 ε 0

Por lo tanto
 Z t Z t

  
n n

P Hs Bs − Hs dBs > ε + ε ≤ P sup |Hs − Hs | > ε + εt

0 0 s≤t


Para cada partición evaluadora definamos
X
Yt∆ =

Hτi Bt∧ti − Bt∧ti−1 .
Esta serı́a una versión discreta de la integral indefinida. Su principal caracterı́stica
es ser un proceso con trayectorias continuas y una martingala.
Proposición 3.12. Para toda ε, η > 0, existe δ > 0 tal que si d(∆) , d(∆0 ) < δ
entonces  
0
P sup Ys∆ − Ys∆ > ε < η.

s≤t

Demostración. Sean s1 , s2 , . . . densos en [0, 1] y sean tm m


1 , . . . , tn los puntos
obtenidos al refinar a ∆ y a ∆˜ con s1 , . . . , sm . Entonces, podremos escribir
 
˜
X
Yt∆ − Yt∆ = (Hτi − Hτ̃i ) Btm i
− B ti−1 .
m

Podemos seguir la prueba del Teorema ?? para deducir de la desigualdad de


Doob (aplicada a la transformada de martingala de C por B) que
k !
X   √
P max Ci Btm − Btm > ε ≤ ε,

i i−1
1≤i≤n
i=1
4. La integral estocástica respecto del movimiento browniano 67

lo cual implicará que


 √ 
˜
P sup Yt∆ ∆
m − Ytm > ε ≤ ε + η.

I i
i

Al tomar el lı́mite conforme m → ∞ y utilizar la densidad de {s1 , s2 , . . .}, obtenemos


 √ 
˜
P sup Ys∆ − Ys∆ > ε ≤ ε + η,

s≤1

lo cual nos permite concluir de manera análoga que en el Teorema ??. 

Corolario 2. Existe un proceso estocástico con trayectorias continuas H · B


tal que para todo t ≥ 0
 Z t 
P (H · B)t = Hs dBs = 1.
0

Una propiedad importante de la integral estocástica respecto de su parámetro,


que ya se ha utilizado implı́citamente es su carácter de martingala.
Proposición  3.13. Si H es adaptado, continuo y existe una función continua
M tal que E Ht2 ≤ Mt entonces H · B es una martingala cuadrado integrable con
trayectorias continuas.
Demostración. Con nuestra hipótesis:
  Z t
2
E [H · Bt ] ≤ Ms ds < ∞.
0

Para verificar que H · B es martingala, basta probar que


Z t 
Hr dBr Fs = 0.

E
s

Si ∆n es una sucesión de particiones de [s, t] tal que la sucesión


X 
In = Hti−1 Bti − Bti−1
∆n
Rt
converge casi seguramente a s Hr dBr , notemos que In es medible respecto de
σ(Br+s − Bs : r ≥ 0), que es independiente de Fs . Puesto que las variables In son
acotadas en L2 , son uniformemente integrables y por lo tanto
Z t 
0 = E( In | Fs ) → E Hr dBr Fs .


s

Pasemos ahora a la fórmula de Itô, que nos da una clase muy grande y útil de
ejemplos de integrales estocásticas. Se trata de la versión estocástica del teorema
de cambio de variable.
4. La integral estocástica respecto del movimiento browniano 68

Teorema 3.3. Sea f : R → R una función de clase C2 . Entonces


Z t
1 t 00
Z
f (Bt ) = f (B0 ) + f 0 (Bs ) dBs + f (Bs ) ds.
0 2 0
La heurı́stica de la prueba es sencilla: para cualquier partición 0 = t0 < · · · <
tn = t suficientemente fina, al realizar una expansión de Taylor de orden 2 se obtiene
 1 2
f (Bti ) − f Bti−1 ≈ f 0 Bti−1 Bti − Bti−1 + f 00 Bti−1 Bti − Bti−1 .
  
2
Al sumar sobre i se obtiene
X  X 1 00 2
f 0 Bti−1 Bti − Bti−1 +
 
f (Bt ) − f (Bt0 ) = f Bti−1 Bti − Bti−1 .
i i
2
El primer sumando del lado derecho converge a la integral estocástica
Z t
f 0 (Bs ) dBs
0
mientras que el segundo deberı́a converger hacia
Z t
1 00
f (Bs ) ds.
0 2

Demostración. Trabajaremos en [0, 1].


Puesto que B tiene trayectorias continuas, el máximo de su valor absoluto en
[0, 1] es finito casi seguramente y por eso, dada η > 0 existe M > 0 tal que
 
P sup |Bs | ≥ M < η.
s≤1

Puesto que f 00 es continua en [−M, M ], dada ε > 0 existe δ > 0 tal que
|f (y) − f 00 (x)| < ε si x, y ∈ [−M, M ] y |y − x| < δ.
00

Puesto que las trayectorias de B son uniformemente continuas, existe γ > 0 tal
que
 

P sup |Bt − Bs | ≥ δ  < η.


 
|t−s| <γ
0≤s,t≤1

Por lo tanto, si
 

 

Ω0 = sup |Bs | < M, sup |Bt − Bs | < δ
 s≤1
 |t−s| <γ 

0≤s,t≤1
0
entonces P(Ω ) > 1 − 2η.
4. La integral estocástica respecto del movimiento browniano 69

Al realizar una expansión de Taylor de orden 2 se obtiene


1 2 1 2
f (Bt ) − f (Bs ) = f 0 (Bs ) (Bt − Bs ) + f 00 (Bs ) (Bt − Bs ) + Rs,t (Bt − Bs )
2 2
para 0 ≤ s ≤ t ≤ 1, donde
Rs,t = f 00 (Bs + θ (Bt − Bs )) − f 00 (Bs )
para alguna θ ∈ [0, 1] (que es aleatoria).
Definamos ahora a los truncamientos
1 2
Cs,t = Rs,t (Bt − Bs ) 1 |Rs,t | ≤ε
2
y
Et = f 00 (Bt ) 1 |f 00(Bt )| ≤R
donde R = max |x| ≤M |f (x)|. Notemos que en Ω0 , si s < t < s + γ entonces
1
f (Bt ) − f (Bs ) = f 0 (Bs ) (Bt − Bs ) + f 00 (Bs ) (t − s)
2
1 2 1 h 2
i
+ Rs,t (Bt − Bs ) + Es (Bt − Bs ) − (t − s) .
2 2
Si 0 = t0 < · · · < tn = 1 es cualquier partición de paso menor a γ, podemos por
lo tanto escribir en Ω0
X  1
f 0 Bti−1 Bti − Bti−1 + f 00 Bti−1 (ti − ti−1 )
 
f (B1 ) − f (0) =
i
2
X1 2
+ Cti ,ti−1 Bti − Bti−1
i
2
1 h 2 i
+ Eti−1 Bti − Bti−1 − (ti − ti−1 ) .
2
Escojamos ahora la norma de la partición de tal manera que
Z 1 !
X
f 0 Bti−1 Bti − Bti−1 − f 0 (Bs ) dBs > ε < η
 
P

i 0
y
Z 1 !
X 1
00 00

f Bti−1 (ti − ti−1 ) − f (Bs ) ds > ε < η.

P

i
2 0
Por otra parte, por definición de Ct vemos que
!
X 1 2
Ct ,t Bti − Bti−1 ≤ ε.

E

i
2 i−1 i
5. Ecuaciones diferenciales estocásticas 70

Si además imponemos que |ti − ti−1 | < ε/R2 entonces


!
X 1 h 2 i
Eti−1 Bti − Bti−1 − (ti − ti−1 ) 2

E

i
2
R2 X 2 ε
≤ 2 (ti − ti−1 ) ≤ ≤ ε.
4 i 2
Ası́, podemos concluir que
!
X 1 2 √
Cti−1 ,ti Bti − Bti−1 > ε1/2 < ε

P

i
2
y
!
X 1 h 2 i √
Et Bti − Bti−1 − (ti − ti−1 ) > ε ≤ ε.

P

i
2 i−1
Por lo tanto
Z t
1 t 00 √
 Z 
f 0 (Bs ) dBs −

P f (Bt ) − f (B0 ) − f (Bs ) ds > 3ε + ε ≤ 4ε. 
0 2 0
Ejercicio 3.5 (Tomado del libro de Oksendal). Utilice la fórmula de Itô para
escribir a los siguientes procesos Y en la forma estándar
dYt = u(t, ω) dt + v(t, ω) dBt .
(1) Yt = Bt2
(2) Yt = 2 + t + eBt .
Utilice la fórmula de Itô para verificar que los siguientes procesos son martin-
galas
(1) Xt = et/2 cos(Bt )
(2) Xt = et/2 sin(Bt )
(3) Xt = (Bt + t) e−Bt −t/2 .

5. Ecuaciones diferenciales estocásticas conducidas por el movimiento


browniano
Equipados con una noción de integral estocástica y conscientes de su diferencia
fundamental con la integral de Lebesgue-Stieltjes, podemos analizar el concepto de
ecuación diferencial estocástica. Cabe mencionar que ésta era la motivación original
del [?] para introducir la integral estocástica pues estaba interesado en verificar su
intuición de que las soluciones a ecuaciones diferenciales estocásticas deberı́an ser
procesos de Markov.
En este capı́tulo, nos interesaremos principalmente en ecuaciones del tipo
dXt = σ(t, Xt ) dBt + b(t, Xt ) dt.
5. Ecuaciones diferenciales estocásticas 71

La interpretación es que buscamos un proceso X con trayectorias continuas y adap-


tado a la filtración de B tal que para toda t ≥ 0 se tenga que
Z t Z t
(2) Xt = x + σ(s, Xs ) dBs + b(s, Xs ) ds.
0 0

Cuando σ es idénticamente igual a cero, nos reducimos al caso de las ecuaciones


diferenciales ordinarias. Ası́ puesto, la primera tarea que tendremos será la de
estudiar existencia y unicidad para tales ecuaciones.
Intuitivamente, al discretizar una ecuación diferencial estocástica al utilizar una
partición 0 = t0 < t1 < · · · obtenemos una relación de recurrencia del tipo:
 
Xti+1 = Xti + σ(ti , Xti ) Bti+1 − Bti + b(ti ) [ti+1 − ti ] .
(Formalmente, estarı́amos aplicando el método de Euler a la ecuación
 (??).) Un
tal proceso se puede pensar como la adición del ruido σ(ti , Xti ) Bti+1 − Bti a la
evolución determinista
Xti+1 = Xti + b(ti ) [ti+1 − ti ] .
Por esta razón, un tal proceso tiene la propiedad de Markov a tiempo discreto. Por
supuesto, hay dos preguntas naturales. La primera es si la propiedad de Markov
también se vale para las soluciones a (??) y la segunda es si, cuando la norma de la
partición tiende a cero, la solución de la ecuación de recurrencia converge en algún
sentido a la solución de (??). Esto es, la pregunta serı́a sobre la convergencia del
método de Euler (en algún sentido).
Pensemos en la siguiente situación como motivación: recordemos que hemos
interpretado a una martingala como el proceso de ganancias que tenemos al someter
cierto capital en un juego de apuestas justo. Por ejemplo, pensemos que Bt+s − Bs
es la ganancia (o pérdida en caso de que su signo sea negativo) en el intervalo
[s, s + t], aunque pensamos que el juego se desarrolla a tiempo continuo. Si el
gobierno nos cobra (continuamente) impuestos sobre nuestras ganancias a tasa λ+
y, en caso de tener capital negativo pedimos dinero prestado que nos genera un
interés infinitesimal de tasa λ+ , estarı́amos tentados a escribir nuestro capital al
tiempo t como la solución a la ecuación diferencial estocástica
Z t Z t
Xt = x + Bt − λ− 1Xs <0 Xs ds − λ+ Xs ds.
0 0

Cuando λ+ = λ− = −λ obtenemos al célebre proceso de Ornstein-Uhlenbeck, que


es la solución de
Z t
Xt = x + Bt + λ Xs ds.
0

Otro ejemplo concreto de ecuación diferencial estocástica es el de la exponen-


cial estocástica del movimiento browniano. Se trata de la solución a la ecuación
5. Ecuaciones diferenciales estocásticas 72

diferencial estocástica (EDE)


Z t
(3) Xt = x + Xs dBs .
0

Ejercicio 3.6. Probar que si f es una función continua de variación acotada


entonces g satisface
Z t
g(t) = x + g(s) f (ds)
0
si y sólo si
g(t) = xef(t) .
Sugerencia: utilice integración por partes para ver que ge−f es constante.
El caso del browniano es un tanto distinto.
Ejercicio 3.7. Pruebe que Xt = xeBt −t/2 satisface la ecuación (??). Sug-
erencia: Aplique la fórmula de Itô para procesos del tipo f (t, Bt ). Note que para
obtener una conclusión de unicidad como la del caso de variación finita, hace falta
una fórmula de integración por partes para integrales estocásticas.
Una manera de resolver ecuaciones diferenciales ordinarias es mediante el método
de Picard. Esta misma idea funciona para ecuaciones diferenciales estocásticas,
como hizo notar Itô. Para simplificar el enunciado del teorema de existencia y
unicidad, haremos un supuesto de Lipschitz global en los coeficientes σ y b de la
ecuación (??).
Teorema 3.4. Suponga que σ y b son continuas y que existen constantes K y
t ≥ 0 tal que para toda x, y ∈ R se tiene que
|σ(t, y) − σ(t, x)| ≤ K |y − x| y |b(t, y) − b(t, x)| ≤ K |y − x| .
Entonces
(1) Dada x ∈ R existe un proceso X continuo y adaptado a la filtración de B
tal que
Z t Z t
Xt = x + σ(s, Xs ) dBs + b(s, Xs ) ds.
0 0

(2) Si X̃ es continuo, adaptado y


Z t   Z t  
X̃t = x + σ s, X̃s dBs + b s, X̃s ds.
0 0

entonces X y X̃ son indistinguibles.


La prueba utilizará fuertemente el siguiente resultado conocido como la de-
sigualdad (o lema) de Gronwall.
5. Ecuaciones diferenciales estocásticas 73

Lema 5. Sea T > 0 y g : [0, T ] → [0, ∞) medible y acotada. Si existen con-


stantes A, B ≥ 0 tales que
Z t
g(t) ≤ A + B g(s) ds para toda t ∈ [0, T ]
0
entonces
g(t) ≤ AeBt para toda t ∈ [0, T ].
Note que en particular, si A = 0 entonces g = 0.
Demostración. Al iterar la desigualdad, vemos que
Z t Z t1 Z t
g(t) ≤ A + B A + Bg(t2 ) dt2 dt1 = A + ABt + B g(t2 ) (t − t2 ) dt2
0 0 0
y al continuar se obtiene recursivamente
t n
B 2 t2 B n tn (t − tn+1 )
Z
g(t) ≤ A + ABt + A + ··· + A + B n+1 g(tn+1 ) dtn+1 .
2 n! 0 n!
Puesto que g es acotada, vemos que la integral del lado derecho de la desigualdad
anterior converge a cero conforme n → ∞ y por lo tanto

X B n tn
g(t) ≤ A = AeBt . 
n=0
n!

Es ilustrativo hacer el argumento de existencia y unicidad en el caso deter-


minı́stico.
Prueba del Teorema ?? si σ = 0. Como veremos en la prueba del caso gen-
eral, podemos suponer que existe una constante K 0 tal que |b(t, x)| ≤ K 0 + K |x|
(aunque sea en conjuntos acotados del parámetro temporal).
Para la existencia, sea Xt0 = x y para n ≥ 0 definimos recursivamente
Z t
Xtn+1 = x + b(s, Xsn ) ds.
0
n
Se sigue entonces que (X ) es una sucesión de funciones continuas. La prueba
terminará si mostramos que convergen uniformemente en compactos a una función
(necesariamente) continua X. En efecto, podemos entonces tomar el lı́mite en la
definición de X n+1 y concluir por el teorema de convergencia acotada que
Z t
Xt = x + b(s, Xsn ) ds.
0
Para mostrar que la sucesión (X n ) converge uniformemente en compactos, uti-
lizamos la hipótesis de Lipschitz para concluir que
Z t
sup Xsn+1 − Xsn ≤ K Xsn − Xsn−1 ds

s≤t 0
5. Ecuaciones diferenciales estocásticas 74

y puesto que
Z t
K 0 + K |x| ds = K 00 t,
1
Xt − Xt0 ≤

0
se sigue que
tn
sup Xsn+1 − Xsn ≤ K 00 .

s≤t n!
Podemos concluir entonces que
X
sup Xsn+1 − Xsn < ∞

n s≤t

n
lo cual implica que X converge uniformemente en [0, t].
Para la unicidad, suponemos que X y X̃ son dos soluciones a la ecuación difer-
encial ?? con σ = 0. Al utilizar la hipótesis de Lipschitz se obtiene
Z t
Xt − X̃t ≤ K Xs − X̃s ds,

0

lo cual implica, por el lema de Gronwall, que Xt − X̃t = 0 para toda t. 

Prueba del Teorema ??. Trabajaremos en el intervalo fijo [0, 1]. Notemos
que existe una constante K 0 tal que |σ(s, y)| ≤ K |y| + K 0 para s ≤ 1 y y ∈ R
(y análogamente para b). En efecto, puesto que σ es continua entonces K 0 =
sups≤1 |σ(s, 0)| < ∞. La hipótesis Lipschitz global implica que
|σ(s, y)| ≤ |σ(s, 0)| + K |y| .

Probemos primero la unicidad. Se asumirá primero que σ y b son acotadas,


digamos por M . Sean X y X̃ dos procesos continuos y adaptados que satisfacen la
ecuación (??). Sea
 
g̃(t) = E sup Xs − X̃s .

s≤t
Entonces, al utilizar la cota para  σ y B, ası́ como la desigualdad de Doob y la
2
desigualdad (a + b) ≤ 2 a2 + b2 obtenemos
2
Z s 2 Z t !
  
g̃(t) ≤ 2E sup σ(r, Xr ) − σ r, X̃r dBr + sup b(r, Xr ) − b r, X̃r
s≤t 0 s≤t 0
2 2 2 2
≤ 32M t + 8M t ≤ 40M t < ∞.
Definamos ahora a h i2 
g(t) = E Xt − X̃t .

Puesto que X − X̃ tiene trayectorias continuas y su supremo en [0, t] tiene momento


de orden dos finito, vemos que g es una función acotada y continua.
5. Ecuaciones diferenciales estocásticas 75

Por otra parte, al utilizar la hipótesis de Lipschitz global y la cota para el


segundo momento de una integral estocástica implica que
Z t
g(t) ≤ 2K 2 (1 + t) g(s) ds;
0

si en el intervalo [0, 1] acotamos a t 7→ (1 + t) por 2, vemos que se puede aplicar


el lema de Gronwall y concluir que g(t) = 0. Ası́, hemos probado que para toda
t, Xt = X̃t casi seguramente (esto es, que X es modificación de X̃). Sin embargo,
como ambos procesos tienen trayectorias continuas, entonces son indistinguibles.
Cuando σ y b son sólo continuas y no acotadas y suponemos que hay dos procesos
X y X̃ continuos y adaptados que satisfacen (??) entonces definimos
 
ΩK = sup |Xt | ≤ K, sup X̃t ≤ K .

t≤T t≤T

Se tiene que
lim P(ΩK ) → 1.
K→∞

Si M es una cota para b y σ en [0, T ] × [−M, M ], definamos



−M
 b(t, y) ≤ −M
bM (t, y) = b(t, y) −M ≤ b(t, y) ≤ M

−M b(t, y) ≥ M

y analogamente se define a σM . Puesto que en ΩK , X y X̃ satisfacen la ecuación


diferencial estocástica con coeficientes acotados BM y σM , entonces Xt = X̃t casi
seguramente en ΩK . Ası́:
 
P Xt 6= X̃t ≤ 1 − P(ΩK ) →K→∞ 0.

Para la existencia, definamos Xt0 = x para toda t ≥ 0 y recursivamente al


proceso adaptado y continuo
Z t Z t
n+1 n
Xt =x+ σ(s, Xs ) dBs + b(s, Xsn ) ds.
0 0

Primero probaremos que la sucesión Xtk , k ≥ 0 converge en L2 uniformemente


en t en el intervalo [0, 1]. Sea M una cota para σ y b en [0, 1] × {x}. Entonces la
desigualdad de Jensen implica
Z s 2 !
0
≤ M 2t

E sup b r, Xr dr
s≤t 0
5. Ecuaciones diferenciales estocásticas 76

y por desigualdad L2 de Doob aplicada a la integral estocástica (que es una mar-


tingala) y la cota para el segundo momento de la integral estocástica
Z s 2 !
σ r, Xr0 dBr ≤ 4M 2 t.

E sup
s≤t 0
2 
La desigualdad (a + b) ≤ 2 a2 + b2 implica entonces que
 
2
E sup Xs1 − Xs0 ≤ 10M 2 t.

s≤t

Un argumento análogo, que además utiliza la hipótesis de Lipschitz global, muestra


que   Z t  
n 2 n−1 2
 n+1  2
 n 
E sup Xs − Xs ≤ 10K E sup Xr − Xr ds
s≤t 0 r≤s
por lo que inductivamente se verifica la desigualdad
tn+1
 
n 2
 n+1 n
≤ 10K 2 10M 2

E sup Xs − Xs .
s≤t (n + 1)!
Puesto que
X   1/2

n 2
 n+1
E sup Xs − Xs < ∞,
n s≤1

podemos concluir que Xtn converge en L2 a



X
Xtn − Xtn−1

Xt = x +
n=1
y que además
  " ∞  2 !#
n 1 X
n
P sup |Xt − Xt | > ε ≤ 2 E sup |Xt − Xt | →n→∞ 0.
t≤1 ε t≤1
k=n+1

Por lo tanto, existe una subsucesión nk tal que casi seguramente


sup |Xtnk − Xt | →n→∞ 0
s≤1

por lo que X tiene trayectorias continuas y es adaptado. Por la convergencia uni-


forme, vemos que
Z t Z t
nk

lim sup
b(s, Xs ) ds − b(s, Xs ) ds = 0
k→∞ t≤1 0 0

casi seguramente. Finalmente, puesto que σ(t, Xtnk ) converge uniformemente en


probabilidad hacia σ(t, Xtnk ), se puede aplicar el teorema de convergencia de inte-
grales estocásticas para concluir que
Z t Z t
nk
lim σ(s, Xs ) dBs = σ(s, Xs ) dBs
n→∞ 0 0
5. Ecuaciones diferenciales estocásticas 77

en probabilidad (y al pasar a una nueva subsucesión podemos suponer que la con-


vergencia es casi segura) y que por lo tanto X satisface la ecuación (??). 
En particular, el caso en que σ = 0 nos reduce a la ecuación diferencial ordinaria
Xt0 = b(t, Xt ) .
El teorema de existencia y unicidad aplica cuando bajo una condición de Lipschitz
global sobre b. Hay un célebre teorema, debido a Peano que afirma que hay exis-
tencia local para la ecuación anterior con la sola hipótesis de que b sea continua.
Respecto a la unicidad, y para darse una idea de lo que permite probar el esquema
de iteración de Picard y lo que es verdad, veamos que si b no depende de la vari-
able temporal y es continua, entonces hay unicidad con la sola hipótesis b > 0. En
efecto, notemos que si f satisface f 0 = b ◦ f con b positiva, entonces f es (continua
y) estrictamente creciente. Si i = f −1 , se puede calcular la derivada de i y concluir
que
1 1 1
i0 (x) = 0 = = .
f ◦ i(x) b ◦ f ◦ i(x) b(x)
Concluimos que si f y f˜ ambas satisfacen la ecuación que nos interesa, sus inversas
tienen la misma derivada, por lo que son iguales y por lo tanto f = f˜. De hecho,
probemos unicidad en un un contexto más general cuando σ = 0: si b es continua,
estrictamente positiva y t 7→ b(t, x) es no-decreciente. Sean x1 y x2 dos funciones
diferenciables con derivadas y 1 y y 2 que satisfagan y i = b t, xit . Sea x3t = x2αt con
α > 1 y notemos que su derivada, denotada y 3 está dada por yt3 = αb αt, x3t . Sea
τ = inf t ≥ 0 : x1t > x3t .


Si τ fuera finito entonces, puesto que x3τ = x1τ por continuidad y definición de τ ,
vemos que
yτ3 = αb ατ, x3τ > b τ, x3τ = b τ, x1τ = yτ1 .
  

Lo anterior implica que x3 > x1 en una vecindad derecha de τ contradiciendo la


definición de τ . Vemos por lo tanto que x1 ≤ x3 y, al considerar α → 1, vemos que
x1 ≤ x2 . Al intercambiar los roles de x1 y x2 nos damos cuenta de que x1 = x2 .
Continuaremos con la razón fundamental por la cual Itô introdujo a la integral
estocástica y a las ecuaciones diferenciales estocásticas asociadas: la construcción
de procesos de Markov. La idea es que cuando los coeficientes σ y b que conducen a
una ecuación diferencial estocástica no dependen de la variable temporal entonces
la solución es un proceso de Markov.
Comencemos con la definición de un proceso de Markov y, de hecho, mejor
motivémosla en el caso del movimiento browniano. La idea es ver al movimiento
browniano como un proceso de Markov y para esto, quisı́eramos definir al browniano
que comienza en cualquier x ∈ R y definir un análogo de la matriz de transición.
El browniano que comienza en x se define como el proceso x + B y el sentido de
esta definición es que como Bs y B s = (Bt+s − Bs , t ≥ 0) son independientes y B s
es un browniano, si queremos la distribución condicional de Bt+s , t ≥ 0 dado que
5. Ecuaciones diferenciales estocásticas 78

Bs = x, estará dada por la distribución de x + B s que es la de x + B. Por otra


parte, recordemos que si X es cadena de Markov con matriz de transición P entonces
n
P( Xn+m = j | Xm = i) = Pi,j y que esto caracteriza a la cadena. El problema es
que para el movimiento browniano, aunque definamos a P( Bt+s = y | Bs = x) como
P(Bt + x = y), esta probabilidad será cero. Por esta razón se define al núcleo de
transición Pt de tal manera que para todo x ∈ R, Pt (x, ·) es la medida dada por
Pt (x, A) = P(x + Bt ∈ A) .
En general, se define a un núcleo de medidas de probabilidad en R como una
función N : R × BR → [0, ∞) tal que
• para toda x ∈ R N (x, ·) es una medida de probabilidad en BR y
• para toda A ∈ BR , N (·, A) es una función medible.
En el caso browniano no hemos probado la segunda condición. Sin embargo, notemos
que la medibilidad es cierta cuando A = (−∞, y] para toda y ∈ R. El lema de clases
de Dynkin nos permite entonces obtener la medibilidad deseada. Como en el caso
de matrices de transición, a las que podemos pensar como núcleos de medidas de
probabilidad en algún conjunto finito, podemos definir el producto de núcleos de
medidas de probabilidad, que no será en general conmutativo. Si M y N son núcleos
de probabilidad en R, definimos al núcleo N M por medio de la fórmula
Z
N M (x, A) = N (y, A) M (x, dy) .

En el caso del movimiento browniano, vemos que


Z
Pt Ps (x, (−∞, z]) = P(y + Bt ≤ z) P(x + Bs ∈ dy)

y entonces vemos que Pt Ps (x, ·) es la convolución de una distribución normal con


media x y varianza s con una normal centrada de varianza t. Se obtiene por lo
tanto una normal con media x y varianza s + t, que por supuesto es la medida de
probabilidad Pt+s (x, ·). Por lo tanto, se obtiene la igualdad
Pt+s = Pt Ps ,
que podemos interpretar como una versión de las ecuaciones de Chapman-Kolmogorov.
A (Pt , t ≥ 0) se le conoce como semigrupo de transición del movimiento browniano.
Para definir a un proceso de Markov (homogéneo) con valores en R se hace algo
similar.
Definición. Un semigrupo de transición en R es una colección de núcleos de
transición N = (Nt , t ≥ 0) tal que Nt Ns = Nt+s .
Un proceso estocástico X definido en el espacio de probabilidad (Ω, F , P) es un
proceso de Markov con semigrupo de transición N si
P Xt+s ∈ A FsX = Nt (Xs , A) .

5. Ecuaciones diferenciales estocásticas 79

Equvalentemente, si para toda función f : R → R medible y acotada


Z
E f (Xt+s ) Fs = f (y) Nt (Xs , dy) .
X

La anterior definición se puede escribir de manera más compacta al definir


el semigrupo de operadores de transición asociado a N . Primero, dado Nt y una
función medible y acotada, podemos definir a la función acotada Nt f de la siguiente
manera: Z
Nt f (x) = f (y) Nt (x, dy) .
Esta función será medible; para probarlo, sólo notamos que cuando f = 1A , en-
tonces Nt f es medible por definición de núcleo de medidas de probabilidad. Luego,
se extiende el resultado a funciones simples. Finalmente se aproxima a cualquier
función medible y acotada por una sucesión de funciones medibles y uniformemente
acotadas y se aplica el teorema de convergencia dominada para concluir que Nt f es
el lı́mite de una sucesión de funciones medibles y por lo tanto medible. La definición
de proceso de Markov se puede entonces escribir de la manera siguiente:
E f (Xt+s ) FsX = Nt f (Xs ) .


Finalmente, podemos enunciar el teorema de Itô.


Teorema 3.5. Bajo las hipóteis del Teorema ??, sea Xtx la (única) solución a
la ecuación diferencial estocástica
Z t Z t
Xtx = x + σ(Xsx ) dBs + b(Xsx ) ds.
0 0
Entonces, X x es un proceso de Markov homogéneo.
Vale la pena contrastar con el caso determinista en el que σ = 0. En este caso,
notemos que
Z t
x
= Xsx + x

Xt+s b Xr+s dr,
0
por lo que obtenemos la igualdad
x Xx
Xt+s = Xt t .
Esto se puede escribir como una propiedad de flujo de la función F : (t, x) 7→ Xtx :
F (t + s, x) = F (t, F (s, x)) .
Algo similar ocurre en el caso estocástico; sin embargo, como las funciones Ft
también dependen del azar, debemos también pensar en cuestiones de medibilidad.
Prueba del Teorema ??. Dada una función medible y acotada f : R → R,
definimos Pt f (x) = E(f (Xtx )). A continuación, probaremos que si Ft = σ(Bs : s ≤ t)
entonces
x Fs = Pt f (Xsx ) .
 
(4) E f Xt+s
5. Ecuaciones diferenciales estocásticas 80

Puesto que X x es adaptado a (Fs ), la ecuación (??) implica que X x es un proceso


de Markov con semigrupo (Pt ).
Para probar (??), se requieren algunos preliminares. Sea Bts = Bt+s − Bs .
Entonces B s es un movimiento browniano independiente de Fs . Sea por otra parte
X̃ x el único proceso continuo y adaptado a la filtración canónica de B s que resuelve
la ecuación diferencial estocástica
Z t Z t  
X̃tx = x + σ(r, Xrx ) dBrs + b r, X̃sx dr.
0 0
s
Entonces X̃tx
= Ft (x, ω) donde Ft es BR ⊗ FtB -medible;
esto se puede ver a partir
del procedimiento de aproximación dado en la prueba del Teorema ??. Consideremos
al proceso X dado por
(
x Xtx (ω) t<s
X t (ω) = x
.
Ft−s (Xs (ω, ω)) t > s
x
Entonces X satisface la misma ecuación diferencial que X x , pues es fácil verificar
la igualdad casi segura
Z t   Z t+s  
σ r, X̃rx dBrs = x
σ r, X̃r+s dBr .
0 s
x x
Por el Teorema ?? vemos que X t+s = Xt+s casi seguramente. Finalmente, puesto
s
que Fs es independiente de FtB y Xsx es Fs -medible, entonces
x Fs = E( f (Ft (Xsx , ·)) | Fs ) = Pt f (Xsx ) .
 
E f Xt+s 

Pasamos a un fenómeno con el que se debe tener cuidado al tratar de aproximar


ya sea integrales estocásticas o ecuaciones diferenciales ordinarias al aproximar al
browniano por un proceso de variación finita. Un ejemplo de esto serı́a el substituir
al browniano por la sucesión de procesos gaussianso lineales por pedazos como lo
hace Paul Lévy. El fenómeno que ilustraremos a continuación se conoce con el
nombre de Wong-Zakai quienes lo introdujeron en [?]. Supongamos que B n es
una sucesión de procesos estocásticos cuyas trayectorias tienen casi seguramente
variación finita y B0n = 0. Entonces, por la regla de la cadena, se sigue que
Z t
2
(Btn ) = 2 Bsn dBsn .
0
Esto implica que
Z t Z t
lim 2 Bsn dBsn = Bt2 6= Bs dBs .
n→∞ 0 0
El siguiente teorema no es más que una elaboración de esta idea.
Teorema 3.6. Sea f : R → R con derivada continua y Bn una sucesión de
procesos con trayectorias de variación finita que comienzan en cero y convergen casi
5. Ecuaciones diferenciales estocásticas 81

seguramente al movimiento browniano además de ser casi seguramente uniforme-


mente acotados en compactos. Entonces
Z t Z t
1 t 0
Z
lim f (Bn (s)) Bn (ds) = f (Bs ) dBs − f (Bs ) ds.
n→∞ 0 0 2 0
De igual manera, tenemos la versión para ecuaciones diferenciales estocásticas.
Teorema 3.7. Suponga que σ y b no dependen de la variable temporal, que σ
es derivable y que tanto σ, b como σ 0 son globalmente Lipschitz. Suponga además
que existe ε > 0 tal que σ ≥ ε. Sea Bn una sucesión de procesos con trayecto-
rias de variación acotada que comienzan en cero y convergen casi seguramente al
movimiento browniano uniformemente en compactos. Sea Xn la única solución a
la ecuacion diferencial ordinaria
Z t Z t
Xn (t) = x + σ(Xn (s)) Bn (ds) + b(Xn (s)) ds.
0 0
Entonces Xn converge casi seguramente y uniformemente en compactos al único
proceso X que satisface la ecuación diferencial estocástica
dXt = σ(Xt ) dBt + b(Xt ) + σ 0 (Xt ) dt.
CAPÍTULO 4

La integral estocástica respecto de


semimartingalas continuas

1. Martingalas continuas y su variación cuadrática


Bajo ciertas condiciones, hemos visto que una integral estocástica es una mar-
tingala y que tiene trayectorias continuas. En esta sección abordaremos el estudio
general de las martingalas con trayectorias continuas definidas en un espacio de
probabilidad (Ω, F , P) con filtración (Ft , t ≥ 0). Por el momento no asumiremos
las condiciones habituales, aunque el lector debe guardar en mente que serán fun-
damentales para construir a la integral estocástica.
Sorprendentemente, salvo las martingalas continuas triviales, todas tienen varia-
ción no acotada y esto imposibilita la definición de una integral estocástica tipo
Lebesgue-Stieltjes.
Proposición 4.1. Sea (Mt , t ≥ 0) una martingala continua con trayectorias
de variación acotada en intervalos compactos casi seguramente. Entonces M tiene
trayectorias constantes casi seguramente.
Demostración. Al restar el valor inicial, podemos suponer que M0 = 0.
Supongamos primero que la variación Vt de M en [0, t] es casi seguramente
menor o igual que la constante K > 0. Esto implica la cota
sup |Ms2 − Ms1 | ≤ 2K.
|s2 −s1 | ≤δ
s1 ,s2 ≤t

Consideremos particiones ∆ de [0, t] de norma menor o igual a δ. Entonces,


puesto que los incrementos de una martingala no tienen correlación:
" #2 
X
E Mt2 = E

Mti − Mti−1 

!
X 2
=E Mti − Mti−1

!
≤ E Vt sup |Ms2 − Ms1 | .
|s1 −s2 | ≤δ

82
1. Martingalas continuas y su variación cuadrática 83

Por el teorema de convergencia acotada y la continuidad de las trayectorias de M ,


vemos que el lado derecho tiende a cero conforme la norma de la partición tiende a
cero. Por lo tanto Mt = 0 casi seguramente. Ası́, vemos que M es una modificación
del proceso t 7→ 0 y al tener ambos trayectorias continuas, entonces M y 0 son
indistinguibles.
Cuando la variación de M es sólo finita casi seguramente y no acotada por una
constante, entonces consideramos a los tiempos de paro
SK = inf {t ≥ 0 : Vt > K} .
Al utilizar la conclusión del párrafo anterior, notamos que la martingala M SK tiene
trayectorias constantes y puesto que SK ∧t → t conforme K → ∞ (pues la variación
de M en [0, t] es finita casi seguramente) vemos que M tiene trayectorias constantes
casi seguramente. 

Sin embargo, justo como en el caso browniano, las martingalas continuas tienen
variación cuadrática finita. La idea de la prueba es considerar primero el caso de
martingalas cuadrado integrables y luego, descomponer a la martingala sobre una
partición ∆ como sigue:
X  X 2
Mt2 − M02 = 2

Mti−1 ∧t Mti ∧t − Mti−1 ∧t + Mti − Mti−1 .
∆ ∆

SiIt∆ denota al primer sumando del lado derecho y Tt∆ al segundo, notemos que
I ∆ es automáticamente una martingala. Por cálculos directos, se muestra que para
cada t fija, It∆ converge en L2 conforme |∆| → 0 y por la desigualdad de Doob,
se obtiene que la convergencia es uniforme sobre compactos y que por lo tanto el
lı́mite es un proceso continuo y creciente. A dicho proceso lo denotaremos por hM i
y lo caracterizaremos como el único proceso tal que M 2 − hM i es una martingala.
Teorema 4.1. Si M es una martingala continua y acotada, entonces existe un
único proceso creciente, continuo, adaptado y nulo en cero, denotado por hM i, tal
que M 2 − hM i es una martingala. Además, para cualquier sucesión de particiones
∆n cuyo paso tienda a cero, se tiene la convergencia en probabilidad
X 2
P − lim Mti − Mti−1 = hM i.
n→∞
∆n

El Teorema ?? podrı́a parecer limitado pues, al imponer que la martingala sea


acotada, deja fuera incluso al movimiento browniano. Una sencilla técnica, llamada
de localización, nos permite extender el teorema anterior a las llamadas martingalas
locales y a las semimartingalas. Recordemos que si T es un tiempo aleatorio y X es
un proceso estocástico entonces X T denota al proceso X detenido en T , dado por
XtT = Xt∧T .
Proposición 4.2. Si M es una martingala continua y acotada y T es un (Ft )-
tiempo de paro entonces hM T i = hM iT .
1. Martingalas continuas y su variación cuadrática 84

Demostración. Si M es acotada, entonces M T es también una martingala


acotada (respecto a la misma filtración), por lo que tiene sentido cuestionarse sobre
su variación cuadrática. Puesto que por definición M 2 − hM i es una martingala
T 2
entonces M 2 − hM i = M T − hM iT es una martingala y, por unicidad de la
variación cuadrática, hM iT = hM T i. 
Con la propiedad anterior podremos dar una primera extensión del Teorema ??
que cubra al movimiento browniano.
Definición. Una martingala local continua es un proceso estocástico M =
(Mt , t ≥ 0) con trayectorias continuas tal que existe una sucesión de tiempos de paro
T1 ≤ T2 ≤ · · · tales que Tn → ∞ casi seguramente y
(1) M0 es F0 -medible y
T
(2) (M − M0 ) n es una martingala acotada.
Si M es cualquier proceso estocástico con trayectorias continuas y T es un
T
tiempo de paro tal que M0 es F0 -medible y (M − M0 ) es una martingala aco-
tada, decimos que el tiempo de paro T reduce al proceso M . Por ejemplo, el
movimiento browniano es una martingala local. De hecho, cualquier martingala
con trayectorias continuas es una martingala local, como se puede ver al definir
Tn = inf {t ≥ 0 : |Mt − M0 | ≥ n}.
Corolario 3. Si M es una martingala local continua, existe un único pro-
ceso creciente, nulo en cero, continuo y adaptado hM i tal que M 2 − M es una
martingala local continua. Además, para cualquier sucesión de particiones ∆n sin
puntos de acumulación cuyo paso tiende a cero, la sucesión T ∆n converge a hM i
uniformemente en compactos en probabilidad.
Definición. Una semimartingala continua es un proceso estocástico X que
se puede descomponer como M + A donde M es una martingala local continua y A
es un proceso de variación acotada en compactos.
Un detalle importante es que la descomposición es única (en el sentido de in-
distinguibilidad) si M0 = 0.
Corolario 4. Si X = M +A es una semimartingala continua, entonces T ∆ (X)
converge uniformemente en compactos a hM i en probabilidad.
Como corolario adicional, obtenemos que si X = X0 + M + A y Y = Y0 + N + B
son las descomposiciones canónicas de las semimartingalas X y Y podemos definir
a la covariación de X y Y , denotada por hX, Y i por medio de la fórmula
hX, Y i = hM, N i
y que X  
Xt∧ti − Xt∧ti−1 Yt∧ti − Yt∧ti−1 → hX, Y it
∆n
1. Martingalas continuas y su variación cuadrática 85

si ∆n es una sucesión de particiones de [0, ∞) sin puntos de acumulación cuya norma


tiende a cero y la convergencia es en probabilidad uniformemente en compactos de
la variable t.
Ahora pasaremos a la construcción de la covariación entre dos martingalas
2
locales continuas. Para esto, recordemos la fórmula de polarización (a + b) −
2
(a − b) = 4ab. Sean M y N dos martingalas locales continuas y definamos la
covariación entre M y N , denotada hM, N i por medio de la fórmula
hM + N i − hM − N i
hM, N i = .
4
Corolario 5. Sean M y N martingalas locales continuas. Entonces hM, N i es
el único proceso continuo, nulo en cero, con trayectorias de variación finita y adap-
tado tal que M N − hM, N i es una martingala continua. Sea ∆n es una sucesión de
particiones de [0, ∞) sin puntos de acumulación cuya norma tiende a cero. Entonces
la sucesión de procesos
X
Tt∆n (M, N ) =
 
Mti ∧t − Mti−1 ∧t Nti ∧t − Nti−1 ∧t
∆n

converge uniformemente en compactos en probabilidad a (M, N ).


La integral estocástica se define en dos etapas: martingalas locales continuas y
luego semimartingalas. Primero se introduce el espacio de integrandos.
Definición. Un proceso estocástico K = (Kt , t ≥ 0) se dice progresivamente
medible si la aplicación (s, ω) 7→ Ks (ω) de [0, t] × Ω en R es B[0,t] ⊗ Ft -medible.
Cualquier proceso con trayectorias continuas por la derecha y adaptado es pro-
gresivamente medible. Esto se puede consultar por ejemplo en [?, Prop. 1.13 p.5]
Definición. El espacio Lloc
2 (M ) se define como la clase de procesos estocásticos
progresivamente medibles K para los cuales existe una sucesión de tiempos de paro
(Sn ) tal que Sn ≤ Sn+1 , Sn → ∞ casi seguramente y
Z Sn !
2
E Ks dhM is < ∞.
0

Un proceso progresivamente medible K es localmente acotado si existe una


sucesión de tiempos de paro (Sn ) tal que Sn ≤ Sn+1 , Sn → ∞ casi seguramente y
K Sn es acotado.
Si M es una martingala local continua y K es localmente acotado entonces
K ∈ Lloc
2 (M ).

Teorema 4.2. Sea M una martingala local continua y H ∈ Lloc 2 (M ). Entonces


existe una única martingala local continua que se anula en cero, denotado H · M tal
que para cualquier martingala local continua N
hH · M, N i = H · hM, N i.
1. Martingalas continuas y su variación cuadrática 86

Al proceso H · M se le conoce como la integral estocástica (indefinida) de


H respecto de M .
Pasemos ahora al caso de las semimartingalas. Sea X una martingala local
continua con descomposición canónica
X = X0 + M + A
donde M es una martingala local continua (nula en cero) y A es un proceso con-
tinuo de variación acotada en compactos. El espacio adecuado de integrandos lo
conformaran los procesos progresivamente medibles y localmente acotados. Si K es
un tal proceso, se define la integral estocástica de K respecto de X, denotada
por K · X, como el proceso estocástico dado por
(K · X)t = K · M + K · A.
Notemos que K · X es una nueva semimartingala. El siguiente resultado resume las
propiedades más importantes de la integral estocástica.
Teorema 4.3. Sean X = X0 + M + A una semimartingala continua, y H, Hn
y K procesos progresivamente medibles localmente acotados. Entonces
(1) K · (H · X) = KH · X,
T
(2) si T es un tiempo de paro entonces 1[0,T ] H · X = (H · X) = H · X T ,
(3) si H es un proceso elemental, esto es tiene la forma
X
H= λi 1[ti−1 ,ti ]
donde λi es Fti−1 -medible, entonces
X 
(H · X)t = λi Xti − Xti−1
i

(4) si Hn → H uniformemente en compactos en probabilidad y |Hn | ≤ K


entonces Hn · X → H · X uniformemente en compactos en probabilidad,
(5) y si H es continuo por la derecha y ∆n es una sucesión de particiones de
[0, t] cuya norma tiende a cero entonces
Z t X 
Hs dXs = lim Hti−1 Xti − Xti−1 .
0 n→∞
∆n

en probabilidad.

Si X = X 1 , . . . , X d es un proceso estocástico con valores en Rd tal que cada
componente es una semimartingala continua, decimos que X es una semimartin-
gala vectorial. Si F : Rd → R es dos veces diferenciable y ei ∈ Re denota al
i-ésimo vector de la base canónica que tiene todas las entradas iguales a cero salvo
la i-ésima igual a 1, denotaremos por Di F a la derivada de F en la dirección ei . La
notación Di,j F se utilizará para Dj (Di F ), misma que se abreviará como Di2 cuando
i = j. Cuando d = 1, se utiliza la notación D y D2 .
2. Aplicaciones a la integral estocástica 87

Teorema 4.4 (Fórmula de Itô). Sea X = X 1 , . . . , X d una semimartingala
vectorial y F : Rd → R de clase C2 . Entonces el proceso F (X) = (F (Xt ))t≥0 es
una semimartingala real con descomposición
d d
X 1 X
F (X) = F (X0 ) + Di F (Xs ) · X i + Di,j F (X) · hX i , X j i.
i=1
2 i,j=1

Esta descomposición de F (X) se conoce con el nombre de fórmula de Itô y


usualmente se escribe de la siguiente manera:
d Z t d Z
X ∂F 1 X t ∂F
F (Xt ) = F (X0 ) + (Xs ) dXsi + (Xs ) dhX i , X j is .
i=1 0 ∂xi 2 i,j=1 0 ∂xi ∂xj

Un caso particular especialmente importante es la fórmula de integración por partes.


Sean X y Y dos semimartingalas reales. Entonces:
Z t Z t
Xt Yt = X0 Y0 + Xs dYs + Ys dXs + hX, Y it .
0 0

2. Aplicaciones a la integral estocástica


2.1. La exponencial estocástica. Comencemos con la construcción de la
exponencial estocástica de una martingala local continua M .
Teorema 4.5. Existe un único proceso continuo y adaptado E (M ) tal que
Z t
E (M )t = 1 + E (M )s dMs .
0

Se tiene la fórmula explı́cita


1
E (M )t = eMt − 2 hM it .
1
Demostración. Sea E (M )t = eMt − 2 hM it . Al aplicar la fórmula de Itô con la
función f (x1 , x2 ) = ex−y/2 y con la semimartingala vectorial X = (M, hM i), vemos
que
Z t Z t
1 t
Z
1
E (M )t = 1 + E (M )s dMs − E (M )s dhM is + E (M )s dhM is ,
0 0 2 2 0
por lo que E (M ) satisface la ecuación diferencial estocástica anunciada.
Por otra parte, notemos que E (M ) > 0, por lo que podemos aplicar la fórmula
de Itô y concluir que
Z t Z t
−1 −1 −1
E (M )t = 1 − E (M )s dMs + E (M )s dhM is .
0 0
2. Aplicaciones a la integral estocástica 88

Supongamos que X es continuo, adaptado y satisface la ecuación diferencial es-


tocástica
Z t
Xt = 1 + Xs dMs .
0
Entonces la fórmula de integración por partes nos permite deducir que
Z t
−1 −1
Xt E (M )t = 1 + Xs E (M )s (dhM is − Ms )
0
Z t Z t
−1 −1
+ Xs E (M )t dMs − Xs E (M )t dhM is
0 0
= 1.

Por lo tanto, concluimos que X = E (M ). 

2.2. El teorema de caracterización de Lévy. En esta sección haremos una


primera aplicación de la fórmula de Itô a los procesos estocásticos.
Teorema 4.6 (Teorema de caracterización de Lévy). Sea M una martingala lo-
cal continua con variación cuadrática hM it = t. Entonces M es un (Ft )-movimiento
browniano.
Demostración. Aplicaremos la versión compleja de la martingala exponen-
cial. Esto es, para u ∈ R, consideremos a
2
E (iuMt ) = eiuMt +u t/2
,
que es una martingala local compleja. Es decir, su parte real y su parte imaginaria
son martingalas locales como se puede verificar facilmente. Por tener trayectorias
acotadas en compactos, vemos que E (iuM ) es una martingala compleja (y no sólo
local). Por lo tanto, se sigue que para s < t:
 2
 2
E eiuMt +u t/2 Fs = eiuMs +u s/2 ,

por lo cual para todo A ∈ Fs


  2
E 1A eiu(Mt −Ms ) = E(1A ) e−u (t−s)/2 .

Se sigue que si P(A) > 0, entonces bajo la medida P( · | A), Mt − Ms tiene la misma
función caracterı́stica que una variable gaussiana centrada de varianza t − s y por
lo tanto la misma distribución. Ası́, para todo C ∈ BR :
P(A, Mt − Ms ∈ C) = P(A) P(Bt−s ∈ C) .
Notemos que la fórmula anterior sigue siendo válida si P(A) = 0. Se concluye que
Mt − Ms es independiente de Fs y que M es un (Ft )-movimiento browniano. 
2. Aplicaciones a la integral estocástica 89

2.3. Martingalas locales continuas como cambios de tiempo del movi-


miento browniano. El objetivo de esta sección es probar que toda martingala
local continua un movimiento browniano cambiado de tiempo.
Teorema 4.7 (Dambis-Dubins-Schwarz, [?, ?]). Sea M una martingala local
continua nula en cero y tal que hM i∞ = ∞. Entonces existe un movimiento brow-
niano β tal que Mt = βhM it .
Demostración. Puesto que hM i∞ = ∞, su inverso continuo por la derecha
hM i−1 es finito casi-seguramente. Sea β = M ◦ hM i−1 . Puesto que hM i−1 puede
tener saltos, lo mismo podrı́a sucederle a β. Sin embargo, hM i−1 tiene un salto
en t si y sólo si hM i es constante en [hM i−1 −1
t− , hM it ]. Puesto que los intervalos
de constancia para M y hM i coinciden, se sigue que β es un proceso estocástico
con trayectorias continuas. Veamos ahora que β es una martingala local continua
respecto de una filtración que satisface las condiciones habituales. En efecto, note-
mos que hM i−1 t es un (Ft )-tiempo de paro. Por lo tanto, el proceso β es adaptado
respecto a la filtración cambiada de tiempo (Gt , t ≥ 0) donde Gt = FhM i−1 . Esta
t
filtración es completa puesto que la filtración original ya lo era. Por otra parte, es
fácil verificar que FhM i−1 + = FhM i−1 (como se afirma en el ejercicio 4 Cap. 1 de
t t
[?]). Sea
Sn = inf {t ≥ 0 : |Mt | ≥ n ó hM it ≥ n} .
Sn
 2 Sn
Entonces M y M − hM i son martingalas acotadas. Consideremos ahora a
Tn = inf t ≥ 0 : hM i−1

t ≥ Sn .

Notemos que
{Tn ≤ t} = Sn ≤ hM i−1 ∈ FhM i−1 .

t t

Por lo tanto, Tn es un (Gt )-tiempo de paro. Puesto que M Sn es una martingala


acotada, podemos aplicar muestreo opcional para concluir que si s ≤ t:
 
E MSn ∧hM i−1 Gs = MSn ∧hM i−1 .

t s

Notemos ahora que


hM i−1 −1
t ∧ Sn = hM it∧Tn .
Por lo tanto, vemos que  
E βtTn Gs = βsTn

y ası́ hemos probado que β es una martingala local continua. Por otra parte, al
notar que
hM ihM i−1
s ∧Sn
= s ∧ Tn ,
 Tn
podemos aplicar un argumento similar para probar que β 2 − Id es una mar-
tingala acotada y por lo tanto la variación cuadrática de β es la identidad. Por el
teorema de caracterización de Lévy, β es un (Gt )t≥0 -movimiento browniano. Por
2. Aplicaciones a la integral estocástica 90

construcción, vemos que M = β ◦ hM i (donde de nuevo se utiliza que los intervalos


de constancia de M y de hM i coinciden). 
El teorema anterior es la clave para ver que ciertos procesos de interés son
soluciones a ecuaciones diferenciales estocásticas. (Posteriormente, analizaremos a
profundidad la ecuación diferencial estocástica satisfecha por la norma al cuadrado
del movimiento browniano en dimensión δ.) También hay una versión del teorema
anterior que no utiliza la hipótesis de que la variación cuadrática sea infinita. Sin em-
bargo, el movimiento browniano se encuentra entonces en una extensión de nuestro
espacio de probabilidad. Además, hay una versión multidimensional del teorema
anterior conocido como Teorema de Knight.
Teorema 4.8 ([?]). Sean M 1 , . . . , M n martingalas locales continuas tales que
hM i∞ = ∞ y hM i , M j i =
i
 0. Entonces existe un movimiento browniano n-
dimensional β = β 1 , . . . , β n tal que M i = β i ◦ hM i i−1 .

2.4. La norma del movimiento browniano en Rd . Sea B = B 1 , . . . , B d
un movimiento browniano y definamos a
d
X 2
Zt = k~x + Bt k2 = xi + Bti .
i=1

Al aplicar la fórmula de Itô con la función f (~y ) = k~x + ~y k2 a la semimartingala


vectorial B, vemos que
Xd Z t
2 xi + Bsi dBsi + dt

Zt = f (Bt ) = x +
i=1 0

donde x = k~xk2 . Definamos a


d Z
X t
2 xi + Bsi dBsi .

Mt =
i=1 0

Entonces M es una martingala local continua con variación cuadrática


Xd Z t
4Zs ds.
i=1 0

Sea ahora h : R → R una función de clase C2 . Entonces


Z t
1 t 00
Z
h(Zt ) = h(x) + h0 (Zs ) dZs + h (Zs ) 4Zs ds
0 2 0
Z t Z t
= h(x) + h0 (Zs ) dMs + h0 (Zs ) δ + h00 (Zs ) 2Zs ds.
0 0
Vemos entonces que si
2xh00 (x) + δh0 (x) = 0
2. Aplicaciones a la integral estocástica 91

entonces h(Z) será una martingala local continua. Por otra parte, al probar fun-
ciones de la forma h(x) = xα , vemos que si δ 6= 2 entonces

h(x) = x1−δ/2
satisface la ecuación diferencial anterior mientras que cuando δ = 2, la función
h(x) = log x
lo hace. Sean
 0 < r < x < R y definamos a Tr,R como la primera vez que B sale
del anillo ~x : r < k~xk2 < R . En otras palabras, definamos a

Tr = inf {t ≥ 0 : Zt ≤ r} , T R = inf {t ≥ 0 : Zt ≥ R} y Tr,R = Rr ∧ T R .


2
Notemos que Tr,R < ∞ casi seguramente puesto que las variables  kBn+1 − Bn k
2
son independientes e idénticamente distribuidas y P kB1 k > 2R > 0. Por Borel-
Cantelli, casi seguramente existe n tal que kBn+1 − Bn k2 > 2R y para dicha n
 Tr,R ≤ n.
forzosamente se sigue que
Puesto que h Z Tr,R es una martingala local continua acotada, es una martin-
gala uniformemente integrable y por lo tanto

h(x) = E(h(Z0 )) = E h ZTr,R = h(r) p + h(R) (1 − p) donde p = P(Tr < TR ) .
Se sigue que
 1−δ/2 1−δ/2
R −x
 R1−δ/2 −r1−δ/2
 δ 6= 2
P(Tr < TR ) = .
 log R/x

log R/r δ=2
Puesto que las trayectorias de Z son continuas, se sigue que TR → ∞ conforme
R → ∞. Se deduce (
1 δ≤2
P(Tr < ∞) = x 1−δ/2
 .
r δ>2
Por otro lado, puesto que Tr → T0 conforme r → 0 entonces vemos que
(
0 δ≥2
P(T0 < TR ) = x 1−δ/2
 .
1− R δ<2
Nótese que se ha utilizado δ < 2 en vez de δ = 1. Esto se sigue de que es posible
definir a un proceso que actúe como la norma al cuadrado del movimiento browniano
en dimensión δ para cualquier δ ≥ 0. En efecto, a continuación utilizaremos el teo-
rema de Dambis-Dubins-Schwarz para verificar que cuando δ es entero no-negativo,
entonces Z satisface una ecuación diferencial estocástica (parametrizada por δ). Se
utilizará esta ecuación diferencial estocástica para darle sentido a Z cuando δ no es
natural. Antes de eso, continuemos con algunas consecuencias de los cálculos que
hemos hecho:
2. Aplicaciones a la integral estocástica 92

Corolario 6. Sea B un movimiento browniano δ-dimensional que parte de


cero. Si δ ≥ 2, B jamás regresa a cero. Si δ ≤ 2 entonces B regresa a cualquier
vecindad de cero y el conjunto de puntos en que se encuentra en una vecindad de
cero no es acotado. Si δ > 2, B es transitorio.
Demostración. Ya hemos probado que para δ ≥ 2 y x 6= 0 entonces x + B
jamás se anula. Apliquemos lo anterior al proceso Bε+t , t ≥ 0 donde ε > 0. Puesto
que Bε 6= 0 casi seguramente, al condicionar por Bε , vemos que Bε+t , t ≥ 0 jamás se
anula casi seguramente. Al ser válida esta conclusión para cualquier ε > 0, vemos
que Bt , t > 0 jamás se anula.
También hemos visto que si δ ≤ 2 y x 6= 0 entonces x + B regresa a cualquier
vecindad (fija) de cero. Al aplicar esto al proceso Bt+n , t ≥ 0, condicionalmente a Bn
(que es casi seguramente distinto de cero), vemos que casi seguramente Bt+n , t ≥ 0
regresa a cualquier vecindad fija V de cero. Ası́, para toda n ≥ 1 existe tn ≥ n tal
que Btn pertenece a V y por lo tanto, el conjunto de visitas de B a V no es acotado.
Finalmente, si δ > 2 y ~x 6= 0 entonces kx + Bt k2−δ es una martingala local
no-negativa. Esto implica que se trata de una supermartingala no-negativa. Por
lo tanto, converge casi seguramente a un lı́mite finito, digamos ξ. Por el lema de
Fatou y la autosimilitud del movimiento browniano vemos que
   
1 1
E(ξ) ≤ lim inf E = lim E √ = 0. 
t→∞ kx + Bt k2−δ t→∞ kx + tB1 k2−δ

Sean δ ≥ 2 y ~x 6= 0. Puesto que Z 6= 0 casi seguramente, el proceso 1/2 Z es
continuo, por lo que podemos definir al proceso β mediante
1
β = √ · M.
2 Z
El teorema de caracterización de Lévy nos dice que β es un movimiento browniano
y por construcción
Z t p
(5) Zt = kxk2 + 2 Zs dβs + δt.
0

Por supuesto la ecuación diferencial anterior tiene sentido aún cuando δ no sea un
entero positivo y esta es la manera en la que consideraremos al cuadrado de la norma
del browniano δ-dimensional aún cuando δ no sea un entero. El único problema con
la ecuación anterior es que no podemos utilizar el teorema de existencia y unicidad
para ecuaciones diferenciales estocásticas puesto que el coeficiente de la ecuación no
es Lipschitz.

2.5. Movimiento browniano y funciones armónicas. En esta sección, ver-


emos como el movimiento browniano nos permite resolver la ecuación de Poisson.
El lector puede consultar un desarrollo más a profundidad de estos temas en [?] y
[?].
2. Aplicaciones a la integral estocástica 93

Sea δ ∈ Z+ y consideremos un abierto D ⊂ Rδ con cerradura D y frontera


∂(D). Consideremos además una condición de frontera de Dirichlet f : ∂(D) → R
continua y un término que representa la fuente de calor externa g : D → R. Una
solución a la ecuación de Poisson es una función continua u : D → R de clase C2 en
D y tal que
(
∆u(x) = −g(x) x ∈ D
.
u(x) = f (x) x ∈ ∂(D)
Si g = 0, la ecuación
 de Poisson resultante se denomina ecuación de Laplace. Sea
B = B 1 , . . . , B δ un movimiento browniano; utilizaremos a B para dar un resultado
de unicidad para la ecuación de Poisson.
Teorema 4.9. Supongamos que D, f y g son acotadas y que u es solución a la
ecuación de Poisson. Sea

S = inf t ≥ 0 : Bt 6∈ D .
Entonces !
Z S
u(x) = Ex f (BS ) + g(Bs ) ds
0

para toda x ∈ D.
 R t∧S
Demostración. Sea Mt = u BtS + 0 g(Bs ) ds. Al utilizar la fórmula de
Itô, vemos que
X Z t∧S 1 t∧S
Z Z t∧S
i
Mt = u(x) + Di u(Bs ) dBs + ∆u(Bs ) ds + g(Bs ) ds
i 0 2 0 0

X Z t∧S
= u(x) + Di u(Bs ) dBsi ,
i 0

donde la última igualdad se deduce pues u satisface la ecuación de Poisson.


Ası́, M es una martingala local. Puesto que u es continua y D es acotado, se
sigue que u es acotada. Por lo tanto M es una martingala acotada. Además, al ser
D acotado, se sigue que S < ∞ casi seguramente y por lo tanto
Z S Z S
Mt → u(BS ) + g(Bs ) ds = f (BS ) + g(Bs ) ds,
0 0
casi seguramente y en L1 . Al aplicar muestreo opcional, se sigue que
E(MS ) = E(M0 )
lo cual significa que
!
Z S
u(x) = Ex f (BS ) + g(Bs ) ds . 
0
2. Aplicaciones a la integral estocástica 94

2.6. La fórmula de Feynman-Kac. La fórmula de Feynman-Kac es intro-


ducida por Kac en [?] para calcular la distribución Ft de la variable aleatoria
Z t
At = v(Bs ) ds
0

donde v ≥ 0 satisface ciertas condiciones y B es un movimiento browniano. Un


caso particular es cuando v = 1(0,∞) , en cuyo caso la distribución de At /t habı́a
sido encontrada por Lévy en [?] y coincide con la llamada distribución arcoseno,
que es la distribución de una variable Beta de parámetros 1/2 y 1/2. Las investi-
gaciones de Kac siguen a unas anteriores de Erdös y Kac publicadas en [?] y [?] en
la que consideran teoremas lı́mites para funcionales de caminatas aleatorias y ven
que en ciertos casos no dependen de la distribución de salto de la caminata aleato-
ria. De hecho, el punto de vista de Kac para encontrar la distribución de At es
discretizar a At , encontrar una ecuación en diferencias para calcular la distribución
de la aproximación, resolverla y pasar al lı́mite. El nombre de Feynman aparece en
la fórmula puesto Kac argumenta que su método está influenciado fuertemente por
la derivación de Feynman de la ecuación de Shrödinger. En [?] se pueden consultar
aplicaciones de la medida de Wiener a la fı́sica cuántica con una discusión sobre la
fórmula de Feynman-Kac.
La formulación moderna de la fórmula de Feynman-Kac nos presenta una liga
entre ciertas ecuaciones diferenciales parabólicas y ciertas difusiones. En efecto, nos
afirma (en el caso unidimensional) que si existe una solución u(t, x) a la ecuación
∂u ∂u ∂2u
+b + σ 2 2 + f = vu
∂t ∂x ∂x
para u : [0, T ] × R → R donde b, σ, f y v dependen de t y de x y se satisface la
condición terminal
u(x, T ) = ψ(x)
entonces u está dada por la fórmula
Z T !
Rt
− t 1 v(Xt2 ) dt2 − tT v(Xt1 ) dt1
R
u(t, x) = E e f (t1 , Xt1 ) dt1 + e ψ(XT ) ,
t

donde se asume que X satisface la ecuación diferencial estocástica


Z t Z t
Xt = x + σ(s, Xs ) dBs + b(x, Xs ) ds.
0 0

En particular, lo anterior representa un resultado de unicidad bajo el supuesto


probabilı́stico de existencia débil a la ecuación diferencial estocástica.
Ahora veremos cómo probar dichos resultados, enfocándonos en casos particu-
lares que muestren las ideas principales.
Comencemos con la liga entre el movimiento browniano y la ecuación de calor.
2. Aplicaciones a la integral estocástica 95

Proposición 4.3. Si u es continua en [0, ∞) × Rδ , de clase C2 en (0, ∞) × Rδ


y satisface el problema de Cauchy
(
∂u 1
(6) ∂t − 2 ∆u = 0
u(0, x) = f (x)
para alguna función continua y acotada f , entonces
u(t, x) = Ex (f (Bt )) .
Demostración. Probemos primero, mediante un argumento analı́tico, que u
es acotada. En efecto, se afirma que para toda δ > 0 y M > 0,
max u(t, x) ≤ max u(δ, x) .
δ≤t≤T,kxk≤M kxk≤M

En efecto, sean ε > 0 y v(t, x) = u(t, x) − εt y supongamos que v se maximiza en el


interior de [δ, t] × {kxk ≤ M }, digamos en (t∗ , x∗ ). Notemos primero que
∂v ∂u
− ∆v = − ε − ∆u = −ε.
∂t ∂t
Por otra parte, puesto que v se maximiza en (t∗ , x∗ ), vemos que
∂v ∗ ∗
(t , x ) ≥ 0 y ∆v(t∗ , x∗ ) ≤ 0.
∂t
Esto implica que
∂v ∗ ∗
(t , x ) − ∆v(t∗ , x∗ ) ≥ 0,
∂t
una contradicción. Por lo tanto v alcanza su máximo en [δ, t] × {kxk ≤ M } en la
frontera para cualquier ε > 0 y por lo tanto, u también. (Un argumento similar
aplica al mı́nimo.) Al tomar el lı́mite conforme δ → 0, vemos que
sup |u(t, x)| ≤ sup |f (x)| < ∞
t≤T,kxk≤M x

(pues supusimos que f es acotada) y al tomar el lı́mite conforme M → ∞, con-


cluimos que u es acotada.
Sea ε ∈ (0, t). Puesto que u es acotada y satisface la ecuación de calor entonces
u(s, Bt−s ) es una martingala en [0, t − ε] y no sólo una martingala local. Por lo
tanto
Ex (u(ε, Bt−ε )) = Ex (u(t, B0 )) = u(t, x) .
Puesto que u es continua y acotada y u(0, x) = f (x), podemos utilizar el teorema
de convergencia acotada para ver que
Ex (f (Bt )) = u(t, x) . 

Generalizaremos ahora el razonamiento anterior para obtener la formulación


moderna de la fórmula de Feynman-Kac. Como se observa en [?], la fórmula de
2. Aplicaciones a la integral estocástica 96

Feynman-Kac se comprende muy bien cuando se comienza con el movimiento brow-


niano matado en un tiempo exponencial. En efecto, si T es exponencial de parámetro
λ e independiente de B y definimos
(
Bt t < T
B̃t =
∆ T ≥t
(donde ∆ se interpreta como el estado cementerio y extendemos a cualquier función
real como cero en ∆) entonces para cualquier función continua y acotada se tiene
que la función   
u(t, x) = Ex f B̃t = e−λt Ex (f (Bt ))
satisface el problema de Cauchy
(
∂u
∂t − 12 ∆u = λu
u(0, x) = f (x)

En un caso más general, consideremos a


 Rt 
u(t, x) = Ex f (Bt ) e− 0 v(Bs ) ds .
La interpretación es que consideramos la esperanza de un Browniano matado a
tasa v(x) cuando se encuentra en el estado x. Si f es continua y acotada y v es
no-negativa entonces u es continua y acotada. Al utilizar la propiedad de Markov
vemos que
 Rt  Rs
Ex f (Bt ) e− 0 v(Bs ) ds Fs = e− 0 v(Br ) dr u(t − s, Bs )

para s ≤ t. Definamos Rt
Πt = e− 0 v(Bs ) ds .
Si u fuera de clase C2 entonces la fórmula de Itô nos dirı́a que
Z s Z s
Πt u(t − s, Bs ) = u(t, x) + Πr D2 u(t − r, Br ) dBr − Πr D1 u(t − r, Br ) dr
0 0
Z r Z s
1
+ Πr ∆u(t − r, Br ) dr − u(t − r, Br ) v(Br ) Πr dr.
2 0 0
Ası́, vemos que una condición natural para que Πs u(t − s, Bs ) sea una martingala
local es que u satisfaga la ecuación
(
∂u 1
∂t − 2 ∆u = vu .
u(0, x) = f (x)
Por otro lado, mostremos que hay a lo más una solución acotada para la ecuación
anterior. En efecto, si u es una solución continua y acotada a dicha ecuación entonces
la fórmula de Itô nos dice que
Πs u(t − s, Bs )
3. El teorema de Girsanov 97

es una martingala acotada. Por lo tanto


u(t, x) = Ex (Πt u(0, Bt )) = Ex (Πt f (Bt )) .

3. El teorema de Girsanov
La fórmula de Itô nos dice que la clase de semimartingalas es invariante ante
composición con funciones de clase C2 . Ahora examinaremos otra propiedad de
invariancia de las semimartingalas: la invariancia ante cambios de medida (local-
mente) absolutamente continuos. Si P y Q son medidas de probabilidad absoluta-
mente continuas y X es una semimartingala al utilizar la medida de probabilidad
entonces el célebre teorema de Girsanov nos ayudará a encontrar la descomposición
de semimartingala de X cuando se utiliza la medida Q.
Sea (Ω, F , P) un espacio de probabilidad dotado de una filtración (Ft , t ≥ 0) que
satisface las condiciones habituales. Recordemos que una medida de probabilidad
Q en (Ω, F ) es absolutamente continua respecto de P, denotado Q  P, si para
todo A ∈ F con P(A) = 0 se tiene que Q(A) = 0.
Proposición 4.4. Supongamos que Q C P y sea
dP|Ft
D̃t = .
dQ|Ft
Entonces D̃ admite una modificación D que es una una martingala càd no-negativa
y uniformemente integrable. Para todo T tiempo de paro se tiene:
dP|FT
DT = .
dQ|FT
Si Q es equivalente a P entonces Dt > 0 para toda t ≥ 0 casi seguramente.

 ón. Si A ∈ F
Demostraci
 s y s ≤ t entonces A ∈ Ft y por definición de D̃s y
D̃t : E 1A D̃s =Q(A)=E 1A D̃t . Por lo tanto D̃ es una P-martingala. Puesto que
hemos asumido las condiciones habituales para (Ω, F , (Ft ) , P) vemos que D̃ admite
una modificación càdlàg que también es una martingala y también se satisface la
relación
dP|Ft
Dt = .
dQ|Ft
Notemos que lo anterior vale también para t = ∞, por lo que D es uniformemente
integrable. Si T es un tiempo de paro y A ∈ FT entonces, al aplicar muestreo
opcional, vemos que
Q(A) = EP (1A D∞ ) = EP (1A DT ) .
Por lo tanto
dP|FT
DT = .
dQ|FT
3. El teorema de Girsanov 98

Finalmente, si S = inf {t ≥ 0 : Dt = 0} entonces


Q(S < ∞) = EP (1S<∞ DS ) = 0
y si Q es equivalente a P, esto implica que P(S < ∞) = 0. 

Ası́, en el caso en que tengamos dos medidas de probabilidad equivalente, el


proceso de derivadas de Radon-Nikodym es una martingala estrictamente positiva.
El siguiente resultado nos permitirá expresar a dicha martingala, cuando tenga
trayectorias continuas, como una exponencial estocástica.
Proposición 4.5. Sea D una martingala local continua estrictamente positiva.
Existe entonces una única martingala local continua L tal que D = E (L). Además:
Z t
Lt = log(D0 ) + Ds−1 dDs .
0

Demostración. Notemos que si D = E (L) entonces 1/D  =E (−L).


Para probar la unicidad, supongamos que D = E (L) = E L̃ . Entonces

1 1
1=D = E (L)   = eL−L̃ .
D E L̃

Para la existencia, utilizamos la fórmula de Itô con la función log, que es infini-
tamente diferenciable en (0, ∞) a la martingala local continua estrı́ctamente positiva
D. Se tiene entonces que
Z t
1 t −2
Z
log(Dt ) = log(D0 ) + Ds−1 dDs − D dhDis .
0 2 0 s
Si
Z t
Lt = log(D0 ) + Ds−1 dDs ,
0
entonces
Z t
hLit = Ds−2 dhDis ,
0
por lo que
1
log(Dt ) = Lt − hLit
2
y por lo tanto
1
Dt = exp Lt − hLit = E (L)t .
2


Ahora podemos enunciar el teorema de Girsanov.


3. El teorema de Girsanov 99

Teorema 4.10 (Teorema de Girsanov). Sea Q equivalente a P en F∞ . Sea


D la versión càdlàg del proceso de derivadas de Radon-Nikodym y supongamos que
D es continuo. Sea L una martingala local continua tal que D = E (L). Si M es
cualquier (Ft , P)-martingala local continua el proceso M̃ dado por
M̃t = Mt − hM, Lit
es una (Ft , Q)-martingala local continua.
Notemos que en particular, M es una Q-semimartingala. Notemos además que
la variación cuadrática no depende de la medida que estemos utilizando puesto que
los lı́mites en probabilidad coinciden para medidas equivalentes. Ası́, si M es un
movimiento browniano bajo P, entonces M̃ lo es bajo Q.
Demostración. Mostremos primero que si XD es una P-martingala local con-
tinua entonces X es una Q-martingala local. En efecto,
Tn = inf {t ≥ 0 : Dt ≥ n ó |Xt | ≥ n} .
Entonces (Tn ) es una sucesión creciente de tiempos de paro que convergen a ∞,
T
(XD) n es una martingala acotada y X Tn es un proceso acotado. Por lo tanto, si
A ∈ Fs y s ≤ t entonces
EQ (XTn ∧ t1A ) = EP (Xt∧Tn Dt∧Tn 1A ) = EP (Xs∧Tn Ds∧Tn 1A ) = EQ (XTn ∧s 1A ) .
Por otra parte, notemos que puesto que P(Tn ≤ t) → 0 se sigue que Q(Tn ≤ t) → 0
y que por lo tanto Tn → ∞ Q-casi seguramente. Ası́, X es una Q martingala local
continua.
Ahora aplicaremos la observación anterior. Si M es una P-martingala local
continua y M̃ = M − hM, Li, podemos aplicar la fórmula de Itô para escribir
Z t Z t
Dt M̃ = D0 M̃0 + Ds dM̃s + M̃s dDs + hM̃ , Di
0 0
Z t Z t Z t
= D0 M̃0 + Ds dMs + M̃s dDs − Ds dhM, Lis + hM, Di
0 0 0
Z t Z t
= D0 M̃0 + Ds dMs + M̃s dDs .
0 0

Por lo tanto DM̃ es una P-martingala local continua y se deduce que entonces M̃
es una Q-martingala local continua. 
Uno de los ejemplos tı́picos de aplicación del teorema de Girsanov es al movimiento
browniano con deriva. En efecto, si B es un movimiento browniano bajo P y
 2

Qt (A) = EP 1A eµBt −µ t/2 ,
para A ∈ F , entonces Qt es una medida de probabilidad absolutamente continua
respecto de P y equivalentemente a ella en Ft . Por lo tanto, bajo Qt el proceso
3. El teorema de Girsanov 100

B − µ Id es un browniano en [0, t]; equivalentemente, bajo Qt , B es un browniano


con deriva −µ en [0, t]. Otro ejemplo es que si Tb (X) = inf {t ≥ 0 : Xs ≥ b} entonces
   
E e−λTb(B+µ Id) = lim E e−λTb(B+µ Id)∧t
t→∞
 2

= lim E e−λTb(B)∧t eµBTb(B)∧t −µ Tb(B)∧t/2
t→∞
 2

= E e−λTb(B) eµb−µ Tb(B)/2
√ 2
= eµb e− |b| 2λ+µ .
En particular, vemos que
(
  = 1 sgn(b) = sgn µ
P(Tb (B + µ Id) < ∞) = lim E e−λTb(B+µ Id) = eµb−µ |b| = .
λ→0 < 1 otro caso
Una extensión de la idea anterior permite resolver el siguiente problema.
Ejercicio 4.1. Sea B un movimiento browniano que comienza en cero y γ ∈ R.
Sea
T = inf {t ≥ 0 : |Bt + γt| = 1} .
(1) Pruebe que si γ = 0 entonces T y BT son independientes.
(2) Al utilizar el teorema de Girsanov muestre la independencia entre T y BT
cuando γ 6= 0.
Otro ejemplo de aplicación es el siguiente. Notemos que
      
−µBt
E f sup Bs + µs = E f sup Bs e .
s≤t s≤t

En particular
   
2
P sup Bs + µs ∈ dx, Bt ∈ dy = P sup Bs ∈ dx, Bt ∈ dy eµy−µ t/2 .
s≤t s≤t

Este es un resultado no trivial


 puesto que se conoce explı́citamente la densidad
conjunta de Bt , sups≤t Bs :
 
2 (2y − x) −(2y−x)2 /2t
P sup Bs ∈ dy, Bt ∈ dx = √ e 1y>0,x≤y .
s≤t 2πt3

Una de las aplicaciones del teorema de Girsanov es a la técnica de remoción de


deriva.
Ejercicio 4.2. Considere la ecuación diferencial estocástica
(7) dXt = dBt + b(Xt ) dt X0 = x
3. El teorema de Girsanov 101

donde b es medible y acotada. Suponga que bajo P , X es un movimiento browniano


que comienza en x. Utilice el teorema de Girsanov para encontrar una medida de
probabilidad P̃ tal que si definimos a
Z t
Bt = Xt − b(Xs ) ds
0

entonces (Bt )t≤1 sea un movimiento browniano bajo P̃. Note que X resuelve en-
tonces la ecuación diferencial estocástica (??); esta solución es llamada solución por
transformación de deriva.
Bibliografı́a

[Dam65] K. È. Dambis, On decomposition of continuous submartingales, Teor. Verojatnost. i


Primenen. 10 (1965), 438–448. MR 0202179 (34 #2052)
[Doo84] J. L. Doob, Classical potential theory and its probabilistic counterpart, Grundlehren der
Mathematischen Wissenschaften [Fundamental Principles of Mathematical Sciences], vol.
262, Springer-Verlag, New York, 1984. MR 731258 (85k:31001)
[DS65] Lester E. Dubins and Gideon Schwarz, On continuous martingales, Proc. Nat. Acad. Sci.
U.S.A. 53 (1965), 913–916. MR 0178499 (31 #2756)
[EK46] P. Erdös and M. Kac, On certain limit theorems of the theory of probability, Bull. Amer.
Math. Soc. 52 (1946), 292–302. MR 0015705 (7,459b)
[EK47] P. Erdös and M. Kac, On the number of positive sums of independent random variables,
Bull. Amer. Math. Soc. 53 (1947), 1011–1020. MR 0023011 (9,292g)
[Itô87] Kiyosi Itô, Differential equations determining a Markoff process, Selected papers
(Daniel W. Stroock and S.R.S Varadhan, eds.), Springer-Verlag, New York, 1987, Trans-
lated from the 1942 Japanese original.
[Kac49] M. Kac, On distributions of certain Wiener functionals, Trans. Amer. Math. Soc. 65
(1949), 1–13. MR 0027960 (10,383b)
[Kni71] Frank B. Knight, A reduction of continuous square-integrable martingales to Brownian
motion, Martingales (Rep. Meeting, Oberwolfach, 1970), Springer, Berlin, 1971, pp. 19–
31. Lecture Notes in Math., Vol. 190. MR 0370741 (51 #6967)
[KS91] Ioannis Karatzas and Steven E. Shreve, Brownian motion and stochastic calculus, sec-
ond ed., Graduate Texts in Mathematics, vol. 113, Springer-Verlag, New York, 1991.
MR 1121940 (92h:60127)
[Lév39] Paul Lévy, Sur certains processus stochastiques homogènes, Compositio Math. 7 (1939),
283–339. MR 0000919 (1,150a)
[Pro04] Philip E. Protter, Stochastic integration and differential equations, second ed., Appli-
cations of Mathematics (New York), vol. 21, Springer-Verlag, Berlin, 2004, Stochastic
Modelling and Applied Probability. MR 2020294 (2005k:60008)
[PS78] Sidney C. Port and Charles J. Stone, Brownian motion and classical potential theory,
Academic Press [Harcourt Brace Jovanovich Publishers], New York, 1978, Probability
and Mathematical Statistics. MR 0492329 (58 #11459)
[RY99] Daniel Revuz and Marc Yor, Continuous martingales and Brownian motion, third ed.,
Grundlehren der Mathematischen Wissenschaften [Fundamental Principles of Mathemat-
ical Sciences], vol. 293, Springer-Verlag, Berlin, 1999. MR MR1725357 (2000h:60050)
[Sim05] Barry Simon, Functional integration and quantum physics, second ed., AMS Chelsea
Publishing, Providence, RI, 2005. MR 2105995 (2005f:81003)
[Ste01] J. Michael Steele, Stochastic calculus and financial applications, Applications of Mathe-
matics (New York), vol. 45, Springer-Verlag, New York, 2001. MR 1783083 (2001i:60080)
[WZ65] Eugene Wong and Moshe Zakai, On the convergence of ordinary integrals to stochastic
integrals, Ann. Math. Statist. 36 (1965), 1560–1564. MR 0195142 (33 #3345)

102

También podría gustarte