Notas
Notas
Notas
Diplomado en Riesgos
Martingalas
1
1. Recordatorio sobre esperanza condicional 2
para toda n ∈ N.
Proposición 1.1. Sea Z : Ω → R una variable aleatoria fija en (Ω, F , P) y
G = σ(Z). Si X : Ω → R es G medible, entonces existe f : R → R Borel-medible,
tal que X = f ◦ Z.
1.2. Esperanza Condicional. Si Z : Ω → R es una variable aleatoria simple
en (Ω, F , P) y Y : Ω → R es una variable aleatoria, una definición natural de la
probabilidad condicional P( Y ∈ B | Z) es la siguiente:
X
P( Y ∈ B | Z) = P( Y ∈ B | Z = i) 1{Z=i} ,
i∈RZ
2. Martingalas
Estudiaremos ahora una familia de procesos estocásticos que es importante den-
tro de la teorı́a de la probabilidad, principalmente por sus aplicaciones teóricas,
tanto ası́, que su estudio resulta imprescindible para la teorı́a moderna de la prob-
abilidad. Mediante su uso, verificaremos ciertos teoremas clásicos para caminatas
aleatorias, como la ley 0 − 1 de Kolmogorov y la ley fuerte de los grandes números.
En este capı́tulo solamente consideraremos procesos estocásticos indicados por un
subconjunto de Z.
Consideremos la siguiente situación: jugamos una serie de volados, obteniendo
1 si ganamos el n-ésimo y −1 si lo perdemos. El modelo matemático que consid-
eraremos está conformado por una sucesión de variables aleatorias independientes
∞
e idénticamente distribuidas (Xi )i=1 , donde Xi representa el resultado del i-ésimo
volado. Nuestra fortuna al tiempo n, Sn , está dada por
n
X
Sn = Xi
i=1
para n ≥ 1 y definiremos S0 = 0. Para que el juego resulte justo para las dos
personas que lo juegan, debemos pedir que P(Xi = 1) = 1/2. Si este es el caso,
podemos preguntarnos por la mejor aproximación a Sn+1 que podemos dar al utilizar
la información sobre el juego que conocemos hasta el tiempo n. La información al
tiempo n la interpretaremos como
Fn = σ(X1 , . . . , Xn ) ,
puesto que esta σ-álgebra contiene a todos los conjuntos de la forma
{X1 = i1 , . . . , Xn = in } ,
y ası́, lo que realmente buscamos es la esperanza condicional de Sn+1 dada Fn , que
es sencilla de calcular, pues
E( Sn+1 | Fn ) = E( Sn + Xn+1 | Fn ) = Sn + E(Xn+1 ) = Sn .
2. Martingalas 6
se debe substituir por decreciente o por creciente. Además, podemos inferir una
propiedad más fuerte a partir de (3), a saber, que
E( Xn+m | Fn ) = Xn
si n, m ∈ N. Esto se sigue de las propiedades de la esperanza condicional, puesto
que
E( Xn+m+1 | Fn ) = E( E( Xn+m+1 | Fn+m ) | Fn ) = E( Xn+m | Fn ) .
Una afirmación similar es válida para supermartingalas o submartingalas al cambiar
la igualdad por una desigualdad. Para concluir esta sección, veamos un método para
construir submartingalas a partir de una martingala dada.
Teorema 1.2. Si (Xn )n∈N es una martingala respecto a la filtración (Fn )n∈N
y ϕ : R → R es una función convexa tal que ϕ(Xn ) ∈ L1 , entonces (ϕ(Xn ))n∈N es
una submartingala respecto a la misma filtración.
una filtración.. Si
S0 = 0,
n
X
Sn = ξi n ≥ 1,
i=1
y ξi tiene media finita µ, entonces (Xn )n∈N es una martingala respecto a (Fn )n∈N ,
donde
Xn = Sn − nµ.
Si además, σ 2 = Var(ξi ) < ∞, entonces (Yn )n∈N es martingala respecto a la misma
filtración, donde
2
Yn = (Sn − nµ) − nσ 2 .
Por otro lado, si
ϕ(θ) = E eθξi < ∞
eθξn+1
E( Zn+1 | Fn ) = E Zn F n
ϕ(θ)
θξn+1
e
= Zn E
ϕ(θ)
= Zn ,
2.2. El teorema de muestreo opcional de Doob. Entre las razones por las
cuales las martingalas son importantes, se encuentran los teoremas de convergencia
de martingalas, que bajo ciertas condiciones de acotamiento nos permiten concluir
la convergencia casi segura (o de otro tipo) de una martingala. Para abordar este
resultado, es importante extender la igualdad E(Xn ) = E(X0 ) para abarcar no sólo a
tiempos deterministas como n, sino también a ciertos tiempos aleatorios, concepto
que procedemos a discutir. Consideremos (Ω, F , P) un espacio de probabilidad,
(Fn )n∈N una filtración y (Xn )n∈N una martingala respecto a la anterior filtración.
Nuestro objetivo es observar a la martingala a un tiempo que a su vez es una
variable aleatoria. Esto se logra como sigue: si T : Ω → N es una variable aleatoria
y definimos a XT : Ω → R por medio de
XT (ω) = XT(ω) (ω) ,
entonces XT resulta ser una variable aleatoria, puesto que si B ∈ BR , entonces
XT−1 (B) = ∪n∈N {ω ∈ Ω : T (ω) = n, Xn (ω) ∈ B} .
Mediante la anterior variable aleatoria, observamos a la martingala al tiempo aleato-
rio T . En realidad, trabajaremos con una clase más reducida de tiempos aleatorios,
a saber, los tiempos de paro. Para explicarlos, pensemos que al instante n debemos
decidir si parar a la martingala (definiendo a n como el valor de T ) de acuerdo a la
información que tenemos disponible (es decir Fn ). Esto motiva la siguiente
Definición. Sea T : Ω → N ∪ {∞} una variable aleatoria. Decimos que T es
un tiempo de paro respecto a la filtración (Fn )n∈N si
{ω ∈ Ω : T (ω) = n} ∈ Fn ∀n ∈ N.
El lector puede verificar que T es un tiempo de paro respecto a la filtración
(Fn )n∈N si y sólo si {T ≤ n} ∈ Fn .
Teorema 1.3. Sea X una submartingala. Si T es tiempo de paro respecto a
(Fn )n∈N y T está acotado por N entonces
E(XT ) ≤ E(XN ) .
Si X es una martingala entonces
E(XT ) = E(XN ) .
Demostración. Por hipótesis, existe un natural N > 0 tal que T ≤ N . Ası́,
N
X
E(XT ) = E Xn 1(T =n) ,
n=0
por lo que
N
X
E(XT ) ≤ E XN 1(T =n) = E(XN ) .
n=0
Si X es una martingala, la desigualdad que utilizamos es una igualdad.
El teorema anterior vale para tiempos de paro acotados y posteriormente, al
hacer un análisis más a fondo de las martingalas y de los tiempos de paro podremos
extender el teorema anterior a una familia más amplia de tiempos de paro.
Ejercicio 1.6. Sea X una supermartingala. Pruebe que si T es un tiempo de
paro acotado por N entonces
E(XT ) ≥ E(XN ) .
2.3. El teorema de muestreo opcional de Doob y el problema de la
ruina. En esta sección aplicaremos el teorema de muestreo opcional para tiempos de
paro acotados para resolver algunas preguntas concernientes a un problema clásico
dentro de la probabilidad, el problema de la ruina. Utilizaremos las martingalas del
ejemplo (??). Supongamos que dos personas, A y B, juegan a los volados, donde
A gana el n-ésimo volado con probabilidad p ∈ (0, 1). Si A cuenta con una fortuna
inicial de a pesos, B una de b pesos y apuestan en una serie de volados, un peso
cada volado, hasta que uno de los dos quede sin dinero, ‘?cuál es la probabilidad de
que A se quede con la fortuna de B? y ‘?cuál es la duración esperada del juego?
Para responder a dichas preguntas, primero las formularemos en términos de la
∞
caminata aleatoria simple de la siguiente manera: Sean (Xi )i=1 variables aleatorias
independientes que toman el valor 1 con probabilidad p y −1 con probabilidad 1−p.
Ası́, Xi toma el valor 1 si A le gana un peso a B y el valor −1 si pierde un peso en
el i-ésimo volado. Sean
S0 = 1 y Sn = X1 + · · · + Xn para n ≥ 1.
Ası́, a + Sn representa a la fortuna de A después de n volados, y por lo tanto, si
Tx = inf {n ≥ 1 : Sn = x} ,
A le gana su fortuna a B si Tb < T−a . Para responder la primera pregunta, debemos
calcular P(Tb < T−a ) .
La cantidad de volados que juegan hasta que alguien se quede sin dinero es Tb ∧T−a ,
por lo que para responder a la segunda pregunta, debemos
calcular E(Tb ∧ T−a ) .
El análisis es distinto si se trata de un juego justo (p = 1/2) o no. Haremos el caso
p = 1/2 y el caso p 6= 1/2 se dejará indicado como ejercicio.
Necesitamos un resultado preliminar.
Proposición 1.3. Para cualquier a, b > 0, P(Tb ∧ T−a < ∞) = 1.
2. Martingalas 12
x
(1) Sea φ(x) = (p/q) y pruebe que (φ(Sn ))n∈N es martingala respecto a la
filtración que genera.
(2) Note que al aplicar el teorema de muestreo opcional de Doob al tiempo de
paro acotado T−a ∧ Tb ∧ n se obtiene
1 = E φ ST−a ∧Tb ∧n .
1
E(T−a ∧ Tb ) = E ST−a ∧Tb
2p − 1
1
= (−aP(T−a < Tb ) + bP(Tb < T−a ))
2p − 1
A1 = {k ∈ N : xk ≤ a} ,
(
min A1 si A1 6= ∅
T1 (x0 , x1 , . . .) =
∞ si A1 = ∅
2. Martingalas 14
por lo que para demostrar la afirmación del teorema, veremos primero que U[a,b] 4 es
una variable aleatoria finita casi seguramente. De esto se desprenderá que el con-
junto del lado derecho de la anterior igualdad pertenece a F y tiene probabilidad
1, por lo que el lı́mite superior y el inferior de la martingala coinciden casi segura-
mente y por el lema de Fatou, obtendremos que el valor absoluto del lı́mite inferior
(y por lo tanto el del lı́mite de la sucesión) tiene esperanza finita, las conclusiones
del teorema.
Lema 2. para cada k ∈ N mayor o igual a 1, Tk es un tiempo de paro respecto
a la filtración (Fn )n∈N .
Demostración. La prueba se hará por inducción: Para k = 1, la afirmación
se deduce de la igualdad,
{T1 ≤ n} = ∪ni=0 {Xi ≤ a} ,
válida para cualquier n ∈ N. Si i ≤ n, el conjunto {Xi ≤ a} pertenece a Fi y por
lo tanto a Fn , por lo que {T1 ≤ n} pertenece a Fn y por lo tanto T1 es tiempo de
paro respecto a la filtración.
Por otro lado, si Tk es tiempo de paro y k = 2l es par (l ≥ 1), entonces para
n≥2
{Tk+1 ≤ n} = {Tk < n} ∩ {Tk+1 ≤ n}
n−1
[ n
[
= {Tk = i} ∩ {Xj ≤ a} ∈ Fn .
i=1 j=i+1
Ahora veamos que U[a,b] finita casi seguramente: para esto, indtroducimos a las
variables aleatorias
bn/2c
X
n
U[a,b] 1(T2k <∞) ,
k=1
n
la cantidad de cruces hacia arriba de x0 , . . . , xn en [a, b]. Como U[a,b] es una
n≥1
sucesión creciente de variables aleatorias no-negativas que converge a U[a,b] , entonces
se sigue que
n
(1) E U[a,b] → E U[a,b] .
por lo que
n
1
+
E U[a,b] ≤ E (a − Xn )
b−a
2. Martingalas 17
Esta es la clásica desigualdad de Doob, que nos permitirá terminar con la prueba
del teorema, puesto de acuerdo a (??),
n
E U[a,b] = lim E U[a,b]
n→∞
1
+
≤ sup E (a − Xn )
n≥1 b − a
1
≤ sup E(|Xn |) + |a| < ∞.
b − a n≥1
Ası́, la variable U[a,b] es finita P-p.s., pues pertenece a L1 .
Por ejemplo, como la esperanza es constante para una martingala, entonces
una martingala no-negativa satisface las condiciones del teorema anterior. En los
ejemplos que hemos analizado, vemos que la martingala (Zn )n∈N del ejemplo (??)
converge casi seguramente, ası́ como las martingalas de los ejemplos (??) y (??).
Veamos que la martingala del ejemplo (??) también converge P-p.s.: Por la de-
sigualdad de Jensen para la esperanza condicional,
E(|Xn |) = E(|E( X | Fn )|) ≤ E(E( |X| | Fn )) = E(|X|) ,
de donde
sup E(|Xn |) ≤ E(|X|) < ∞.
n∈N
Por lo tanto
λ1A∩{T =k} ≤ Mk+ 1A∩{T =k} .
Entonces
n
X
λP(A) = λP(A ∩ {T = k})
k=0
Xn
E Mk+ 1A∩{T =k}
≤
k=0
Xn
E Mn+ 1A∩{T =k}
≤
k=0
= E Mn+ 1A
≤ E Mn+ .
+
A partir de la desigualdad anterior, veremos que las normas p de M n y de Mn+
son comparables. Notemos que obviamente
+
E Mn+ ≤ E M n .
2. Martingalas 19
Puesto que p
p
|Mn − M∞ | ≤ 2 sup |Mn | ∈ L1 ,
n
podemos aplicar el teorema de convergencia dominada para ver que Mn → M∞ en
Lp conforme n → ∞.
2. Martingalas 20
Sea Y = C · M .
Ejercicio 1.9. Sea Un la cantidad de cruces hacia arriba que hace el proceso
M en el intervalo [a, b] antes de n. Argumente que
−
Yn ≥ (b − a) Un + (Mn − a) .
Al tomar esperanzas verifique que se satisface la desigualdad de cruces de Doob
1
+
E(Un ) ≤ E (a − Mn ) .
b−a
3. Martingalas e integrabilidad uniforme
El objetivo de esta sección es analizar el concepto de integrabilidad uniforme
de una familia de variables aleatorias integrables. El interés de esta noción, para
el estudio de las martingalas, es que permite caracterizar a las martingalas que son
de la forma Xn = E( X | Fn ), y con esto, permite dar una versión muy general del
teorema de paro opcional de Doob.
Definición. Sea {Xt }t∈T es una familia de variables aleatorias reales. Decimos
que es uniformemente integrable si
lim sup E |Xt | 1 |Xt | ≥c = 0.
c→∞ t∈T
Finalmente, se afirma que para cada ε > 0 existe δ > 0 tal que si P(E) < δ, entonces
E(|X| 1E ) < ε. Esto se prueba a partir de la desigualdad
E(|X| 1E ) ≤ cP(E) + E |X| 1 |X| >c .
Por convergencia dominada, el segundo término del lado derecho tiende a cero con-
forme c → ∞. Ası́, dada ε > 0, escogemos c > 0 tal que el segundo sumando del
lado derecho sea menor a ε/2. Basta entonces tomar δ < ε/2c. Esto termina la
prueba de que E es uniformemente integrable, puesto que dada ε > 0, escogemos δ
tal que si P(A) < δ entonces E(|X| 1A ) < ε y finalmente C tal que para toda c ≥ C
y toda G subσ-álgebra de F tengamos
P(|E( X | G )| > c) < δ.
Entonces
E |E( X | G )| 1 |E( X
|G )| >c <ε
para toda c > C.
En vista del ejemplo anterior, si Xn = E( X | Fn ) y (Fn , n ∈ N) es una fil-
tración entonces la martingala (Xn ) es uniformemente integrable. Un ejemplo de
una martingala que no es uniformemente integrable es el siguiente: si U es una vari-
able uniforme en (0, 1) y Xn = 2n 1U ≤2n , entonces Xn es una martingala respecto a
la filtración que genera. Puesto que U > 0 casi seguramente, se sigue que Xn → 0
casi seguramente. Sin embargo, limc→∞ supn E(Xn 1Xn ≥c ) = 1, por lo que no es
uniformemente integrable.
Si {Xt }t∈T es uniformemente integrable, sea c > 0 tal que
sup E(|Xt | 1Xt ≥c ) ≤ 1.
t∈T
Vemos que entonces
sup E(|Xt |) ≤ c + 1 < ∞,
t∈T
por lo que la familia {Xt }t∈T es acotada en L1 .
La importancia de la integrabilidad uniforme es que nos permite relacionar dos
modos de convergencia, la casi segura y la convergencia en L1 :
Teorema 1.7. Si {Xn }n∈N y X son variables aleatorias integrables tales que
Xn → X casi seguramente, entonces las siguientes condiciones son equivalentes:
a) {Xn }n∈N es uniformemente integrable.
b) X ∈ L1 y Xn → X en L1 .
Como hemos visto anteriormente, una condición necesaria y suficiente para que
una sucesión convergente casi seguramente también sea convergente en L1 es que la
sucesión sea uniformemente integrable, por lo que ahora estudiaremos martingalas
uniformemente integrables para abarcar otro modo de convergencia en el estudio de
las martingalas.
Si (Xn )n∈N es una martingala uniformemente integrable (respecto a la filtración
(Fn )n∈N ) entonces el conjunto {E(|Xn |) : n ∈ N} es acotado, por lo que se satisfacen
3. Martingalas e integrabilidad uniforme 23
Nota. Para una martingala cerrada, (E( X | Fn ))n∈N el lı́mite casi seguro no
tiene porque ser igual a X; sin embargo, si F = F∞ , entonces el lı́mite casi seguro
sı́ es igual a X.
Demostración. En el párrafo anterior, hemos visto como para cualquier mar-
tingala uniformemente integrable existe una variable aleatoria integrable X que la
convierte en una martingala cerrada. Ası́, sólo hace falta verificar que una mar-
tingala cerrada es uniformemente integrable. Pero esto es inmediato, pues hemos
verificado que si Σ es una familia de σ-álgebras en Ω contenidas en F , entonces la
familia de variables aleatorias {E( X | G) : G ∈ Σ} es uniformemente integarble, por
lo que cualquier martingala cerrada lo es.
Si se satisfacen alguna de las dos condiciones, sea Y el lı́mite casi seguro y en
L1 para la martingala (Yn = E( X | Fn ))n∈N . Como Yn es F∞ -medible para cada
n ∈ N, se sigue que Y también lo es. Además, por la convergencia en L1 , se sigue
que para todo A ∈ Fn ,
E(X1A ) = E(Yn 1A ) = lim E(Yn+m 1A ) = E(Y 1A ) .
m→∞
Sea
C = {A ∈ F∞ : E(X1A ) = E(Y 1A )} .
3. Martingalas e integrabilidad uniforme 24
y como
n
X
E(Yn ) = E(X∞ 1T =∞ ) + E Xi 1(T =i)
i=0
n
X
= E(X1T =∞ ) + E X1(T =i)
i=0
= E(X1T ≤n ó T =∞ ) ,
se concluye, mediante el uso del teorema de convergencia dominada que
E(Yn ) → E(X) = E(X0 )
y por lo tanto
E(XT ) = E(X0 ) .
4. La ley 0 − 1 de Kolmogorov
En esta sección veremos una primera aplicación de los teoremas de convergencia
de martingalas a sucesiones de variables aleatorias independientes. Sea (Ω, F , P) un
espacio de probabilidad en el cual están definidas una sucesión de variables aleatorias
independientes (Xi )i∈N . Definiremos a
Fn = σ(Xi : i ≤ n) y a F∞ = σ(Xi : i ∈ N) .
El resultado que probaremos, la ley 0 − 1 de Kolmogorov, nos permite concluir bajo
ciertas hipótesis, que un elemento de F∞ tiene probabilidad 0 ó 1. Para esto, sean
\
Gn = σ(Xi : i > n) y T = Gn .
n∈N
El lema anterior es parte de uno más general que ya se verificó en cursos ante-
riores.
Proposición 1.6. Las σ-álgebras Fn y Gn son independientes. Además, la
σ-álgebra τ es independiente de Fn para toda n ∈ N.
Demostración. Sea
[
A = σ Gk,n .
k≥1
∞
Para indicar la relevancia de tal afirmación, consideremos una sucesión (Xi )i=1
de variables aleatorias independientes e idénticamente distribuidas con media cero,
(Sn )n∈N la sucesión de sumas parciales asociadas y para n ∈ N, Gn = σ(Sn , Sn+1 , . . .).
Se deja como ejercicio al lector comprobar que
Sn
E( Xi | Gn ) = , i = 1, . . . , n, n ≥ 1
n
por lo que
n
E( Sn | Gn+1 ) = Sn+1 ,
n+1
de donde
Sn Sn+1
E Gn+1 = .
n n+1
De aquı́ se sigue que
Sn
= E( X1 | Gn )
n
puesto que Gn+1 ⊂ Gn , por lo cual la pregunta que formulamos anteriormente es
acerca del lı́mite casi seguro y en L1 de Sn /n, resultado conocido como la ley fuerte
de los grandes números.
Utilizaremos a continuación los resultados ya verificados sobre martingalas para
atacar la pregunta que nos concierne, para lo cual necesitamos precisar cuales son
los procesos con los cuales vamos a trabajar.
Definición. Sea (Xn )n∈N una sucesión de variables aleatorias y (Gn )n∈N una
sucesión decreciente de σ-álgebras contenidas en F . Decimos que (Xn )n∈N es una
martingala reversa respecto a (Gn )n∈N si
(1) Xn ∈ L1 para toda n ∈ N,
(2) Xn es Gn -medible para toda n ∈ N y
(3) E( Xn | Gn+1 ) = Xn+1 .
Notemos que de las propiedades de la esperanza condicional se sigue la igualdad
Xn+2 = E( Xn+1 | Gn+2 ) = E( E( Xn | Gn+1 ) | Gn+2 ) = E( Xn | Gn+2 ) ,
por lo que de manera inductiva se verifica
Xn = E( X0 | Gn ) .
Ası́, la pregunta formulada anteriormente es simplemente verificar si una martingala
reversa tiene un lı́mite casi seguro y en L1 .
Teorema 1.11. Sea (Xn )n∈N una martingala reversa respecto a (Gn )n∈N . En-
tonces (Xn )n∈N converge casi seguramente conforme n → ∞ a una variable aleatoria
X que pertenece a L1 .
Nota. Nos basaremos en el teorema de convergencia casi segura para mar-
tingalas. En dicho teorema, se vió que para demostrar la existencia del lı́mite
casi seguro, era suficiente verificar que la cantidad de cruces cruces hacia arriba
5. Martingalas reversas y la ley fuerte de los grandes números 28
de X0 , X1 , . . . en [a, b], denotada por U[a,b] (X0 , X1 , . . .), era finita casi seguramente
para cualquier pareja de racionales a, b tal que a < b. En la prueba del teorema,
vimos que la cantidad de cruces hacia arriba de X0 , X1 , . . . en [a, b] ası́ como la canti-
n
dad de cruces hacia arriba de X0 , . . . , Xn en [a, b], U[a,b] (X0 , . . . , Xn ) eran variables
aleatorias y se demostró la desigualdad clásica de Doob.
Demostración. Sea m ∈ N, Yn = −X(m−n)∨0 y Hn = G(m−n)∨0 para n ∈ N.
Verifiquemos que (Yn )n∈N es una martingala respecto a (Hn )n∈N : si n ∈ N, entonces
(
E( − Xm−n−1 | Gn−m ) si n < m
E( Yn+1 | Hn ) =
E( − X0 | Gn ) si n ≥ m
(
−Xn−m si n < m
=
−X0 si n ≥ m
= Yn .
Ası́, por la desigualdad clásica de Doob, y al utilizar la igualdad
n n
U[−b,−a] (Y0 , . . . , Yn ) = U[a,b] (X0 , . . . , Xn )
se tiene que
n
1 1
E U[a,b] (X0 , . . . , Xn ) ≤ (|b| + E(|Yn |)) = (|b| + E(|X0 |)) .
b−a b−a
De esta manera, vemos que
1
E U[a,b] (X0 , X1 , . . .) ≤ (|b| + E(|X0 |)) ,
b−a
por lo que U[a,b] (X0 , X1 , . . .) < ∞ P-p.s.. Esto nos dice que existe el lı́mite casi
seguro de Xn conforme n → ∞ y para ver que pertenece a L1 , aplicamos el lema
de Fatou:
E lim Xn ≤ lim inf E(|Xn |) = lim inf E(|E( X0 | Gn )|) ≤ lim inf E(|X0 |) < ∞.
n→∞ n→∞ n→∞ n→∞
Ahora, veamos que toda martingala reversa es uniformemente integrable, por
lo que la convergencia casi segura nos permitirá concluir la convergencia en L1 .
Teorema 1.12. Si (Xn )n∈N es una martingala reversa respecto a (Gn )n∈N ,
entonces es uniformemente integrable.
Demostración. Como Xn = E( X0 | Gn ) y hemos visto que
{E( X | G ) : G ∈ G} ,
con G una familia de σ-álgebras contenidas en F y X un elemento de L1 es uni-
formemente integrable, se sigue que {Xn }n∈N es uniformemente integrable.
Pasaremos a la identificación del lı́mite:
5. Martingalas reversas y la ley fuerte de los grandes números 29
Teorema 1.13. Sea (Xn )n∈N una martingala reversa respecto a (Gn )n∈N . En-
tonces !
\
lim Xn = E Xn Gn .
n→∞
n∈N
Para finalizar esta sección, daremos una prueba de la ley fuerte de los grandes
números que utiliza las ideas que se han desarrollado.
Teorema 1.14. Sea (Xi )i∈N una sucesión de variables aleatorias independientes
∞
e idénticamente distribuidas tales que Xi ∈ L1 . Si (Sn )n=0 denota a la sucesión de
sumas parciales asociada, entonces
Sn
lim = E(X1 ) P-p.s..
n→∞ n
Demostración. Sea Gn = σ(Sk : k ≥ n) y µ = E(X1 ), por lo que (Sn /n − µ)n≥1
es una martingala reversa respecto a (Gn )n∈N . Esto nos dice que Sn /n − µ tiene un
lı́mite conforme n → ∞ y como
Sn Sn − Sm Xm+1 + · · · + Xn
lim − µ = lim − µ = lim − µ,
n→∞ n n→∞ n n→∞ n
se sigue que dicho lı́mite es medible respecto a σ(Xk : k ≥ m) para toda m ∈ N, de
donde es medible respecto a la σ-álgebra cola asociada a (Xi )i∈N y por lo tanto es
constante. Para determinar la constante5, recordemos que Sn /n también converge
en L1 y que una variable aleatoria constante es igual a su esperanza, por lo que
Sn Sn Sn
lim − µ = E lim − µ = lim E − µ = E(S1 − µ) = 0,
n→∞ n n→∞ n n→∞ n
de donde Sn /n converge a µ.
5Para no utilizar la integrabilidad uniforme en lo que sigue, se puede usar la ley débil de los
grandes números.
6. Urnas de Pólya y el teorema de de Finetti 30
n
Y
n−sn
P( Y1 = i1 , . . . , Yn = in | H∞ ) = X∞
sn
(1 − X∞ ) = P( Y1 = ij | H∞ ) ,
j=1
7. Regularización de martingalas
Ahora daremos una extensión adicional del teorema de convergencia de martin-
galas y probaremos el teorema de regularización de martingalas. Este último es útil
a la construcción de una gran familia de procesos estocásticos entre los cuales se en-
cuentran los procesos de Feller y en particular los procesos de Lévy. Nos centraremos
en procesos a tiempo continuo.
7. Regularización de martingalas 32
si y sólo si UT (f, a, b) < ∞ para cualquier pareja de racionales a < b. En este caso,
si f es acotada entonces los lı́mites por la derecha y por la izquierda son finitos.
Teorema 1.15 (Desigualdad de cruces de Doob). Si (Xt )t≥0 es una (Ft )-super-
martingala y T ⊂ [0, ∞) es numerable entonces
E(UT (X)) ≤ sup E (a − Xt )− .
t∈T
7. Regularización de martingalas 33
Movimiento Browniano
(2) Bt2 − t, t ≥ 0,
2
(3) eλBt −λ t/2 y
2
(4) cosh(λBt ) e−λ t/2 .
Demostración. Se tiene que Bt − Bs es independiente de Fs para s ≤ t; nse
deduce lo anterior pues por una parte Bt − Bs es independiente de Bsi − Bsi−1 i=0
para cualquier n ≥ 0 y cualquier colección de reales
0 = s0 ≤ s1 ≤ · · · ≤ sn ≤ s.
y por otra, dichas variables aleatorias generan Fs . (Luego, se aplica el lema de
clases de Dynkin.)
(1) Vemos que
0 = E( Bt − Bs | Fs ) = E( Bt | Fs ) − Bs ,
pues Bs es Fs medible. Se conlcuye que B es una (Ft )t≥0 -martingala.
(2) Al ser B una martingala y Bt − Bs independiente de Fs , se tiene que
t − s = E(Bt − Bs )
2
= E (Bt − Bs ) Ft
= E Bt2 Ft − 2E( Bt Bs | Ft ) + Bs2
= Bs2 − E Bt2 Fs ,
por lo cual todos los momentos de orden par son finitos. Otra forma de
2 2 2 2
verlo es puesto que xn e−x /2 = xn e−x /4 e−x /4 , y x 7→ xn e−x /4 es aco-
2
tada y x 7→ e−x /4 es integrable, se sigue que todos los momentos son
finitos. Esto implica que la función generadora de momentos es infini-
tamente diferenciable y que su enésima derivada en cero es el momento
de orden n de N . Esto se verifica al utilizar los criterios para intercam-
biar derivadas e integrales del libro de Bartle. Sea φN la generadora de
2. Vectores gaussianos y la distribución normal multivariada 41
2
momentos de la gaussiana. Hemos visto que φN (u) = eu /2 , por lo que
(2n)
φN (0) = 2n!/n!2n . Ası́:
2n!
E N 2n =
.
n!2n
Ahora, como la serie de momentos de N es absolutamente convergence, el
teorema de convergencia dominada nos permite afirmar que
∞
X un n 2
E eiuN = E(N n ) (i) = e−u /2 .
n=0
n!
(6) Un caso particular muy útil es que E N 4 = 3.
(7) Ahora calculemos los momentos de |N |, ya tenemos a los momentos de
orden par; los de orden impar se calculan de manera distinta:
Z ∞ −x2 /2
2n+1 e
x2n 2x dx
E |N | = √
0 2π
Z ∞ −y/2
e
= √ y n dy
0 2π
2n+1
= √ n!
2π
n+1/2
√
=2 n!/ π.
(8) Ahora calcularemos la función caracterı́stica de X, al utilizar los cálculos
sobre momentos pares y el siguiente razonamiento: al maximizar, se tiene
que
2 2 2 2 2
eux e−x /2 = eux−x /4 e−x /4 ≤ eu e−x /4 ,
por lo cual E eu |N | < ∞. Al utilizar el teorema de convergencia domi-
y la varianza es
n
!
X
Var(λ · X) = Var λi Xi
i=1
n
X
= E(λi (Xi − µi ) λj (Xj − µj ))
i,j=1
Xn
= λi λj Ai,j
i,j=1
0
= λ Aλ.
Recordemos que las variables aleatorias en Rn están determinadas por su función
caracterı́stica. Como λ · X es una variable aleatoria gaussiana, se sigue que
0
E eiλ·X = eiλ·µ e−λ Aλ/2 .
Se sigue por lo tanto que X tiene una distribución normal multivariada con media
µ y matriz de varianzas-covarianzas A. Se deduce el siguiente corolario importante.
Corolario 1. Las entradas de un vector gaussiano son independientes si y
sólo si son no-correlacionadas.
La prueba se basa en notar que si las entradas de un vector gaussiano son
no-correlacionadas entonces la matriz de varianzas-covarianzas es diagonal lo cual
implica que la función caracterı́stica se factoriza y que por lo tanto las entradas son
independientes.
Necesitaremos ver que las sucesiones débilmente convergentes de variables aleato-
rias gaussianas.
Proposición 2.3. Si Xn es una sucesión de variables gaussianas que converge
débilmente a una variable aleatoria X entonces X es gaussiana, |Xn | p es uniforme-
mente integrable para toda p > 0 y E(Xnp ) → E(X p ).
Demostración. Sean µn = E(Xn ) y σn2 = Var(Xn ). Por hipótesis
2 2
eiuµn −σn u /2 = E eiuXn → E eiuX
2
por lo que e−σn es convergente y como la función caracterı́stica es distinta de cero en
una vecindad de cero, vemos que σn2 es una sucesión acotada y convergente, digamos
a σ 2 . Esto nos muestra que µn es también una sucesión acotada. Pero entonces,
como eiuµn es convergente para cualquier u ∈ R, esto no muestra que cualesquiera
dos lı́mites subsucesionales µ1 y µ2 de µn satisfacen µ1 − µ2 = 2kπ/u para todo
2. Vectores gaussianos y la distribución normal multivariada 43
por lo que para toda p > 1 se tiene que supn E(|Xn | p ) < ∞ y por lo tanto (|Xn | p ) es
uniformemente integrable para toda p ≥ 1, lo cual a su vez implica que E(|Xn | p ) →
E(|X| p ) para todo p ≥ 1.
Ahora haremos algunos cálculos con la distribución gaussiana. Primero, cal-
culemos la distribución de N 2 :
√
P N 2 ≤ x = 2P 0 ≤ N ≤ x ,
por lo que
e−x/2 1
fN 2 (x) = √ √ .
2π x
Se concluye que N 2 tiene distribución Γ de parámetros (1/2, 1/2), donde el primer
parámetro es el de posición y el segundo el de escala. (Si γa,b tiene distribución Γ
de parámetros (a, b) entonces
1 a−1
P(γa,b ∈ dx) = (bx) be−bx dx,
Γ(a)
por lo que cγa,b ∼ Γ(a, b/c) y esto último explica el nombre de parámetro de escala.)
Pasemos al cálculo de la distribución de N2 /N1 , donde N1 y N2 son gaussianas
independientes: primero calculamos la densidad de (N1 , N2 /N1 ) al utilizar la trans-
formación (x, z) 7→ (x, zx), cuyo jacobiano es x, vemos que
2 2 x
fN1 ,N2 /N1 (x, z) = fN1 ,N2 (x, zx) x = e−x (1+z )/2 .
2π
Al integrar z en la expresión anterior, utilizando el cambio de variable y = x2 /2,
obtenemos:
Z Z
2 2 x 2 1 1
fN2 /N1 (z) = e−x (1+z )/2 dx = 2 e−y(1+z ) dy = .
2π 2π π (1 + z 2 )
Se sigue que N2 /N1 tiene ley Cauchy; la distribución asociada se puede explicitar
en términos de la función arcoseno.
Sea C una variable aleatoria Cauchy; ahora caracterizaremos a la distribución
de A = 1/(1 + C 2 ). Como
p
P(A ≥ x) = P 1/x ≥ 1 + C 2 = P 1/x − 1 ≥ C 2 = 2P 0 ≤ C ≤ 1/x − 1 ,
entonces
p 1 −1 1
fA (x) = −2fC (1 − x) /x p 2
= p .
2 (1 − x) /x x π x (1 − x)
3. Existencia del movimiento browniano 44
Por lo tanto, A tiene distribución Beta de parámetros 1/2, 1/2, que es la llamada
distribución arcoseno. Ası́, vemos también que N12 / N12 + N22 tiene distribución
arcoseno.
Cuando X1 , . . . , Xδ son independientes y normales estándar, se puede calcular
la distribución de X1 /kXk mediante el siguiente razonamiento: como para x > 0
2P(0 ≤ X1 /kXk < x) = P X12 < X22 + · · · Xδ2 x2 /(1 − x2 ) ,
entonces
2fX1 /kXk (x)
Z ∞ Z yx2 /(1−x2 )
∂ 1 ν−1/2 −y/2 1
= dy ν+1/2 y e dz √ z −1/2 e−1/2z
∂x 0 2 Γ(ν + 1/2) 0 2Γ(1/2)
Z ∞ −1/2
x2 x2
1 2x 1 −y
= dy ν+1/2 y ν−1/2 e−y/2 y √ y e 2(1−x2 )
0.2 0.4 0.6 0.8 1 0.2 0.4 0.6 0.8 1 0.2 0.4 0.6 0.8 1
-0.2 -0.2 -0.2
-0.4 -0.4 -0.4
0.2 0.4 0.6 0.8 1 0.2 0.4 0.6 0.8 1 0.2 0.4 0.6 0.8 1
-0.2 -0.2 -0.2
-0.4 -0.4 -0.4
0.2 0.4 0.6 0.8 1 0.2 0.4 0.6 0.8 1 0.2 0.4 0.6 0.8 1
-0.2 -0.2 -0.2
-0.4 -0.4 -0.4
por lo que
k l
E Xn n Xn n
2 2
1 j l/2 1 j+1 l/2
= E Xn−1 n−1 Xn−1 n−1 + E Xn−1 n−1 Xn−1 n−1 +0
2 2 2 2 2 2
1 j ∧ (l/2) 1 (j + 1) ∧ (l/2)
= + .
2 2n−1 2 2n−1
Al analizar los distintos casos que pueden darse, nos damos cuenta de que
k l (2j + 1) ∧ l
E Xn n Xn n = .
2 2 2n
por otra parte, si tanto l como k son impares pero distintos, el análisis es análogo.
Finalmente, si k = l = 2j + 1, al escribir a Xn (k/2n ) en términos de Xn−1 y utilizar
la hipótesis de inducción y la independencia entre ξk,n y Xn−1 , se observa que
2 !
k 1 j 1j+1 1 j ξk,n
E Xn n = + + 2 n−1 + E
2 4 2n−1 4 2n−1 42 2(n+1)/2
4j + 1 1 2j + 1
= n+1
+ n+1 = .
2 2 2n
Verifiquemos ahora que la sucesión de procesos (Xn )n∈N converge uniforme-
mente. Para ésto, consideremos el evento
( )
An = sup |Xn (t) − Xn−1 (t)| > 2−n/4
t∈[0,1]
Xn 2j + 1 − Xn−1 2j + 1 > 2−n/4
= max
0≤j≤2n−1 −1
2n 2n
= max
n−1
|ξ2j+1,n | > 2(n+2)/4 .
0≤j≤2 −1
Puesto que
2
E |Bt − Bs | 4 = 3 (t − s)
4. La propiedad de Markov
La propiedad de homogeneidad temporal del movimiento browniano (que también
comparte con el proceso de Poisson y otros procesos de Lévy) se puede interpretar
también como una propiedad de Markov.
Proposición 2.4 (Propiedad de Markov para el movimiento browniano). Sea
B un movimiento browniano y Ft , t ≥ 0 su filtración canónica. Entonces para
toda t > 0, el proceso B t dado por Bst = Bt+s − Bt es un movimiento browniano
independiente de Ft .
De igual manera, la homogeneidad se puede extender a tiempos de paro e inter-
pretar como una propiedad de Markov fuerte. Recordemos que un tiempo de paro
es una función T : Ω → [0, ∞] tal que {T ≤ t} ∈ Ft . Dado un tiempo de paro,
podemos definir a la σ-álgebra FT mediante:
FT = {A ∈ F : A ∩ T ≤ t ∈ Ft } .
Ejercicio 2.1. Probar que FT es una σ-álgebra.
Proposición 2.5 (Propiedad de Markov fuerte para el movimiento browniano).
Sea B un movimiento browniano y Ft , t ≥ 0 su filtración canónica. Si T es un
tiempo de paro finito, el proceso B T dado por BsT = BT +s − BT es un movimiento
browniano independiente de FT .
Demostración. Consideremos a T n = d2n T e/2n . Entonces T n es un tiempo
de paro puesto que
k+1 k k+1
Tn = = < T ≤ .
2n 2n 2n
Además, T n decrece a T conforme n → ∞. Notemos además que si A ∈ FT
entonces
k+1 k+1
A ∩ Tn ≤ = A ∩ T ≤ ∈ F k+1 ,
2n 2n 2n
T
por lo que B es un movimiento browniano independiente de A y ası́ concluimos
que B T es un movimiento browniano independiente de FT .
donde
1
ν(dx) = √
.
2πx3
2
Finalmente, para cada a > 0, Ta tiene la misma distribución que a/B 1 .
Demostración. Comenzamos con el cálculo de la transformada de Laplace.
2
Al aplicar muestreo opcional a la martingala Mt = eλBt −λ t al tiempo de paro Ta
(hasta el cual M permanece acotada) se ve que
√
E eλTa = e−a 2λ .
Puesto que −B̃ también es un movimiento browniano, vemos que entonces el proceso
( (
b Dt t < Tb Dt t < Tb
Bt = =
b − B̃t−Tb t > Tb 2b − Bt t ≥ Tb
es un movimiento browniano.
A través de la igualdades de conjuntos
{Tb ≤ t, Bt ≤ b} = Tb ≤ t, Btb ≥ b = Btb ≥ b ,
vemos que
P(Tb ≤ t) = P(Bt ≥ b) + P(Bt ≤ b, Tb ≤ t)
= P(Bt ≥ b) + P Btb ≥ b
= 2P(Bt ≥ b)
= P(|Bt | ≥ b) .
Si a ≤ b, apliquemos un argumento similar con los conjuntos
B t ≥ b, Bt ≤ a = {Tb ≤ t, Bt ≤ a} = Btb ≥ 2b − a
para obtener
2 2
∂ 2e−(2b−a) /2t
2 (2b − a) e−(2b−a) /2t
fBt ,B t (a, b) = 1a<b √ = 1a<b √ .
∂a 2πt 2πt3
Recordemos que una variable Cauchy estándar tiene densidad
1
.
π (1 + x2 )
En este caso la función de distribución es
1 arctan(x)
+ .
2 π
También se sabe que la distribución Cauchy es la misma que la del cociente de dos
gaussianas estándar.
Proposición 2.8. Sean B 1 y B 2 dos movimientos brownianos independientes y
T el proceso de tiempos de arribo de B 1 . Entonces BT2 1 tiene la misma distribución
1
a
que aC.
Veamos ahora un resultado clásico conocido como primera ley arcoseno de Paul
Lévy. Sean
dt = inf {s ≥ t : Bs = 0} y gt = sup {s ≤ t : Bs < 0} .
Proposición 2.9. Sea C una variable Cauchy; entonces dt tiene la misma
distribución que t 1 + C 2 y g1 tiene la misma distribución que 1/(1 + C 2 ).
5. Algunos cálculos distribucionales 52
= P t 1 + B12 /N 2 > r
= P t 1 + C2 > r .
Integración estocástica
donde el supremo es sobre todas las particiones de [0, t]. Denotaremos por Vt (f ) al
supremo anterior.
Diremos que f tiene variación localmente acotada si Vt (f ) < ∞ para toda
t ≥ 0 y que f tiene variación acotada si limt→∞ Vt (f ) < ∞.
Si f es una función de variación localmente acotada, la célebre descomposición
de Jordan nos afirma que la podemos escribir como diferencia de dos funciones no
decrecientes. En efecto, es fácil verificar que
Vt (f ) + f (t) Vt (f ) − f (t)
t 7→ ,
2 2
1. Introducción a la integral de Lebesgue-Stieltjes 55
son no decrecientes y su suma es f (t). Una forma más intuitiva puede ser el definir
la variación positiva o negativa de una función de variación acotada como
X
sup |f (ti ) − f (ti−1 )| ± ≤ Vt (f ) < ∞
π={0=t0 <···<tn =t} i
y notar que ambas funciones son no decrecientes. Por otra parte, se tiene la de-
scomposición
X
f (t) − f (0) = |f (ti ) − f (ti−1 )| + − |f (ti ) − f (ti−1 )| − ,
lo cual nos hace sospechar que f (t)−f (0) = Vt+ (f )−Vt− (f ). (Esto se puede justificar
al escribir a las variaciones como lı́mites al considerar una sucesión de particiones que
se refinen y que alcancen los supremos.) Aún más, este argumento nos indica que si
f es también continua por la derecha entonces f se puede escribir como la diferencia
de dos funciones no-decrecientes continuas por la derecha. Puesto que cada una de
estas funciones no decrecientes está asociada a una medida, vemos que existe una
medida con signo µ tal que f (t) = µ([0, t]). Si g : [0, ∞) → R es localmente acotada
y medible, podemos entonces definir R t a la integral de Lebesgue-Stieltjes de g
respecto de f en [0, t], denotada 0 g df mediante
Z t Z t
g df = g dµ.
0 0
El teorema siguiente nos afirma que las funciones de variación acotada apare-
cen naturalmente al tratar de considerar integrales elementales y extenderlas por
”continuidad”. Si nuestra función f es función continua por la derecha y πn es una
sucesión de particiones de [0, t] que se refinan y cuyo paso tiende a cero, definamos
X
S n (h) = h(ti ) (f (ti+1 ) − f (ti )) .
πn
Rt
Si h es continua y f es de variación acotada en [0, t] entonces S n (h) → 0
h df .
(por ejemplo al imponer que h(ti ) = sgn(f (ti ) − f (ti−1 )) e interpolar linealmente).
Por lo tanto,
Vt (f ) ≤ sup kT n k.
n
Por otra parte, para toda h continua se tiene que
sup |T n (h) | < ∞,
n
Como f es continua, el máximo del lado derecho tiende a cero, mientras que la suma
del lado derecho tiene un lı́mite finito. Por lo tanto, el lado izquierdo tiende a cero.
Un razonamiento análogo concluye la prueba de la afirmación restante.
converge en L2 a t.
Prueba de la Proposición ??. Calculemos simplemente la norma L2 (P) al
cuadrado de la diferencia entre las variables de interés:
!2 !
X 2 X 2 2
E Bti − Bti−1 − t = E Bti − Bti−1 − (ti − ti−1 )
i i
!
Xh 2 i2
=E Bti − Bti−1 − (ti − ti−1 ) ,
i
son independientes
y tienen media cero. Si ahora utilizamos el hecho de que
E X 4 = 3σ 2 si X tiene distribución N (0, σ 2 ), entonces
X 2 2 X 2
E Bti − Bti−1 − (ti − ti−1 ) =2 (ti − ti−1 )
i i
≤ 2 |∆n | t → 0,
lo cual demuestra la afirmación de la proposición.
en probabilidad. Ası́, al pasar a una subsucesión para que la convergencia sea casi
segura, vemos que la variación de B en [u, v] es casi seguramente infinita.
Podrı́amos sin embargo, considerar a las sumas tipo Riemann
X
Hti Bti − Bti−1
∆n
entonces
Z t
tF ◦ f (t) = Id (F 0 ◦ f ) + F ◦ f df.
0
3. Propiedades de la integral de Lebesgue-Stieltjes 60
Demostración. Si t ≤ t̃ entonces
{s ≥ 0 : f (s) > t} ⊃ s ≥ 0 : f (s) > t̃ .
Al tomar ı́nfimos obtenemos la monotonı́a de f −1 .
Si tn ↓ t entonces
[
{s ≥ 0 : f (s) > t} = {s ≥ 0 : f (s) > tn } .
n
Al tomar ı́nfimos, concluimos que f (t) = limn f −1 (tn ). En efecto, es claro que
−1
por lo cual
tn < f f −1 (t) + ε
f f −1 (t) + ε > t
f ◦ f −1 (t) ≥ t.
Si s−1 (f ) > t entonces f (t) ≤ s. Por otra parte, si ε > 0, al ser f continua por
la derecha, vemos que existe una vecindad derecha de t en la cual f ≤ f (t) + ε. Por
lo tanto f −1 (f (t) + ε) > t y ası́ vemos que
Aquı́, H serı́a una función continua, que podrı́a ser aleatoria o no. El problema para
definirla como una integral de Lebesgue-Stieltjes, aún cuando H sea determinista,
es el siguiente.
Proposición 3.9. Casi seguramente, las trayectorias de B son de variación
infinita en [u, v] para todo u ≤ v.
Demostración. Basta probar que para cada u ≤ v fijos, las trayectorias de B
tienen variación infinita en [u, v]. Sin embargo, por la Proposición ?? aplicada al
movimiento browniano B·+u − Bu , vemos que si ∆n es una sucesión de particiones
de [u, v] cuya norma tiende a cero entonces
X
Bti − Bti−1 → ∞
∆n
en probabilidad. Ası́, al pasar a una subsucesión para que la convergencia sea casi
segura, vemos que la variación de B en [u, v] es casi seguramente infinita.
Teorema 3.2. Para toda ε, η > 0, existe δ > 0 tal que si d(∆) , d(∆0 ) < δ
entonces
0
P Ys∆ − Ys∆ > ε < η.
Como H tiene trayectorias continuas, entonces para toda ε, η > 0 existe δ > 0 tal
que
P(|Ht − Hs | < ε si |t − s| ≤ δ, s, t ≤ 1) > 1 − η.
(Razón: se puede discretizar al evento anterior al considerar s, t racionales y utilizar
la continuidad uniforme en elintervalo
[0, 1].)
Sean ε, η > 0. Si d(∆) , d ∆˜ < δ, donde δ = δ(ε, η). Definamos
por lo que
˜
X
P Y ∆ − Y ∆ 6= Ci Bti − Bti−1 < η.
Por otra parte
hX X
i 2
E Ci2 (ti − ti−1 ) ≤ ε2 T.
E Ci Bti − Bti−1 =
Por lo tanto !
X √
Ci Bti − Bti−1 > ε ≤ εT
P
i
y por lo tanto
√
˜
P Y ∆ − Y ∆ > ε ≤ ε + η.
Por lo tanto
Z t Z t
√
n n
P Hs Bs − Hs dBs > ε + ε ≤ P sup |Hs − Hs | > ε + εt
0 0 s≤t
Para cada partición evaluadora definamos
X
Yt∆ =
Hτi Bt∧ti − Bt∧ti−1 .
Esta serı́a una versión discreta de la integral indefinida. Su principal caracterı́stica
es ser un proceso con trayectorias continuas y una martingala.
Proposición 3.12. Para toda ε, η > 0, existe δ > 0 tal que si d(∆) , d(∆0 ) < δ
entonces
0
P sup Ys∆ − Ys∆ > ε < η.
s≤t
Pasemos ahora a la fórmula de Itô, que nos da una clase muy grande y útil de
ejemplos de integrales estocásticas. Se trata de la versión estocástica del teorema
de cambio de variable.
4. La integral estocástica respecto del movimiento browniano 68
Puesto que f 00 es continua en [−M, M ], dada ε > 0 existe δ > 0 tal que
|f (y) − f 00 (x)| < ε si x, y ∈ [−M, M ] y |y − x| < δ.
00
Puesto que las trayectorias de B son uniformemente continuas, existe γ > 0 tal
que
Por lo tanto, si
Ω0 = sup |Bs | < M, sup |Bt − Bs | < δ
s≤1
|t−s| <γ
0≤s,t≤1
0
entonces P(Ω ) > 1 − 2η.
4. La integral estocástica respecto del movimiento browniano 69
y puesto que
Z t
K 0 + K |x| ds = K 00 t,
1
Xt − Xt0 ≤
0
se sigue que
tn
sup Xsn+1 − Xsn ≤ K 00 .
s≤t n!
Podemos concluir entonces que
X
sup Xsn+1 − Xsn < ∞
n s≤t
n
lo cual implica que X converge uniformemente en [0, t].
Para la unicidad, suponemos que X y X̃ son dos soluciones a la ecuación difer-
encial ?? con σ = 0. Al utilizar la hipótesis de Lipschitz se obtiene
Z t
Xt − X̃t ≤ K Xs − X̃s ds,
0
lo cual implica, por el lema de Gronwall, que Xt − X̃t = 0 para toda t.
Prueba del Teorema ??. Trabajaremos en el intervalo fijo [0, 1]. Notemos
que existe una constante K 0 tal que |σ(s, y)| ≤ K |y| + K 0 para s ≤ 1 y y ∈ R
(y análogamente para b). En efecto, puesto que σ es continua entonces K 0 =
sups≤1 |σ(s, 0)| < ∞. La hipótesis Lipschitz global implica que
|σ(s, y)| ≤ |σ(s, 0)| + K |y| .
Se tiene que
lim P(ΩK ) → 1.
K→∞
Si τ fuera finito entonces, puesto que x3τ = x1τ por continuidad y definición de τ ,
vemos que
yτ3 = αb ατ, x3τ > b τ, x3τ = b τ, x1τ = yτ1 .
82
1. Martingalas continuas y su variación cuadrática 83
Sin embargo, justo como en el caso browniano, las martingalas continuas tienen
variación cuadrática finita. La idea de la prueba es considerar primero el caso de
martingalas cuadrado integrables y luego, descomponer a la martingala sobre una
partición ∆ como sigue:
X X 2
Mt2 − M02 = 2
Mti−1 ∧t Mti ∧t − Mti−1 ∧t + Mti − Mti−1 .
∆ ∆
SiIt∆ denota al primer sumando del lado derecho y Tt∆ al segundo, notemos que
I ∆ es automáticamente una martingala. Por cálculos directos, se muestra que para
cada t fija, It∆ converge en L2 conforme |∆| → 0 y por la desigualdad de Doob,
se obtiene que la convergencia es uniforme sobre compactos y que por lo tanto el
lı́mite es un proceso continuo y creciente. A dicho proceso lo denotaremos por hM i
y lo caracterizaremos como el único proceso tal que M 2 − hM i es una martingala.
Teorema 4.1. Si M es una martingala continua y acotada, entonces existe un
único proceso creciente, continuo, adaptado y nulo en cero, denotado por hM i, tal
que M 2 − hM i es una martingala. Además, para cualquier sucesión de particiones
∆n cuyo paso tienda a cero, se tiene la convergencia en probabilidad
X 2
P − lim Mti − Mti−1 = hM i.
n→∞
∆n
en probabilidad.
Si X = X 1 , . . . , X d es un proceso estocástico con valores en Rd tal que cada
componente es una semimartingala continua, decimos que X es una semimartin-
gala vectorial. Si F : Rd → R es dos veces diferenciable y ei ∈ Re denota al
i-ésimo vector de la base canónica que tiene todas las entradas iguales a cero salvo
la i-ésima igual a 1, denotaremos por Di F a la derivada de F en la dirección ei . La
notación Di,j F se utilizará para Dj (Di F ), misma que se abreviará como Di2 cuando
i = j. Cuando d = 1, se utiliza la notación D y D2 .
2. Aplicaciones a la integral estocástica 87
Teorema 4.4 (Fórmula de Itô). Sea X = X 1 , . . . , X d una semimartingala
vectorial y F : Rd → R de clase C2 . Entonces el proceso F (X) = (F (Xt ))t≥0 es
una semimartingala real con descomposición
d d
X 1 X
F (X) = F (X0 ) + Di F (Xs ) · X i + Di,j F (X) · hX i , X j i.
i=1
2 i,j=1
Se sigue que si P(A) > 0, entonces bajo la medida P( · | A), Mt − Ms tiene la misma
función caracterı́stica que una variable gaussiana centrada de varianza t − s y por
lo tanto la misma distribución. Ası́, para todo C ∈ BR :
P(A, Mt − Ms ∈ C) = P(A) P(Bt−s ∈ C) .
Notemos que la fórmula anterior sigue siendo válida si P(A) = 0. Se concluye que
Mt − Ms es independiente de Fs y que M es un (Ft )-movimiento browniano.
2. Aplicaciones a la integral estocástica 89
Notemos que
{Tn ≤ t} = Sn ≤ hM i−1 ∈ FhM i−1 .
t t
y ası́ hemos probado que β es una martingala local continua. Por otra parte, al
notar que
hM ihM i−1
s ∧Sn
= s ∧ Tn ,
Tn
podemos aplicar un argumento similar para probar que β 2 − Id es una mar-
tingala acotada y por lo tanto la variación cuadrática de β es la identidad. Por el
teorema de caracterización de Lévy, β es un (Gt )t≥0 -movimiento browniano. Por
2. Aplicaciones a la integral estocástica 90
entonces h(Z) será una martingala local continua. Por otra parte, al probar fun-
ciones de la forma h(x) = xα , vemos que si δ 6= 2 entonces
h(x) = x1−δ/2
satisface la ecuación diferencial anterior mientras que cuando δ = 2, la función
h(x) = log x
lo hace. Sean
0 < r < x < R y definamos a Tr,R como la primera vez que B sale
del anillo ~x : r < k~xk2 < R . En otras palabras, definamos a
Por supuesto la ecuación diferencial anterior tiene sentido aún cuando δ no sea un
entero positivo y esta es la manera en la que consideraremos al cuadrado de la norma
del browniano δ-dimensional aún cuando δ no sea un entero. El único problema con
la ecuación anterior es que no podemos utilizar el teorema de existencia y unicidad
para ecuaciones diferenciales estocásticas puesto que el coeficiente de la ecuación no
es Lipschitz.
para toda x ∈ D.
R t∧S
Demostración. Sea Mt = u BtS + 0 g(Bs ) ds. Al utilizar la fórmula de
Itô, vemos que
X Z t∧S 1 t∧S
Z Z t∧S
i
Mt = u(x) + Di u(Bs ) dBs + ∆u(Bs ) ds + g(Bs ) ds
i 0 2 0 0
X Z t∧S
= u(x) + Di u(Bs ) dBsi ,
i 0
para s ≤ t. Definamos Rt
Πt = e− 0 v(Bs ) ds .
Si u fuera de clase C2 entonces la fórmula de Itô nos dirı́a que
Z s Z s
Πt u(t − s, Bs ) = u(t, x) + Πr D2 u(t − r, Br ) dBr − Πr D1 u(t − r, Br ) dr
0 0
Z r Z s
1
+ Πr ∆u(t − r, Br ) dr − u(t − r, Br ) v(Br ) Πr dr.
2 0 0
Ası́, vemos que una condición natural para que Πs u(t − s, Bs ) sea una martingala
local es que u satisfaga la ecuación
(
∂u 1
∂t − 2 ∆u = vu .
u(0, x) = f (x)
Por otro lado, mostremos que hay a lo más una solución acotada para la ecuación
anterior. En efecto, si u es una solución continua y acotada a dicha ecuación entonces
la fórmula de Itô nos dice que
Πs u(t − s, Bs )
3. El teorema de Girsanov 97
3. El teorema de Girsanov
La fórmula de Itô nos dice que la clase de semimartingalas es invariante ante
composición con funciones de clase C2 . Ahora examinaremos otra propiedad de
invariancia de las semimartingalas: la invariancia ante cambios de medida (local-
mente) absolutamente continuos. Si P y Q son medidas de probabilidad absoluta-
mente continuas y X es una semimartingala al utilizar la medida de probabilidad
entonces el célebre teorema de Girsanov nos ayudará a encontrar la descomposición
de semimartingala de X cuando se utiliza la medida Q.
Sea (Ω, F , P) un espacio de probabilidad dotado de una filtración (Ft , t ≥ 0) que
satisface las condiciones habituales. Recordemos que una medida de probabilidad
Q en (Ω, F ) es absolutamente continua respecto de P, denotado Q P, si para
todo A ∈ F con P(A) = 0 se tiene que Q(A) = 0.
Proposición 4.4. Supongamos que Q C P y sea
dP|Ft
D̃t = .
dQ|Ft
Entonces D̃ admite una modificación D que es una una martingala càd no-negativa
y uniformemente integrable. Para todo T tiempo de paro se tiene:
dP|FT
DT = .
dQ|FT
Si Q es equivalente a P entonces Dt > 0 para toda t ≥ 0 casi seguramente.
ón. Si A ∈ F
Demostraci
s y s ≤ t entonces A ∈ Ft y por definición de D̃s y
D̃t : E 1A D̃s =Q(A)=E 1A D̃t . Por lo tanto D̃ es una P-martingala. Puesto que
hemos asumido las condiciones habituales para (Ω, F , (Ft ) , P) vemos que D̃ admite
una modificación càdlàg que también es una martingala y también se satisface la
relación
dP|Ft
Dt = .
dQ|Ft
Notemos que lo anterior vale también para t = ∞, por lo que D es uniformemente
integrable. Si T es un tiempo de paro y A ∈ FT entonces, al aplicar muestreo
opcional, vemos que
Q(A) = EP (1A D∞ ) = EP (1A DT ) .
Por lo tanto
dP|FT
DT = .
dQ|FT
3. El teorema de Girsanov 98
1 1
1=D = E (L) = eL−L̃ .
D E L̃
Para la existencia, utilizamos la fórmula de Itô con la función log, que es infini-
tamente diferenciable en (0, ∞) a la martingala local continua estrı́ctamente positiva
D. Se tiene entonces que
Z t
1 t −2
Z
log(Dt ) = log(D0 ) + Ds−1 dDs − D dhDis .
0 2 0 s
Si
Z t
Lt = log(D0 ) + Ds−1 dDs ,
0
entonces
Z t
hLit = Ds−2 dhDis ,
0
por lo que
1
log(Dt ) = Lt − hLit
2
y por lo tanto
1
Dt = exp Lt − hLit = E (L)t .
2
Por lo tanto DM̃ es una P-martingala local continua y se deduce que entonces M̃
es una Q-martingala local continua.
Uno de los ejemplos tı́picos de aplicación del teorema de Girsanov es al movimiento
browniano con deriva. En efecto, si B es un movimiento browniano bajo P y
2
Qt (A) = EP 1A eµBt −µ t/2 ,
para A ∈ F , entonces Qt es una medida de probabilidad absolutamente continua
respecto de P y equivalentemente a ella en Ft . Por lo tanto, bajo Qt el proceso
3. El teorema de Girsanov 100
En particular
2
P sup Bs + µs ∈ dx, Bt ∈ dy = P sup Bs ∈ dx, Bt ∈ dy eµy−µ t/2 .
s≤t s≤t
entonces (Bt )t≤1 sea un movimiento browniano bajo P̃. Note que X resuelve en-
tonces la ecuación diferencial estocástica (??); esta solución es llamada solución por
transformación de deriva.
Bibliografı́a
102