Mef TP1
Mef TP1
Mef TP1
Key words. Método Galerkin, bases, wavelets, B-splines, Análisis Multiresolución, ED elı́ptica.
1. Introducción. Una forma de definir una wavelet ([11]) es mediante una fun-
ción ψ de promedio cero:
Z +∞
ψ(t)dt = 0,
−∞
Existen muchas otras formas de definir tal función, en forma explı́cita como antes o
implı́citamente, o a través de otra función (“función escala”); lo cierto es que, funda-
mentalmente estas funciones deben ser bien localizadas en “tiempo” y “frecuencia”,
y dependiendo de la base de funciones que se desee construir para algún tipo de re-
presentación funcional que se quiera realizar, se adicionan otras propiedades. En la
historia, se conoce que Alfred Haar, en 1910, construyó la primera wavelet, después
aparecieron el análisis de Fourier como una alternativa a la transformada de Fourier
estándar, y en las últimas dos décadas del siglo pasado y el primero de este siglo, po-
demos encontrar a numerosos matemáticos, fı́sicos e ingenieros que han contribuido a
enriquecer la teorı́a de wavelets.
Por otro lado, el método de Galerkin es uno de los mejores métodos para resolver
numéricamente ecuaciones diferenciales. Este método consiste en hallar una base fun-
cional para el espacio solución de la ecuación, luego proyectar la solución sobre la base
funcional, y minimizar el “residual” respecto a la base funcional.
Las traslaciones de una wavelet para todas las dilataciones forman una base ortonor-
mal incondicional de L2 (R) ([6]) y las traslaciones de una función escala para todas
las dilataciones forman una base ortonormal incondicional para Vj ⊂ L2 (R), lo cual es
una gran mejora sobre bases de polinomios estándar o bases trigonométricas para el
método de Galerkin. Ası́ es explicable que, el uso de esquemas numéricos basados en
wavelets hayan tenido un crecimiento significativo en las últimas dćadas. Además, las
wavelets tienen varias propiedades que son especialmente útiles para representar so-
luciones de ecuaciones diferenciales (EDs), tal como ortogonalidad, soporte compacto
2.1. El método de Galerkin. Como un primer paso para resolver (2.1) busca-
mos una aproximación f de f que se encuentre en cierto subespacio de dimensión finita
de X. Ası́, suponemos que X y Y son espacios producto interno con bases ortonor-
males enumerables {ϕ1 , ϕ2 , ...} y {ψ1 , ψ2 , ...}, respectivamente ([3, 8]). Considerando
que la ecuación (2.1) tiene una única solución, se deberı́a buscar una aproximación de
la solución f en
XM := gen{ϕ1 , ..., ϕM }.
De la ecuación (2.1) obtenemos:
(2.2) hT f, ψi i = hg, ψi i ∀i ∈ Z.
Sin embargo, necesitamos buscar un f ∈ XM tal que
(2.3) hT f , ψi i = hg, ψi i ∀i ∈ {1, ..., M }.
Escribiendo
M
X
(2.4) f := αj ϕj ,
j=1
obtenemos
M
X
(2.5) Tf = αj T ϕj
j=1
(2.7) Ax = b
(2.8) Lf = g
k f k≤ c0 k f k0 ∀f ∈ X0 .
hLu, ui ≥ c2 k u k2 ∀u ∈ X0 ,
define una forma bilineal acotada sobre X0 × X0 , tal que las condiciones anteriores
asegurarán, usando el teorema de representación de Riesz, que para cada g ∈ X, existe
una única u ∈ X0 tal que
hLu, vi = hg, vi ∀v ∈ X0 .
u(α) = 0 = u(β).
Además, también
(2.9) k f − f k≤ c ı́nf k f − ϕ k,
ϕ∈XM
k Ax k≤k A kk x k ∀x ∈ Rn ,
KA :=k A kk A−1 k .
A diferencia del número condición, no hay una definición precisa para una matriz
dispersa. Sin embargo, significa que “la mayorı́a de sus entradas” son ceros. Es claro
que los cálculos realizados con una matriz “más dispersa” deberı́an ser mucho menores
que aquellos realizados con una matriz “menos dispersa”.
Veamos como un número condición alto influencia en errores de cálculo.
5
x − x̃ = A−1 (b − b̃)
tal que
k x − x̃ k≤k A−1 kk b − b̃ k .
k x − x̃ k k b − b̃ k k b − b̃ k
(2.10) ≤k A kk A−1 k = κA .
kxk kbk kbk
En efecto, existen x, x̃, b, b̃ tales que la igualdad ocurre en (2.10). Para observar esto,
sean x y u vectores diferentes de cero tales que
y sean
b = Ax, b = ˜b + u, x̃ = x + A−1 u.
Entonces, tenemos:
(3.1) Vj+1 = Vj ⊕ Wj , Wj ⊥ Vj .
El espacio L2 (R), por tanto, tiene una descomposición L2 (R) = ⊕j∈Z Wj . Ha sido
probado ([5]) que existe una función ψ ∈ W0 tal que {ψjk }k∈Z forma una base de Wj
6
y por lo tanto {ψjk }(j,k)∈Z2 es una base de L2 (R). La función ψ es llamada wavelet
semi-ortogonal dado que
hψjk , ψj 0 k0 i = 0, j 6= j 0 .
y la base {ψjk }(j,k)∈Z 2 generada por una wavelet ortonormal ψ es llamada una Base
Wavelet Ortonormal de L2 (R).
Observación 1. Algunas veces, el subespacio Wj definido por (3.1) no necesita
satisfacer la condición Wj ⊥ Vj . Entonces, la correspondiente wavelet ψ no es semi-
ortogonal. En este caso, una función ψ ? ∈ L2 (R) es llamada wavelet dual de ψ con
respecto a L2 (R) si
donde
P la sucesión (pk ) es llamada la máscara de φ y la serie de Laurent p (z) =
1 k
2 k∈Z pk z es llamada el sı́mbolo de φ. En la mayorı́a de aplicaciones, se necesita
que φ sea compactamente soportada o tenga un decaimiento exponencial.
3.2. Wavelets splines. Los splines son buenos ejemplos de funciones escala,
especialmente los B-splines cardinales que definimos a continuación.
Sea χ la función caracterı́stica del intervalo unitario [0, 1).
Definición 2. Sea m ∈ Z+ . La función Nm : R −→ R recursivamente definida
por
Z 1
Nm (x) := (Nm−1 ∗ N1 ) (x) = Nm−1 (x − t) dt
0
0
d) Nm ∈ C m−2 (R) y Nm (x) = Nm−1 (x) − Nm−1 (x − 1) .
1−m
Pm m
e) Los B-splines Cardinales son refinables con Nm (x) = 2 k=0 Nm (2x − k) .
k
m m
f) Nm 2 + x = Nm 2 − x .
x
g) Nm (x) = m−1 Nm−1 (x) + m−x
m−1 Nm−1 (x − 1) .
h) Se cumple:
m
1 X
k m
Nm (x) = (−1) (x − k)m−1
+ ,
(m − 1)! k
k=0
Convenimos que H00 (I) = L2 (I). Dado que los B-splines truncados no están en el es-
pacio H0s (I), s ≥ 1, tenemos que adaptar aquellos construidos sobre todo R a aquellos
definidos sobre I tal que pertenezcan al espacio H0s (I). Los B-splines con múltiples
nodos son las herramientas apropiadas para tal adaptación.
Sea [x1 , ..., xn ]f la diferencia dividida de f en x1 , ..., xn . Denotamos la sucesión de
nodos
m m
z }| { z }| {
0, 0, ..., 0, 1, 2, ..., M, M, ..., M
−1
por {ti }m+M
i=m+1 , y definimos
m m
(3.4) φIk (x) = [tk− m2 , tk+1 , ..., tk+ m2 ](. − x)m−1
+ , − +1≤k ≤M −1+
2 2
9
I j/2 j m m j m
definimos φjk (x) = 2 N (2 x − k − 2 ) para 2 ≤ k ≤ 2 M − 2 . Entonces,
2j M −1−s+ m
(3.5) Φj := {φIjk }k=s+1− m 2
2
Bases wavelets semi-ortogonales del espacio H0s (I). Sea WjI el subespacio
wavelet de H0s (I) tal que WjI ⊕ VjI = Vj+1I
y WjI ⊥ VjI . Haciendo S j = (Sj+1 \ Sj ) ∩
[0, M ], obtenemos dimWjI = |S j |. El conjunto S j es simétrico con respecto a M 2 , es
decir, si d ∈ S j , entonces M − d ∈ S j . Sin pérdida de generalidad, solo discutiremos
la construcción de la base wavelet de W I . (Por conveniencia, cualquier subindice 0
será omitido). Se verifica que dimW I = min(M, (2M + m − 2s − 1)+ ). La base de
W I no es única. En aplicaciones, dos propiedades principales son usualmente necesa-
rias. Primera, los soportes de los elementos en bases wavelets de W I son requeridos
tan pequeños como sea posible. Segunda, las bases son esperadas que tengan cierta
simetrı́a.
Ahora descomponemos el conjunto S j en la forma
L C R
(3.6) Sj = Sj ∪ Sj ∪ Sj ,
C L R
donde S j = {m − 21 , m + 12 , ..., M − m + 12 }, S j = S j ∩ (0, m − 1], y S j = S j ∩ [M −
C
m + 1, M ). Observar que si M < 2m − 1, entonces S j = ∅. Puede ser verificado que
la matriz
ejemplo 2. Considerar bases wavelet del espacio H0m−1 (I). En este caso, las
bases de W I pueden ser construidas de la siguiente forma.
1. Si M < m − 1, entonces V I = {0} y V1I = W I . Una base de V1I es también
una base de W I .
2. Si m ≤ M ≤ 2m − 2, entonces, para cualquier d ∈ S con d ≤ M 2 , podemos
−m+1+k
hallar (qlk )M
l=k tal que la función
M −m+k−1
X
(3.7) ψdI = qlk φ1l , k = 2d
l=k
K +l K −1+m
sopψdI = [0, ] ⊂ [0, ].
2 2
R √
Consideremos ψdI (x) = ψM
I
−d (M − x) para d ∈ S y sea ψdI (x) = 2w(2(x −
1 C
d) + m − 2 ), para d ∈ S . Ası́, el conjunto {ψdI }d∈S forma una base de W I .
Multiplicando ambos lados de la ecuación diferencial con una función test φ ∈ C0∞ ((0, 1))
y aplicando integración por partes, considerando que φ(0) = φ(1) = 0, obtenemos:
Z 1 Z 1 Z 1
(4.2) f (x)φ(x)dx = u0 (x)φ0 (x)dx + c u(x)φ(x)dx
0 0 0
Observamos que esta última ecuación está bien definida si u y φ están en el espacio
de Sobolev H01 ((0, 1)), definido por:
donde H 1 ((0, 1)) = {v ∈ L2 ((0, 1)) : v 0 ∈ L2 ((0, 1))}. Utilizando como espacio mues-
tral y Test a X := H01 ((0, 1)), la formulación variacional (o débil) se enuncia como
sigue:
Hallar u ∈ X tal que
Definición 3. Sea u ∈ L2 ((0, 1)). Una función v ∈ L2 ((0, 1)) es llamada derivada
débil de u, es decir, v = u0 si
Z 1 Z 1
(4.6) v(x)φ(x)dx = − u(x)φ0 (x)dx
0 0
Desde que, por definición, el espacio de Sobolev H01 (Ω) es la clausura de C0∞ (Ω), el
espacio C0∞ (Ω) es denso en H01 tal que la desigualdad anterior se extiende también
para φ ∈ H01 (Ω) lo cual prueba la proposición.
Con esta preparación, (3,8) es fácilmente probado. En efecto,
1 1 1 1
a(u, u) = ku0 k20;Ω ≥ 2 kuk20;Ω + ku0 k20;Ω ≥ mı́n{ , }kuk21;Ω ,
2CΩ 2 2 2CΩ2
(4.14) AΛ uΛ = fΛ
a(u, v) = hf, vi ∀v ∈ X,
a(uΛ , vΛ ) = hf, vΛ i ∀vΛ ∈ XΛ .
El término
Estas son usualmente realizadas considerando una familia completa de espacios mues-
trales y Test
X0 ⊂ X1 ⊂ . . . ⊂ Xj ⊂ Xj+1 ⊂ . . . ⊂ X.
El intercambio entre estos espacios para diferentes valores de j es la clave para la
eficiencia del método resultante.
En métodos clásicos tales como discretizaciones con diferencias finitas o elemento
finito, la jerarquia multiescala puede fácilmente ser formada mediante un parámetro de
tamaño de malla hj → 0 para j → ∞ (por ejemplo, hj = 2−j ) y Xj como un espacio de
elemento finito correspondiente a una malla de tamaño hj . Luego, métodos conjugado
gradiente (cg) tipo precondicionado BPX o métodos multigrid tienen un rendimiento
óptimo, lo que significa que el problema de Galerkin sobre Xj puede ser resuelto en
O(dimXj ) operaciones; es decir, complejidad lineal. En este trabajo usamos un AMR
generado por un B-spline cardinal centralizado S = {Vj }j∈N0 para la discretización,
esto es, Xj := Vj . El esquema resultante es llamado Método multiresolución - Galerkin,
también abreviado como MGM o método MG. Describimos el método con un poco
de mas detalle. Suponemos que los espacios Test y muestral son dados en términos de
bases, es decir,
Xj = Vj = gen{Φj }, Φj := {ϕj,k : k ∈ Ij }.
Ası́, la sucesión Ij representa conjuntos de grados de libertad, |Ij |, tal que |Ij | −→ ∞
para j −→ ∞, tı́picamente en una forma exponencial, es decir,
|Ij | ∼ 2j .
Por lo tanto, el número de operaciones para la multiplicación matriz-vector con
Aj = AVj crece (exponencialmente) cuando crece j. Usando un esquema iterati-
vo, esto tı́picamente significa que la cantidad de trabajo por paso es O(|Ij |). En orden
de tener un mejor esquema numérico posible en mano, es deseable que el número de
iteraciones del esquema sea acotado independiente de j, tal que aumente el mismo
número de iteraciones para reducir el error mediante un factor dado independiente
de cuan fina sea la discretización. Teniendo el estimado del error, por ejemplo para
el método CG, esto significa que el número condición deberı́a también ser acotado
independiente de j, esto es, cond2 (Aj ) = O(1), j → ∞.
Para una base de funciones escalas, esto no es alcanzable. Se necesitará un precondi-
cionador Dj a Aj tal que
Dj sea simétrico y definido positivo;
−1/2
la aplicación de Dj a un vector dado vj puede ser realizado en O(|Ij |)
operaciones;
−1/2 −1/2
cond2 (Dj Aj Dj ) = O(1) para j → ∞.
5.2. Una aplicación Galerkin - Wavelets B-splines. En esta parte presen-
tamos los resultados de experimentación numérica realizada. Hemos aplicado una dis-
cretización multiescala multiresolución a casos especiales; utilizamos funciones escala
y bases wavelets B-splines cardinales centralizaods para realizar las correspondientes
discretizaciones. Si bien la teorı́a desarrollada nos garantiza únicas soluciones para el
problema de Dirichlet homogéneo cuando c es una constante positiva, consideramos
el caso cuando c es una función constante por tramos con soporte, el intervalo [0, 1].
Esta experimetación numérica nos permite verificar algunos de los resultados obteni-
dos y discutidos en las secciones anteriores. El problema que se eligió para realizar la
experimentación numérica es el siguiente:
16
−u”(x) + c(x)u(x) = f (x), x ∈ Ω = (0, 1)
(5.1)
u(0) = u(1) = 0
donde:
1, si x ∈ [0; 0,5)
c(x) = −R, si x ∈ [0,5; 1)
0 en caso contrario
y además
−4x2 + 4x − 8, si x ∈ [0; 0,5)
f (x) = 4Rx2 − 4Rx − 8, si x ∈ [0,5; 1)
0 en caso contrario
Referencias
[1] K. Amaratunga, J. Williams, S. Qian y J. Weiss, Wavelet-Galerkin solutions for one di-
mensional partial differential equations, IESL Technical Report No. 92-05, Intelligent En-
gineering Systems Laboratory, M.I.T., 1992.
[2] G. Beylkin, R. Coifman y V. Rokhlin, Fast wavelet transforms and numerical algorithms I,
Comm. Pure Appl. Math., 44(1991) pp. 141–183.
[3] H. Brézis, Análisis Funcional, Alianza Editorial S.A., Madrid, 1984.
[4] R. Burgos, R. Silva y M. Santos, Direct solution of differential equations using the wavelet-
Galerkin method, Mecánica Computacional, 29(2010) pp. 4573–4584.
[5] C. Chui y J-Z Wang, On Compactly Spline Wavelets and a Duality Principle, Transactions
of the American Mathematical Society, 330 (1992) pp. 903–915.
[6] I. Daubechies, Ten Lectures on Wavelets, SIAM Publications, Philadelphia, 1992.
[7] W. R. Glowinski, W. Lawton, M. Ravachol y E. Tenenbaum, Wavelet solution of linear
and nonlinear elliptic, parabolic and hyperbolic problems in one space dimension, Proc.
18