Curso Topicos USACH
Curso Topicos USACH
Curso Topicos USACH
1. Introducci
on
1.1. Error. . . . . . . . . . .
1.2. Dgitos significativos. . .
1.3. Polinomios de Taylor . .
1.3.1. F
ormula de Euler
.
.
.
.
4
4
6
8
8
.
.
.
.
.
.
.
.
10
10
11
14
15
19
21
21
22
25
27
28
.
.
.
.
.
.
33
33
33
35
37
39
39
.
.
.
.
.
.
.
41
41
41
42
43
44
45
46
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2. Ecuaciones No lineales.
2.1. Metodo de Bisecci
on . . . . . . . . . . . . . . . . . . . . . .
2.2. Metodo de la secante. . . . . . . . . . . . . . . . . . . . . .
2.3. Estudio de la convergencia del metodo de Newton-Raphson.
2.4. Velocidad de convergencia del metodo de Newton- Raphson
2.5. Metodos de punto fijo. . . . . . . . . . . . . . . . . . . . . .
2.6. Convergencia . . . . . . . . . . . . . . . . . . . . . . . . . .
2.7. Velocidad de Convergencia . . . . . . . . . . . . . . . . . . .
2.8. Convergencia del Metodo de Newton-Raphson . . . . . . . .
5. M
etodos iterativos.
5.1. Normas vectoriales y matriciales. . . . . . .
5.1.1. Preliminares. . . . . . . . . . . . . .
5.1.2. Normas matriciales . . . . . . . . . .
5.1.3. Otros resultados importantes para el
5.2. Metodos iterativos. . . . . . . . . . . . . .
5.2.1. Metodo de Jacobi. . . . . . . . . . .
5.3. Metodo de Gauss-Seidel. . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . . . .
. . . . . .
. . . . . .
estudio de
. . . . . .
. . . . . .
. . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
. .
. .
. .
los
. .
. .
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . . .
. . . . .
. . . . .
metodos
. . . . .
. . . . .
. . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . . . .
. . . . . .
. . . . . .
iterativos.
. . . . . .
. . . . . .
. . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
47
48
49
6. Resoluci
on Num
erica del Problema de Valor de Contorno de orden 2.
6.1. Metodo de diferencias finitas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
53
53
56
57
62
8. Interpolaci
on Polin
omica.
8.1. Metodo de los coeficientes indeterminados. . . . . . .
8.2. Metodo de Lagrange. . . . . . . . . . . . . . . . . . .
8.3. Forma de Newton para el Polinomio de Interpolacion
8.3.1. Diferencias Divididas . . . . . . . . . . . . . .
8.4. El problema de Hermite . . . . . . . . . . . . . . . .
8.5. C
omo obtener el polinomio de Hermite ? . . . . . .
.
.
.
.
.
.
66
66
67
69
70
74
74
.
.
.
.
.
.
.
.
.
.
.
.
.
.
78
78
78
80
82
87
88
89
90
93
95
97
99
104
106
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
9. Integraci
on Num
erica.
9.1. F
ormulas de Newton-Cotes. . . . . . . . . . . . . . . . .
9.1.1. Metodo del Trapecio. . . . . . . . . . . . . . . . .
9.1.2. Metodo de Simpson. . . . . . . . . . . . . . . . . .
9.2. Cuadratura Gaussiana. . . . . . . . . . . . . . . . . . . .
9.3. Integrales Indefinidas . . . . . . . . . . . . . . . . . . . . .
9.4. Integrales Impropias . . . . . . . . . . . . . . . . . . . . .
9.5. Integrales M
ultiples . . . . . . . . . . . . . . . . . . . . .
9.6. Diferenciaci
on Numerica . . . . . . . . . . . . . . . . . . .
9.7. Mnimos cuadrados Discretos. . . . . . . . . . . . . . . . .
9.8. Algo sobre Normas de funciones. . . . . . . . . . . . . . .
9.9. Aproximaci
on de Mnimos Cuadrados Continuos. . . . . .
9.9.1. Metodo Generalizado . . . . . . . . . . . . . . . .
9.9.2. Sistemas Ortonormales. . . . . . . . . . . . . . . .
9.9.3. Proceso de ortonormalizacion de Gramm-Schmidt.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
10.Aproximaci
on Minimax.
108
10.0.4. Caso Discreto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
10.1. Algoritmo de Remez. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
15.La ecuaci
on de conducci
on de calor.
15.0.1. Metodos Explcitos . . . . . . . . . .
15.0.2. Convergencia y estabilidad . . . . .
15.0.3. Aproximaciones temporales de orden
15.1. Un metodo implcito simple . . . . . . . . .
15.2. El metodo de Crank-Nicholson . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . . .
. . . . .
superior
. . . . .
. . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
128
128
131
131
133
134
.
.
.
.
.
136
137
139
139
139
141
16.La ecuaci
on de ondas.
143
16.1. Construcci
on de la ecuacion en diferencias. . . . . . . . . . . . . . . . . . . . . . . 143
16.2. Condiciones Iniciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
Topicos I.
1.
Introducci
on
1.1.
Error.
En el an
alisis de un algoritmo, es necesario considerar el error en la aproximacion obtenida a
la soluci
on del problema. Este error puede producirse por varios factores, en el ejemplo 1.1 por
redondeo de la aritmetica y termino del proceso infinito. Estos errores son parte inevitable del
proceso de soluci
on y no deben confundirse con los errores cometidos por el usuario, como falla en
el algoritmo o error en la programacion.
Para cada algoritmo podemos conocer una cota de error, esto es una cota sobre el error en la
soluci
on calculada.
Una cota que no depende de la solucion y puede ser calculada previamente, se llama cota de error
a priori. Cuando una cota no puede ser calculada hasta despues de la completacion de la parte
principal de los c
alculos es llamada una cota a posteriori. La cota de error es mas grande que el
error, por tal raz
on debemos desarrollar metodos alternativos de estimacion de error para algunos
problemas. Las cotas de error y estimativos son a menudo calculables y nos dan informacion tanto
del comportamiento asint
otico del error como del mejoramiento de las aproximaciones.
Existen dos formas de medir o cuantificar la magnitud de un error.
Definici
on 1.1 . Sea x una aproximaci
on del valor exacto x. Un indicador natural es la distancia
entre el valor exacto y el aproximado.
Definimos,
El error absoluto como la distancia,
EA (x ) = |x x |
Observamos que el error absoluto no permite comparar la precisi
on entre aproximaciones de
diferentes
ordenes de magnitudes.
4
EA (x )
|x x |
=
|x|
|x|
Este error es m
as significativo para comparar aproximaciones.
El error porcentual es el error relativo multiplicado por 100,
EP (x ) = 100 ER (x )
Estos conceptos de error tienen s
olo un valor formal,puesto que no se conoce el valor exacto x. En
la pr
actica, se determina una cota o estimativo del error.
Otro concepto importante es el de intervalo precisi
on, diremos que [a, b] es un intervalo precisi
on
de x, que denotaremos por I(x), si
P (x [a, b]) = 1
es decir, la probabilidad que x este en el intervalo de precision es la cierta.
Relaci
on entre error absoluto e intervalo de precisi
on
Dada una cota del error absoluto de x , es posible determinar el intervalo de precision de x.
Sea una cota del error absoluto,
EA (x ) |x x | x x x +
es decir, x [x , x + ] , luego I(x) = [x , x + ].
Inversamente, dado I(x) = [a, b] un intervalo de precision de x, es posible determinar una
cota del error absoluto de cualquier aproximacion x en [a, b].
Sea x [a, b] |x x | max (x a, b x ) =
de donde,
EA (x ) .
Si x =
a+b
2
=
ba
2 .
1.2.
Dgitos significativos.
|x x | < 5 10 |x|.
(1)
ii)
i) Diremos que x aproxima a x con dgitos significativos (o cifras) ssi es el entero m
as
grande no negativo tal que:
|x x | < 0.5 10
donde es el exponente de la potencia de 10 que resulta al transformar x a la notaci
on
cientfica normalizada.
Ejemplo 1.1 Para que x aproxime a 1000 con cuatro cifras significativas, debe satisfacer :
|x 1000|
< 5 104 .
|1000|
(2)
(f (xk )
.
f 0 (xk )
(3)
Observando el gr
afico podemos seleccionar x0 = 0.7854, presentamos los resultados de cada iteraci
on en la siguiente tabla
n
xn
|xn+1 xn |
< 5 104
|xn+1 |
0
1
2
3
0.7854
0.7395361684
0.7390851781
0.7390851332
Luego la aproximaci
on requerida es x3 = 0.7390851
Actividades Libres 1.1
1.
2.
1.3.
Polinomios de Taylor
y
Rn (x)
(x x0 )2
(x x0 )3
+ f 000 (x0 )
+
2!
3!
(x x0 )n
n!
= f (n+1) ((x))
(x x0 )(n+1)
(n + 1)!
F
ormula de Euler
y 0 = f (x, y)
y(x0 ) = y0 .
(x xi )2
(x xi )3
+ yi000
+
2!
3!
h2
h3
+ yi000
+
2!
3!
donde, h = xi+1 xi . Es claro que mientras mas terminos se consideren en el desarrollo de Taylor
mejor ser
a la aproximaci
on. Si consideramos dos terminos del desarrollo, obtenemos:
yi+1 = yi + yi0 h yi+1 = yi + f (xi , yi )h
i = 0, 1, 2,
(4)
Observese que (197) es el metodo de Euler, con un error de orden O(h2 ), esto significa que los
terminos no considerados contienen potencias de h con exponente mayor o igual que 2.
Error de local del m
etodo de Euler.
Consideramos:
yi+1 = yi + hf (xi , yi )
y suponemos y(x) en serie de Taylor con segunda derivada continua en un intervalo que contiene
a xi
h2
(5)
y(xi+1 ) = y(xi ) + y 0 (xi )h + y 00 ()
2!
donde (xi , xi+1 ). Restando ambas ecuaciones :
y(xi+1 ) yi+1 = y(xi ) yi + h[f (xi , y(xi )) f (xi , yi )] +
(h2 ) 00
y ()
2
(h2 ) 00
y ().
2
(6)
h2
2!
(7)
con
M=
|y 00 (x)|
max
x(xi ,xi+1 )
Observemos que el m
aximo M no depende de h, luego si se reduce h en un factor de 21 , la cota
1
1
1
derror se reduce en 4 y una reduccion de h en un factor de 10
, la cota derror se reduce en 100
.
Actividades 1.1 Para el problema de valor inicial siguiente
y 0 = 0.2xy
y(1) = 1
2.
Ecuaciones No lineales.
Modulo 2
Prof. M.Angelica Vega
2.1.
M
etodo de Bisecci
on
Problema 1. Dada una funcion f (x) no lineal y continua en el intervalo [a, b]. Determinar una
raz [a, b] de la ecuaci
on f (x) = 0.
Ante el problema planteado surgen las siguientes interrogantes :
1. Existe soluci
on?
2. Si existe soluci
on . Es u
nica ?
3. C
omo determinarla ?
1.- Existencia : Teorema de Bolzano.
La existencia de soluci
on est
a garantizada por el teorema de Bolzano, cuyo enunciado afirma que
bajo las hip
otesis :
i) f continua en [a, b].
ii) f (a) y f (b) de distinto signo. (es decir, f (a) f (b) < 0 )
entonces,
existe (a, b) tal que f () = 0.
2.- Unicidad :
La existencia de una u
nica solucion en el intervalo de precicion queda garantizada por el siguiente
teorema visto en C
alculo Diferencial .
Teorema 2.1 Si f es una funci
on que satisface las hip
otesis :
i) f continua en [a, b].
ii) f (a) f (b) < 0.
iii) f es diferenciable en (a, b)
iv) Signo de f 0 (x) es constante en (a, b) entonces,
existe un u
nico (a, b) tal que, f () = 0.
M
etodo de Bisecci
on. Se basa en el teorema de Bolzano, por lo tanto se supone :
i) f continua en I() = [a, b].
ii) f (a) f (b) < 0
Algoritmo de la Bisecci
on .
1.- Dividir el intervalo de precision I() por la mitad, obteniendose:
x1 =
(a + b)
2
8
f (x)
f (x)
[a, x1 ].
3.- Repitiendo los pasos 1 y 2 se genera una sucesion de aproximaciones, hasta que se satisfaga una
condici
on de termino.
Ventajas y desventajas.
Es posible demostrar que si f (x) es continua en [a, b] y f (a)f (b) < 0, el procedimiento de biseccion
genera una sucesi
on que converge a la raz y
|xn |
(b a)
.
2n
(8)
2.2.
M
etodo de la secante.
Se basa en encontrar una aproximacion a la raz mediante rectas secantes a la grafica de f (x), de
modo que, si (xk1 , f (xk1 )) y (xk , f (xk )) son dos puntos de la grafica de f (x) una aproximacion
a la raz es, xk+1 intersecci
on de la recta secante que une los puntos mencionados con el eje X.
De donde se deduce :
(f (xk ) (xk xk1 ))
xk+1 = xk
.
(10)
(f (xk ) f (xk1 ))
Figura 2:
Algoritmo de la Secante .
1.- Dadas dos aproximaciones x0 y x1 .
2.- Generamos una sucesi
on de aproximaciones {xk+1 } definida por:
xk+1 = xk
M
etodo de la Regula Falsi.
Este algoritmo es una mezcla de los metodos de biseccion y secante.
1.- Si [a, b] es el intervalo de precision, unimos (a, f (a)) y (b, f (b)) para obtener x1 como interseccion
de la recta secante que pasa por los puntos precedentes y el eje X.
2.- Trazamos la recta secante por (x1 , f (x1 )) y (b, f (b)) cuya interseccion sobre el eje X determina
dos subintervalos, escogemos aquel que contiene a la raz, verificando :
Si f (x1 ) f (b) < 0 , la raz est
a en [x1 , b] , de lo contrario la raz pertenece al intervalo [a, x1 ] .
3.- Supongamos que f (x1 ) f (b) < 0 , repetimos el paso 1 considerando el intervalo [x1 , b] , de
modo que se obtiene la aproximacion x2 , como interseccion de la secante y el eje X.
4.- Procediendo as sucesivamente obtenemos la sucesion {xk+1 } definida por :
xk+1 = xk
(f (x[k]) (b xk ))
(f (b) f (xk ))
Gr
aficamente,
Actividades 2.2
10
(11)
Figura 3:
11
Figura 4:
2.3.
Definici
on 2.1 Si {xn } es una sucesi
on de n
umeros reales que converge a la raz r, diremos que
la raz
on de convergencia es de orden si existen dos constantes C y y un entero N tal que,
|xn+1 r| C|xn r|
, n N
lm
|xn+1 r|
= C.
|xn r|
(13)
Observaci
on 2.1
i) Si usamos la notaci
on |en+1 | = |xn+1 r| (error absoluto cometido en la
(n+1)- esima aproximaci
on), el lmite puede abreviarse por
lm
|en+1 |
= C.
|en |
n N
n N
2.4.
Comentamos antes, que otra forma de obtener Newton-Raphson consiste en derivarlo a partir del
desarrollo en serie de Taylor de la funcion f (x).
En efecto, supongamos que desarrollamos en serie la funcion no lineal f (x) en torno del punto xk
= f (xk ) + f 0 (xk )(x xk ) +
f (x)
f 00 ()
2! (x
xk )2
evaluamos en xk+1
(14)
f (xk+1 )
f 00 ()
2! (xk+1
xk ) .
(15)
En la intersecci
on con el eje X, f (xk+1 ) = 0, luego
0 = f (xk ) + f 0 (xk )(xk+1 xk ).
(16)
Ordenando, se obtiene
xk+1 = xk
f (xk )
.
f 0 (xk )
(17)
La f
ormula del metodo de Newton.
Adem
as este desarrollo permite estimar el error de la formula y la velocidad de convergencia del
metodo.
En efecto, supongamos que en el desarrollo anterior xk+1 es xr el valor exacto, entonces f (xr ) = 0.
y
f 00 ()
0 = f (xk ) + f 0 (xk )(xr xk ) +
(xr xk )2 .
(18)
2!
Restando (16) y (18) se obtiene :
ek+1 =
= ek+1 f 0 (xk ) +
f 00 ()
2! (xr
xk )2
f 00 ()
2
2! (ek ) .
f 00 (xk ) 2
e
2f 0 (xk ) k
De esta u
ltima igualdad se deduce que el error es casi proporcional al cuadrado del error anterior
lo que significa que el n
umero de cifras decimales correctas se duplica en cada iteracion.
13
(19)
14
Dada la funci
on
1
5
f (x) = x3 + x
2
2
aproxime la raz positiva, use como aproximaci
on inicial x0 = 1. y realice 6 iteraciones.
Que sucede ? Porque ocurre esto ?
Dada la funci
on
f (x) = (x 1)3 (x 2)
aproxime la menor raz, use como aproximaci
on inicial x0 = 1,75
Que sucede ? A que atribuye este hecho ?
Races m
ultiples.
Las races m
ultiples presentan algunas dificultades para los metodos que hemos analizado.
i) Si una funci
on no cambia de signo en races m
ultiples pares impide el uso de los metodos
cerrados que usan intervalos y los metodos abiertos tienen la limitacion que pueden ser
divergentes.
ii) Otra dificultad que puede presentarse, es el hecho que f (x) y f 0 (x) tiendan a cero. En estos
casos, hay dificultades con el metodo de Newton-Raphson y el de la secante (aproximacion
de f 0 (x)) que provocan una division por cero.
iii) Ralston y Rabinowitz demostraron que los metodos de Newton-Raphson y secante convergen linealmente cuando hay races m
ultiples y han propuesto algunas modificaciones que se
obtienen a partir del metodo de newton-Raphson para problemas con funciones que tienen
races m
ultiples.
iv) El siguiente metodo es una modificacion de Newton-Raphson, tiene convergencia cuadratica:
xk+1 = xk m
f (xk )
.
f 0 (xk )
(20)
f (x)
,
f 0 (x)
que tiene races en las mismas proporciones que la funcion original. Se sustituye u(x) en (17)
y se obtiene:
f (xk ) f 0 (xk )
xk+1 = xk 0
.
(21)
[f (xk )]2 f (xk ) f 00 (xk )
15
16
2.5.
M
etodos de punto fijo.
Modulo 3
Prof: Mara Ang
elica Vega U.
Sea f (x) = 0 una ecuaci
on no lineal. Los metodos para determinar una raz de esta ecuacion, que
se expresan en la forma
x = g(x)
se denominan M
etodos de Iteraci
on Funcional o M
etodos de punto fijo. Una solucion de
esta ecuaci
on se llama punto fijo de g y la funcion g(x) se llama funci
on de iteraci
on . Frente
al problema de buscar los puntos fijos de la ecuacion x = g(x), surgen las siguientes interrogantes :
1.- C
uando una funci
on g(x) tiene un punto fijo ?
2.- Si existe, es u
nico ?
3.- C
omo determinarlo ?
Las respuestas a la primera y segunda interrogante, es el resultado que veremos a continuacion
formalizado como Teorema de existencia y unicidad.
Teorema 2.3 Teorema de Existencia y unicidad. Si
i) g(x) es continua en [a, b].
ii) g(x) pertenece a [a, b], para todo x que pertenece al intervalo [a, b]. entonces, existe un punto
fijo para g(x) en (a, b).
Si adem
as,
iii) g(x) es diferenciable en (a, b)
iv) |g(x)| k < 1 , para todo x perteneciente al intervalo (a, b), entonces , g(x) tiene un u
nico
punto fijo en [a, b].
Demostraci
on.
1) Existencia. Si g(a) = a y g(b) = b la existencia de un punto fijo es trivial.
Suponemos entonces,
a < g(a) y b > g(b) (Por hip
otesis g(x) [a, b]).
Definimos:
h(x) = g(x) x
observamos que,
i) h(x) es continua en [a, b]
ii)
h(a) = g(a) a > 0
h(b) = g(b) b < 0
17
)
h(a) h(b) < 0.
f (b)f (a)
.)
ba
Tenemos,
Figura 7: x = x( 1/3)
Figura 8: x = (3/2)x
converge al u
nico punto fijo. Adem
as se cumple
i)|pn p|
kn
|p0 p1 |
1k
n 1.
(x2 1)
3
Velocidad de Convergencia.
Teorema 2.5 Sea p un punto fijo de g(x), tal que p I y sea
xk = g(xk1 )
para
k = 1, 2, ...
2.6.
Convergencia del M
etodo de Newton-Raphson
Teorema 2.6 Si es una raz simple de f (x) = 0, entonces el algoritmo de Newton Raphson
tiene convergencia Cuadr
atica.
Sol. raz simple de f (x) = 0 implica que:
f (x) = (x ) h(x) con h() 6= 0
f 0 (x) = h(x) + (x ) h0 (x)
f 0 () = h() 6= 0
Desarrollando f (x) en serie de Taylor alrededor de x = se tiene :
f (x) = f () + f 0 ()(x ) +
f 000 ()(x )2
f 00 ()(x )2
+
2!
3!
Para alg
un en un entorno de . Consideremos el algoritmo de Newton-Raphson:
f (xn )
f 0 (xn )
xn+1
= xn
xn+1
= xn
xn+1
lmn
|xn+1 |
|xn |2
1
f 0 (xn )
f 0 ()(xn ) +
f 00 ()(xn )2
f 000 ()(xn )3
+
2!
3!
(xn )2 f 0 (xn ) f 0 () f 00 () f 000 ()(xn )
f 0 (xn )
(xn )
2!
3!
1
f 00 () 1
= 0
(f 00 ()
) = 0
= cte
f ()
2
2f ()
(22)
xn+1
= xn
xn+1
= xn
xn+1
xn+1
lmn
|xn+1 |
|xn |2
(xn )p g(xn )
p(xn )p1 g(xn ) + (xn )p g 0 (xn )
(xn )p g(xn )
(xn )p1 (pg(xn ) + (xn ) g 0 (xn ))
g(xn )
= (xn ) 1
pg(xn ) + (xn )g 0 (xn )
g 0 ()
= lmn 1
g() 6= 0
pg()
= (xn )
=1
(23)
1
p1
=
, con p > 1
p
p
Considere la ecuaci
on:
e 2 2x = 0
(24)
i) Verifque la ecuaci
on (24) tiene una raz en el intervalo [4, 5].
ii) Demuestre que en el intervalo [4, 5] est
a la mayor raz positiva de la ecuaci
on (24).
iii) Para obtener la raz que est
a en [4, 5], se propone el siguiente algoritmo de punto fijo:
xk+1 =
xk
2
(25)
2
Determine justificadamente , si es posible garantizar la convergencia del algoritmo para
hallar la raz . Usando (25) y una aproximaci
on x0 , adecuada, trate de obtener una
aproximaci
on de la citada raz.
iv) Proponga un algoritmo de punto fijo convergente, y u
selo con x0 conveniente, para
determinar una aproximaci
on de la raz de (24) en [4, 5].
2.
Puede demostrarse que la forma que adopta un cable suspendido de sus extremos es catenaria.
Una ecuaci
on de una catenaria est
a dada por:
y = cosh
21
x
a
donde a es una constante por determinar. El eje Y equidista de sus puntos extremos. Un
cable telef
onico est
a suspendido, a la misma altura, de dos postes que est
an a 200 pies uno
del otro. El cable tiene una cada m
axima de 10 pies en el punto medio del cable. Determine
el valor de a. (Recuerde que cosh0 = 1.)
Nota 2.2 El material bibliogr
afico usado para la elaboraci
on de este taller :
An
alisis Numerico. R.L. Burden-J.D. Faires
An
alisis Numerico. M.J. Maron - R.J. L
opez.
22
3.
Una expresi
on de la forma:
Pn (x) = an xn + an1 xn1 + a1 x + a0
donde, los ai son constantes, an 6= 0, se llama polinomio de grado n.
Recordamos el metodo de Horner:
Teorema 3.1 Metodo de Horner.
Sea
Pn (x) =
n
X
ak xk
an neq 0
an = bn
k=0
i) Si bk = ak + bk+1 x0
k = n 1, 1, 0 entonces
P (x0 ) = b0
ii) Adem
as si,
Qn1 (x) = bn xn1 + bn1 xn2 + b2 x + b1
entonces
Pn (x) = (x x0 )Qn1 (x) + b0
Dem.
ii) Desarrollamos Q(x) en la expresi
on :
(x x0 )Qn1 (x) + b0
i) Usando ii)
Pn (x) = (x x0 )Qn1 (x) + b0
P (x0 ) = b0
P (x)
Observaci
on 3.1 Si se usa el metodo de Newton - Raphson para determinar las races de un
polinomio P (x), para evaluar P (xk ) y P 0 (xk ) puede usarse el metodo de Horner.
23
Ejemplo 3.1 Usando Newton - Raphson y Metodo de Horner, aproximar la mayor raz negativa
de
2x4 3x2 3x 4
Usando x0 = 2 como aproximaci
on inicial, relizar 3 iteraciones.
Soluci
on .
Primera iteraci
on.
i) C
alculo de P (x0 )
ai
a4
2
bi
a3
0
4
4
a2
3
8
5
a1
3
10
7
a0
4
14
10
ii) C
alculo de P 0 (x0 )
Para determinar P 0 (2) = Q(2), usamos nuevamente metodo de Horner.
2
2
4
4
8
5
16
21
7
42
49
10
1,796
49
24
CALCULO NUMERICO
Ecuaciones No lineales.
M
odulo 5
Prof: Mara Ang
elica Vega U.
3.1.
Un sistema de n ecuaciones con n incognitas x1 , x2 , ..., xn se dice no lineal si una o mas ecuaciones
es no lineal.
Notaci
on.
f1 (x1 , ..., xn ) = 0
f2 (x1 , ..., xn ) = 0
..
.. o
. =.
fn (x1 , ..., xn ) = 0
f1 (x) = 0
x1
x2
f2 (x) = 0
.
..
.. donde x =
..
. =.
xn .
f (x) = 0
n
x2 (1,9, 0,4)T
3.2.
M
etodo de Newton- Raphson Generalizado.
La idea es ahora extender el metodo de Newton- Raphson, visto para funciones de una variable
real a funciones de dos o m
as variables, para resolver el sistema:
(
f (x, y) = 0
F(x) = 0
(26)
g(x, y) = 0
Analizaremos el caso m
as simple, es decir, funciones de dos variables. Para ello recordamos el
teorema de Taylor, para funciones de 2 variables .
Sea u = f (x, y) y todas sus derivadas parciales de orden menor o igual a (n + 1) continuas en
una regi
on D = {(x, y)/a x b c y d}. Sea (x0 , y0 ) D, para todo (x, y) D existen
26
= f (x0 , y0 ) + (x x0 )
f
f
(x0 , y0 ) + (y y0 ) (x0 , y0 )+
x
y
(x x0 )(y y0 ) 2 f
(x x0 )2 2 f
(x0 , y0 ) +
(x0 , y0 )+
2
2!
x
2!
xy
(y y0 )2 2 f
(x0 , y0 ) + +
2!
y 2
(27)
n
1 X n
nf
=
(x x0 )nj (y y0 )j nj j (x0 , y0 )+
n! j=0 j
x
y
n+1
X n+1
1
n+1 f
(x x0 )n+1j (y y0 )j n+1j j (, ).
=
j
(n + 1)!
x
y
j=0
Pn (x, y) se llama Polinomio de Taylor de grado n en dos variables para la funcion f alrededor
de (x0 , y0 ). El u
ltimo termino corresponde al termino de error.
Deducci
on del m
etodo.
Aplicamos (27) para desarrollar las funciones no lineales f y g del sistema (26) en torno del punto
(xk , yk ).
f
f
f (x, y) = f (xk , yk ) + (x xk ) (xk , yk ) + (y yk ) (xk , yk )+
x
y
=
(x xk )2 2 f
(x xk )(y yk ) 2 f
(, ) +
(, )+
2
2
x
2
xy
(y yk )2 2 f
(, ) +
2
y 2
g
g
= g(xk , yk ) + (x xk ) (xk , yk ) + (y yk ) (xk , yk )+
x
y
=
g(x, y)
(x xk )2 2 g
(x xk )(y yk ) 2 g
(, )+
(,
)
+
2
x2
2
xy
(y yk )2 2 g
(, ) +
2
y 2
(28)
f (xk+1 , yk+1 )
= f (xk , yk ) + (xk+1 xk )
g(xk+1 , yk+1 )
g
g
= g(xk , yk ) + (xk+1 xk ) (xk , yk ) + (yk+1 yk ) (xk , yk ).
x
y
(29)
27
Como la aproximaci
on (xk+1 , yk+1 ) corresponde donde,
f (xk+1 , yk+1 ) = 0 = g(xk+1 , yk+1 ),
reordenando se obtiene:
(xk+1 xk )
f
f
(xk , yk ) + (yk+1 yk ) (xk , yk )
x
y
= f (xk , yk )
(30)
g
g
(xk+1 xk ) (xk , yk ) + (yk+1 yk ) (xk , yk )
x
y
= g(xk , yk ).
(31)
donde,
f
(xk )
g
(xk )
y
f
(x )
x k
Jk = g
(xk )
x
es la matriz jacobiana, en
xk =
xk
yk
para
xk =
f (xk )
x
xk+1 xk
y=
=
g(xk )
y
yk+1 yk
xk+1
= J 1 F(xk )
= xk J 1 F(xk )
(32)
Esta u
ltima ecuaci
on es una generalizacion de la formula de Newton-Raphson para funciones no
lineales de una variable real.
Ejemplo 3.3 Resolver el ejemplo 1.1 i) usando metodo de Newton.Raphson generalizado.
Soluci
on. Consideremos:
f (x, y) = yex 2 = 0
g(x, y) = x2 + y 4 = 0
sabemos que tiene dos races, aproximaremos la raz positiva, usando
x0 =
0,6
3,7
Determinamos:
F(x) =
yex 2
x2 + y 4
28
,
J=
yex
2x
ex
1
(33)
,
J0 =
3,7e0,6
2(0,6)
e0,6
1
de donde,
2,03060
1,2
0,548812
x
0,0306031
=
1
y
0,006
De aqu
1
1 0,548812
0,0306031
x
=
2,03060
0,006
y
2,68917 1,2
luego,
x
0,000865
=
y
0,05896
Como
x1 x0 = x0
x1 = x0 + x0
entonces,
x1 =
0,6
0,000865
0,599135
+
=
3,7
0,05896
3,64104
0,599125
3,64105
x + 12 cosz = ln y1
(34)
y ln 4x + 1 = 2z + ez
4x + y sen z = 1
use como aproximaci
on inicial
1
3
x0 =
3
,2399765202
0,2497429663
0,2499999723
x1 = ,3506602354 , x2 = 0,3672616918 , x3 = 0,3678789014
,551268419 101
0,26800671 103
0,1485685 106
0,2500000000
0,2500000000
0,3678794411
x4 = ,3678794411 , x5 =
9
10
,1098834 10
,7324581877 10
29
x=
e
0
30
Mtodo de Mller
Es un mtodo de interpolacin que aproxima la funcin f(x) cuya raz interesa por un
polinomio cuadrtico.
Para determinar dicho polinomio se consideran tres puntos cercanos a la raz de la ecuacin
f(x) = 0.
Sean
A( x0 , f 0 ) , B( x1 , f1 ) y C.( x2 , f 2 ) dichos puntos y sea P(u ) = au 2 + bu + c el polinomio
que interpola a f ( x) en dichos puntos.
Para simplificar la obtencin del polinomio cuadrtico se supone que el origen pasa por el
punto que esta en medio de los otros dos.
Sea
Sea h1 = x1 x0 , h2 = x0 x2
a(0) 2 + b(0) + c = f 0
ah2 2 bh2 + c = f 2
h2
:
h1
c = f0 ,
a=
d f1 (1 + d ) f 0 + f 2
,
(1 + d )d h12
b=
f1 f 0 ah12
h1
2c
b b 2 4ac
El signo del denominador se toma de modo que coincida con el de b : si b > 0 se considera el signo + y
si b < 0 se elige el signo - en el denominador.
De ese modo el denominador toma su mayor valor absoluto.
El valor r calculado es uno de los tres puntos a considerar en el siguiente paso,es decir,
si r queda a la derecha de x 0 se toman los puntos x0 , x1 , r y si r queda a la izquierda de x0 ,
los puntos a considerar son x0 , x2 , r.
En ambos casos los puntos se redefinen de modo que x0 sea el punto del medio de los tres escogidos.
Ejemplo:
y := sin( x )
1
x
2
Su grfica es:
y2 := .0738476309
h1 := .2
h2 := .2
d := 1.000000000
Por ser b < 0 se considera el signo (-) en el denominador de la expresin para r, raz del
polinomio ( r es una primera aproximacin a la raz de f(x) )
r := 1.895252107
La raz r del polinomio se encuentra a la izquierda de x0. Los nuevos valores son
x00 := 1.895252107
x11 := 2.0
x22 := 1.8
h11 := .104747893
h22 := .095252107
d1 := .9093462816
y22 := .0738476309
c1 := .0001983067
Con dichos valores se obtiene una nueva aproximacin a la raz resolviendo el polinomio
cuadrtico:
r1 := 1.895494425
x2 := 2.8
x0 := 2.9
x1 := 3.0
h1 := .1
h2 := .1
d := 1.000000000
y2 := 1.726773367
y0 := -.0669276161
y1 := -.4355199676
a := 71.25543160
b := -10.81146668
c := -.0669276161
r := 2.894043416
y3 := -.0458478202
x22 := 2.894043416
x00 := 2.9
x11 := 3.0
h11 := .1
h22 := .005956584
d1 := .05956584000
y22 := -.0458478202
y00 := -.0669276161
y11 := -.4355199676
a1 := -1.387518017
b1 := -3.547171713
c1 := -.0669276161
rexac := 2.880986321
M
odulo 6
Prof. M.Ang
elica Vega U.
4.
4.1.
M
etodos directos
Estos metodos consisten en sustituir la matriz A por una sucesion de matrices elementales, de
manera que se obtiene un sistema sea mas facil de resolver.
4.1.1.
M
etodo de Gauss.
El metodo de eliminaci
on gaussiana es uno de los metodos directos clasico para resolver el sistema
Ax = b, consiste de dos etapas.
Etapa 1. Triangularizaci
on.
Para efectos de la operatoria, resulta mas simple, efectuar las operaciones sobre la matriz aumentada A en lugar de A.
El metodo consiste en obtener una sucesion de sistemas equivalentes
A(k) x = b(k) ,
(k = 1, 2, ... , n)
..
(1)
(1)
(1)
(1)
a
a
.
.
.
.
.
.
.
.
.
.
.
.
a
.
a
11
12
1n
1 n+1
..
(2)
(2)
(2)
0
a22 . . .
...
...
...
a2n
.
a2 n+1
..
..
..
..
0
.
0
.
.
.
.
(k)
(k)
(k)
(k)
(k)
.
A = 0
0
...
akk
ak k+1
...
ak n
.
ak n+1
(k)
(k)
(k)
(k)
0
0
. . . ak+1 k ak+1 k+1 . . . ak+1 n .. ak+1 n+1
..
..
..
..
..
..
.
.
...
.
.
...
.
.
..
(k)
(k)
(k)
(k)
0
0
. . . an k
an k+1
. . . an n
. an n+1 .
(35)
donde,
(1)
a1 n+1
.
..
= a(k)
n
n+1
..
.
(k)
an n+1 .
b(k)
con
A(1) = A ,
31
(36)
(k)
A(k) = (aij ) se obtiene de la siguiente manera:
(k)
aij
(k1)
a
ij
= 0
a(k1)
ij
si, i = 1, 2, . . . k 1 ;
si, i = k, k + 1, . . . n ;
(k1)
ai k1
(k1)
ak1 k1
(k1)
ak1 j
sii = k, k + 1 . . . n ;
j = 1, 2, . . . n + 1
j = 1...k 1 ,
(37)
j = k, k + 1 . . . n + 1 ..
El proceso termina cuando A(n) es triangular superior, teniendose el sistema A(n) x = b(n) .
N
otese que en esta etapa s
olo se obtiene una matriz triangular superior. En la etapa siguiente, se
resuelve el sistema.
Etapa 2. Retrosustituci
on.
Resolvemos la n-esima ecuaci
on
(n)
a n+1
.
xn = n(n)
an n
Usando xn se puede despejar xn1 de la n 1-ecuacion
(n1)
xn1 =
(n1)
(38)
ai k
ak k
al n
umero que produce un cero en la fila i columna k, denominado multiplicador y a los elementos
ai i le llamaremos elementos pivotes.
(k)
(k1)
ai j = ai j
(k1)
mk1
i k1 ak1 j
Actividades 4.1
i) Ejemplo 4.1 Use eliminaci
on de Gauss para resolver:
3x1 0,1x2 0,2x3
0,1x1 + 7x2 0,3x3
0,3x1 0,2x2 + 10x3
efectuar los c
alculos con 6 cifras significativas.
32
= 7,85 ,
= 19,4 ,
= 71,4 ,
Soluci
on : la matriz aumentada es
0,1
a2 1
=
= 0,03333333
a1 1
3
m3 1 =
a3 1
0,3
=
= 0,09999999
a1 1
3
=
=
2,0001 ,
1,0000 ,
1,0000x1 + 1,0000x2
0,0003x1 + 3,0000x2
=
=
1,0000 ,
2,0001 ,
b)
Eliminaci
on gaussiana con y sin pivoteo.
De la Actividad I.ii), se observa que pueden surgir dificultades en algunos casos, como cuando el
pivote es peque
no en relaci
on a los otros elementos de la columna a la que pertenece el elemento
pivote. Una forma de mejorar las soluciones se usa como estrategia pivotear. El llamado pivoteo
parcial consiste en seleccionar el elemento de mayor valor absoluto ubicado en la misma columna
que el pivote, bajo la diagonal e intercambiar filas. Al procedimiento de buscar el elemento de
mayor valor absoluto tanto en las columnas como en las filas y luego intercambiar se conoce como
pivoteo total.
El pivoteo completo o total no es muy usado puesto que el intercambio de columnas implica un
intercambio de las inc
ognitas, lo que agrega complejidad injustificada.
Actividades 4.2
1.
Use eliminaci
on de Gauss para resolver el sistema :
x1 + x2 x3
6x1 + 2x2 + 2x3
3x1 + 4x2 + x3
usando,
33
= 3 ,
= 2,
= 1,
Gauss simple.
Eliminaci
on gaussiana con pivoteo parcial.
Eliminaci
on gaussiana con pivoteo total.
2.
= xk yk + 2 ,
= +2xk + yk zk 1 ,
= xk + yk zk + 4 ,
= 1
= 0
34
4.2.
Factorizaci
on LU
A = LU
Una primera interrogante es Existe tal factorizacion? . Un primer resultado que garantiza la
existencia de esta factorizaci
on dice,
Teorema 4.1 Si puede aplicarse la eliminaci
on gaussiana al sistema Ax = b sin intercambio de
filas, entonces la matriz A puede factorizarse como
A = LU ,
donde
U =
a11
(1)
a12
(1)
0
..
.
(2)
a22
0
y
...
..
...
..
.
..
.
0
(1)
a1n
..
.
m21
L =
(n1)
.
an1 n1
..
(n)
ann
mn1
0
1
..
.
...
...
..
.
..
.
mn n1
0
..
.
0
1
(39)
N
otese que al factorizar A en LU ,
Ax = b
L(U x) = b
entonces, es posible resolver el sistema utilizando dos sistemas que involucran matrices triangulares,
se resuelve primero Ly = b y luego U x = y. De modo que si L = (lij ), entonces se obtiene el
vector y por sustituci
on hacia adelante,
b1
y1 =
l11
y los yi para cada i = 2, 3, . . . n, mediante
i1
X
1
yi =
bi
lij yj .
lii
j=1
As conociendo el vector y podemos obtener en el sistema U x = y el vector x por retrosustitucion.
El Teorema 1 proporciona una factorizacion de la matriz A, observe que los elementos de la matriz
L son los elementos multiplicadores mi j que se obtuvieron al realizar la eliminacion gaussiana,
excepto los elementos de la diagonal principal que son 1. Esta factorizacion se conoce como Factorizaci
on de Doolitle.
Queda analizar una segunda interrogante . si A admite una factorizacion LU , esta sera u
nica?
35
u11 u12
l11 0
0 ... 0
a11 a12 . . . a1n
l21 l22 0 . . . 0 0 u22
a21 a22 . . . a2n
l31 l32 l33 . . . 0 0
0
=
..
..
.
.
..
.. .
.
..
..
..
.. ..
.
.
.
.
.
.
.
.
.
. .
an1 an2 . . . ann
0
0
ln1 ln2 ln3 . . . lnn
...
...
...
..
.
u1n
u2n
u3n
..
.
...
unn .
(40)
Notemos que las ecuaciones anteriores, no determinan a L y a U en forma u
nica. Para cada i se
puede asignar un valor no nulo lii o uii (pero no a ambos). Porque ? Justifique . Por ejemplo, si
lii = 1 para i = 1, 2, . . . , n, es la descomposicion de Doolitle que se obtiene como vimos al aplicar
eliminaci
on gaussiana. Otra eleccion simple es uii = 1 para cada i en este caso la factorizacion es
la de Crout, o bien asumir que lii = uii en cual caso tenemos la factorizacion de Choleski
Actividades 4.3
i) Descomponer la matriz A usando la factorizaci
on de Crout, en el sistema :
x1 + x2 x3
6x1 + 2x2 + 2x3
3x1 + 4x2 + x3
= 3 ,
= 2,
= 1,
ii) Problema N 3 de la PEP1 (Sem II-2000) Para determinar la temperatura en cuatro puntos
interiores equidistantes de una barra, hay que resolver la ecuaci
on :
Atk+1 = tk ,
k = 0, 1, 2, ...
donde,
10
3 1 0
0
1 3 1 0 0 12
A=
0 1 3 1 , t = 12
10
0
0 1 3
(41)
(tk es la distribuci
on de la temperatura en los puntos interiores de la barra en el instante k.
a) Mediante el metodo de Gauss (sin pivote) determine t1 .
b) Obtenga t2 y t3 , usando una descomposici
on A = LU .
iii) Resolver el sistema
x1
2x1
3x1
x1
+ 2x2
4x2
+ 8x2
+ 2x2
3x3
5x3
8x3
6x3
+
+
x4
x4
x4
4x4
= 1
= 0
= 2
= 1
(42)
iv) Investigue c
omo a partir de la factorizaci
on de Doolitle puede obtener la factorizaci
on de
Crout ? Ilustre el metodo con un ejemplo.
36
4.2.1.
Definici
on 4.1 Una matriz A simetrica es definida positiva si y s
olo si
xT Ax > 0
, x
Rn {0}
2 1 0
1 2 1
0 1 2
(43)
(44)
En la pr
actica puede resultar difcil determinar si una matriz es definida positiva a partir de la
definici
on, el siguiente resultado constituye un criterio de gran utilidad para este proposito.
Teorema 4.2 A es simetrica y definida positiva,
el determinante:
a11
Dk = ...
ak1
si y s
olo si Dk > 0 , k = 1, ..., n, donde Dk es
..
.
a1k
..
.
akk
Definici
on 4.2 Sea A una matriz cuadrada de orden n, diremos que A es diagonal dominante
si
n
X
|aii |
|aij |, i, 1 i n
(45)
j=1
j6=i
38
Modulo 7
Prof : Mara Angelica Vega U.
5.
M
etodos iterativos.
5.1.
5.1.1.
Actividades 5.1
i) Si V es un espacio vectorial, Que es una norma sobre V ? , C
omo se define la distancia
entre dos vectores ? Cu
ando una sucesi
on de vectores es convergente ?
ii) Sea V = IRn , las normas de uso frecuente en IRn son,
Pn
kxk1 = i=1 |xi | , llamada norma 1
kxk2
1/2
kxk
= m
ax1in |xi |
Pn
i=1
x2i
Ejemplo 5.1 Compare la longitud de los siguientes tres vectores en IR4 , usando cada una de las
normas anteriores.
x = (4, 4, 4, 4)T
y = (0, 5, 5, 5)T
w = (6, 0, 0, 0)T
Definici
on 5.1 Diremos que dos normas son equivalentes si existen dos n
umeros y positivos
tales que
kvkq kvkp kvkq .
Demuestre las siguientes afirmaciones.(Haga una en clases ).
iv) Las normas kvk y kvk1 son equivalentes, en efecto
kvk kvk1 nkvk
v) Las normas kvk y kvk2 son equivalentes
kvk kvk2
nkvk
1
kvk2 kvk kvk2 .
n
nkvk2 .
Observaci
on 5.1 Por que es importante que las normas estudiadas sean equivalentes ?
Porque se puede utilizar cualquiera de ellas. As si, por ejemplo, se tiene una sucesion de vectores
que tiende a v para una cierta norma, entonces la sucesion tambien converge a v para las otras
normas (equivalentes).
40
5.1.2.
Normas matriciales
Definici
on 5.2 Sea An el conjunto de las matrices de orden n, con las operaciones habituales,
definidas sobre IR (o C
I ). Definiremos una norma matricial como una aplicaci
on
k k : An IR
que verifica las siguientes propiedades :
i)
ii)
iii)
iv)
kAk 0 , A An y kAk = 0 A = 0
kAk = ||kAk , IR y A An
kA + Bk kAk + kBk , A, B An
kABk kAkkBk , A, B An .
Comentarios:
i) An puede ser considerado como un espacio vectorial de dimension n2 , As las cosas, las tres
primeras propiedades son similares a las correspondientes de una norma vectorial; mientras
que la u
ltima propiedad es propia de las normas matriciales.
ii) Un concepto importante para nuetros propositos es norma matricial inducida, puesto que
permite relacionar las normas vectoriales con las normas matriciales, pilar fundamental para
el estudio de convergencia y analisis de error en el calculo numerico.
Definici
on 5.3 Sean A una matriz n n y k kv una norma vectorial definida en IRn , llamaremos
norma matricial inducida o norma matricial subordinada, con respecto a la norma vectorial dada
al n
umero:
kAvkv
= sup kAvk.
kAk = sup
v6=0 kvkv
kvk=1
Actividades 5.2 Investigue, como demostrar los siguientes resultados importantes.
i) Para toda norma matricial inducida, se cumple
kAxkv kAkkxkv ,
x IRn .
En este caso se dice que la norma matricial y la norma vectorial son compatibles.
ii) Sea A = (aij ) una matriz cuadrada real, entonces
kAk1
kAk2
kAk
n
X
kAvk1
= max
|aij |
1jn
kvk1
i=1
q
q
kAvk2
= sup
= (AT A) = (AAT ) = kAT k2 (norma espectral)
kvk2
n
X
kAvk
= sup
= max
|aij | (norma del m
aximo.)
1in
kvk
j=1
sup
41
(46)
Nota 5.1 Si A es una matriz de orden n, (A) denota el radio espectral de A, es decir
(A) = max |i |
i (A)
Observaci
on 5.2 Existen normas matriciales que no son subordinadas a ninguna norma vectorial,
por ejemplo, la norma
1/2
X
1/2
kAkE =
|aij |2
= (tr(A A))
i,j
2
x = 5
3
2
A=
3
1 4
2 0
3 2
ii) Cu
al es el n
umero de condici
on de la matriz A.
iii) Determine la norma espectral de A. (Para entretenerse fuera de la clase ).
5.1.3.
(47)
j = 1, 2, ..., n.
(48)
5.2.
M
etodos iterativos.
Los metodos directos requieren alrededor de 2n3 /3 operaciones aritmeticas para resolver un sistema
lineal de n n, lo que limita el tama
no de los sistemas que pueden ser resueltos de manera directa.
Por ejemplo cuando se resuelven numericamente ecuaciones diferenciales pueden surgir sistemas
de 20000 variable.
Una alternativa que puede lograr gran exactitud para n grande son los metodos iterativos.
Para obtener un metodo iterativo procedemos como antes, re-escribimos el sistema de ecuaciones
como una iteraci
on de punto fijo. Es decir,
Ax = b.
(49)
lo escribimos, en la forma
x(k+1) = M x(k) + c
para cadak 1.
(50)
M
etodo de Jacobi.
i) Forma matricial
Transformamos el sistema,
Ax = b (D + L + U )x
Dx
=b
= b (L + U )x
= D1 [b (L + U )x]
= D1 (L + U )x + D1 b
= MJAC x + c.
(51)
(k+1)
xi
1
bi
aii
44
n
X
j=1
j6=i
(k)
aij xj .
(52)
5.3.
M
etodo de Gauss-Seidel.
i) Forma matricial
En este caso se hace la transformacion,
Ax = b (D + L + U )x
(D + L)x
=b
= b Ux
= (D + L)1 [b U x]
= (D + L)1 U x + (D + L)1 b
= MGS x + c.
(53)
nente xi
(k)
(k)
(k1)
x1
, ..., xi1 a las componentes x1 , ..., xi1 , de la solucion real , por lo tanto se usa esta
idea al resolver la i-esima ecuacion,
(k)
xi
Pi1
j=1
(k)
aij xj
Pn
j=i+1
(k1)
aij xj
+ bi
para
aii
i = 1, 2, ..., n.
Actividades 5.5
i) Dado el sistema lineal:
x1
5x1
x1
0x2
+ x2
+ 6x2
+ 3x3
+ 2x3
+ 2x3
=
2
= 5
= 11
(54)
(55)
(56)
donde,
z(k) = c BJAC x(k)
(z
(k)
con
BJAC = I MJAC
3
1
0
0
x1
10
1 0
0
12
3 1 0
x2
=
12
1 3 1 x3
10
0 1 3
x4
(57)
(58)
con x(0) = 0.
5.4.
M
etodo de sobrerelajaci
on
(59)
donde :
es un par
ametro
D,L,U son las matrices diagonal y triangulares inferior y superior definidas anteriormente.
sustituyendo (59) en Ax = b, se tiene :
D
(1 )
x + Lx +
D + U x = b.
(60)
y de aqu :
x = (D + L)1 [(1 )D U ]x + (D + L)1 b
que en forma recursiva puede expresarse en la forma :
x(k) = M x(k1) + c
(1)
con :
M = (D + L)1 [(1 )D U ]
c = (D + L)1 b
ii) En termino de componentes
Para fines computacionales la ecuacion matricial, puede escribirse:
i1
n
X
X
(k)
(k1)
(k)
(k1)
bi
,
aij xj
aij xj
xi = (1 )xi
+
aii
j=1
j=i+1
(2)
para i = 1, 2, ..., n.
Si = 1 , tenemos el metodo de Gauss-Seidel.
Si 0 < < 1, los metodos de relajacion se denominan metodos de sub-relajaci
on y se pueden usar
en sistemas que no son convergentes por el metodo de Gauss-Seidel.
Si > 1 los metodos se denominan metodos de sobre-relajaci
on y se pueden usar para acelerar la
convergencia en sistemas que son convergentes mediante el metodo de Gauss-Seidel.
5.5.
Resultados importantes
(61)
converge a la soluci
on u
nica si y solo si (M ) < 1.
ii) Si kM k < 1 para cualquier norma matricial subordinada, la sucesion generada por (61)
converge para cualquier x(0) Rn y se satisafacen las cotas de error:
kx x(k) k kM kk kx(0) xk
kx x(k) k
kM kk
kx(1) x(0) k
1 kM k
iii) Si A es diagonal dominante, entonces para cualquier eleccion de x(0) los metodos de Jacobi
y Gauss-Seidel convergen a la solucion exacta del sistema.
iv) Si A es definida positiva y 0 < < 2, entonces el metodo SOR converge para cualquier
aproximaci
on inicial.
v) Si A es definida positiva y tridiagonal, entonces (MGS ) = (MJAC )2 < 1 y la eleccion
optima de , es
2
p
=
.
1 + 1 (MJAC )2
47
5.6.
An
alisis de error y N
umero de Condici
on
Consideremos el sistema A
x = b y supongamos que A es una matriz invertible, analicemos las
siguientes situaciones:
1.
2.
e Si x y x
e satisfacen
Consideremos ahora que se perturba el vector b para obtener el vector b.
e
e en terminos absolutos y
respectivamente Ax = b y Ae
x = b. En cuanto difiere x y x
relativos ?
i) En terminos absolutos
e k=k A1 (b b)
e kk A1 kk b b
ek
e|| =k A1 b A1 b
||x x
ii) En terminos relativos
e||
||x x
||A1 || ||Ax||
e||
||x x
||x||
||b||
||b||
e
||b b||
||b||
||A1 || ||A||
e
||b b||
||b||
es decir, el error relativo de la solucion x esta acotado por (A) veces el error relativo de b .
Observaci
on 5.3
i) El n
umero de condici
on depende de la norma vectorial seleccionada.
48
1
1 +
1
1
(2 + )
||A1 || = 2 (2 + )
2
=
4 + 4 + 2
4
> 2
2
(A)
A) ||b||
||x||
||b||
Criterios de parada.
Se define el vector el residual r(k) = b Ax(k) y el vector error e(k) = x x(k) .
Criterio 1. Dada una tolerancia , iterar hasta que,
kr(k) k
< .
kr(0) k
Criterio 2. Sean, b , x , x(0) Rn y A una matriz no singular, entonces:
kr(k) k
ke(k) k
(A)
.
ke(0) k
kr(0) k
donde, (A) es el n
umero de condicion de la matriz A.
49
Criterio 3. El criterio 1, depende del valor inicial x(0) , de modo que si la aproximacion inicial
no es buena, los resultados pueden ser grotescos. Se recomienda usar en su lugar,
kr(k) k
< .
kbk
Actividades 5.6
i) Demuestre el teorema anterior
ii) Demuestre que si ||A|| < 1 entonces
I A es invertible.
||(I + A)1 || (1 ||A||)1
(I + A)1 = I A + A2 A3 +
1
||(I + A)1 ||
1 + ||A||
Teorema 5.3 El radio espectral
(A) = inf ||A||
||.||
(62)
(63)
a) Determinar todos los valores de para los cuales se puede garantizar la convergencia
del algoritmo.
b) Determinar si para = 0,4 el algoritmo es convergente.
51
2
Aproximaci
on de funciones.
M
odulo 10
Prof. Mara Angelica Vega U.
El prop
osito de estos m
odulos es entregar los conceptos te
oricos b
asicos
necesarios y algunas aplicaciones en forma dirigida, de modo que el estudiante pueda participar en forma activa, en el proceso ense
nanza - aprendizaje,
elaborando su propio material de estudio. El logro deseable es que el estudiante aprenda a aprender. Es claro que este material debe ser complementado
con el apoyo de la bibliografa sugerida.
2.1
Interpolaci
on Polin
omica.
El Problema :
Dado el conjunto de (n + 1) puntos, del grafico de una funcion f , denotados por
(x0 , f (x0 )) , (x1 , f (x1 )) . . . (xx , f (xn )),
se requiere encontrar una funcion polinomica P (x) al que llamaremos polinomio interpolante para f , de a lo mas grado n que satisfaga la condicion
de interpolacion, expresada por
P (xi ) = f (xi ) ,
i = 0, 1, ...n.
(2.1)
Soluciones al Problema :
Inspirandonos en el criterio de Taylor, de acuerdo a (2.1), observemos
que el polinomio de Taylor es combinacion lineal de los elementos de la base
{1, (x x0 ), (x x0 )2 , (x x0 )3 ...(x x0 )n ...}
para el espacio vectorial de los polinomios de una variable real sobre IR. Es
obvio que los polinomios de Taylor son u
tiles para aproximar una funcion
sobre intervalos peque
nos alrededor del punto x0 , pero en la practica este no
siempre es el caso y es necesario usar un metodo mas eficiente que incluya
informacion en otros puntos.
POLINOMICA.
2.1. INTERPOLACION
2.1.1
M
etodo de los coeficientes indeterminados.
Tomando en cuenta lo anterior, podemos proponer que el polinomio interpolante sea una combinacion lineal de los elementos de la base canonica del
espacio de los polinomios por la sencillez en los calculos, es decir
Pn (x) =
n
X
ai xi = a0 + a1 x + a2 x2 + ... + an xn .
(2.2)
i=0
1
11.2
2
15.3
3
17.1
4
16.9
5
15.0
Tabla 1.
se pide determinar cuantas piezas deben venderse para maximizar la
ganancia neta, dejando estipulado en las bases del contrato que no habra
futuras contrataciones si la respuesta es equvoca . Se debe hacer una recomendacion y justifcarla.
Consideraciones sobre el m
etodo.
Este metodo que resulta muy simple en este caso, presenta la dificultad
que la matriz de los coeficientes asociada al sistema de ecuaciones que se
obtiene al aplicar la condicion de interpolacion, es la matriz de Vandermonde,
que se caracteriza por volverse rapidamente mal condicionada cuando n, el
orden de la matriz crece en funcion del grado del polinomio, por tanto este
metodo no es conveniente para hallar polinomios interpolantes.
De aqu que es importante estudiar otra forma de escribir este polinomio,
de modo de obviar el que tengamos que resolver un sistema de ecuaciones
lineales mal condicionado. Los metodos de Lagrange y de Newton son los
que tradicionalmente se estudian en cualquier curso de calculo numerico,
ambos se basan en escribir el polinomio de interpolacion como combinacion
lineal de elementos de alguna base del espacio vectorial de los polinomios
distinta de la canonica.
2.1.2
M
etodo de Lagrange.
n
X
f (xi )li (x) = f (x0 )l0 (x) + ... + f (xn )ln (x).
(2.3)
i=0
Si resolvemos de esta forma el problema, nuestro trabajo consistira en encontrar los polinomios li (x) de modo que se verifique
f (xi ) = Pn (xi ) = f (x0 )l0 (xi ) + + f (xi )li (xi ) + + f (xn )ln (xi ). (2.4)
Observemos que para que se verifique la condicion (2.4) para cada i, es
suficiente que el polinomio li (x) verifique que:
li (xj ) = 0
0 j n
i 6= j
li (xi ) = 1
(2.5)
(2.6)
De la condicion (2.5) se deduce que las races del polinomio li (x) son los
x = xj
0jn
i 6= j ,
(2.7)
Pero este polinomio no cumple con la condicion (2.6), puesto que si lo evaluamos en el nodo xi vale:
li (xi ) = (xi x0 )...((xi xi1 )(xi xi+1 )...(xi xn ).
(2.8)
n
Y
(x xj )
(x x0 )...((x xi1 )(x xi+1 )...(x xn )
=
.
(xi xj )
(xi x0 )...(xi xi1 )(xi xi+1 )...(xi xn )
j=0 j6=i
(2.9)
Que por construccion cumple las condiciones (2.5)y (2.6).
Los polinomios li (x) se conocen con el nombre polinomios de Lagrange,
mientras que Pn (x) recibe el nombre de polinomio interpolante de Lagrange
para f (x) en los puntos (x0 , f0 ) , (x1 , f1 ) , ..., (xn , fn ), que suele denotarse
generalmente Ln (x).
Aplicaremos la idea de Lagrange al problema del ejemplo anterior con el
fn de obtener alg
un tipo comparacion entre ambos metodos.
Actividad II.
Solucione el problema planteado en la actividad I, usando un polinomio
de Lagrange para interpolar la funcion representada por los datos dados.
POLINOMICA.
2.1. INTERPOLACION
n 2.1
Observacio
Sabemos que si el polinomio interpolante existe, es
u
nico, por lo tanto es obvio pensar que el polinomio es el mismo usando
cualesquiera de los dos metodos anteriores, m
as a
un usando cualquier
otro metodo.
El metodo de Lagrange para determinar el polinomio interpolante comparado con el metodo de coeficientes indeterminados, es un tanto laborioso por la cantidad de c
alculos involucrados al calcular los elementos
de la base, pero tiene un valor te
orico importante en la deducci
on de
otros metodos numericos, como por ejemplo f
ormulas de integraci
on
numerica, aproximaci
on de soluciones de ecuaciones diferenciales, etc.
(x x1 )
(x x0 )
+ f (x1 )
.
(x0 x1 )
(x1 x0 )
(2.10)
(2.11)
x x0
x x1
, l1 (x) =
.
(x0 x1 )
(x1 x0 )
cuya grafica es la recta que pasa por los puntos dados por lo que este problema se conoce como Interpolaci
on lineal.
Otra situacion particular es el caso en que n = 2, es decir se tienen los
puntos,
(x0 , f (x0 )) , (x1 , f (x1 )) , (x2 , f (x2 )),
el polinomio P2 (x) que interpola a la funcion f (x) en los tres puntos es
P2 (x) = f (x0 )
(x x1 )(x x2 )
(x x0 )(x x2 )
+ f (x1 )
(x0 x1 )(x0 x2 )
(x1 x0 )(x1 x2 )
(2.12)
(x x0 )(x x1 )
+f (x2 )
.
(x2 x0 )(x2 x1 )
.
P2 (x) = f (x0 )l0 (x) + f (x1 )l1 (x) + f (x2 )l2 (x)
(2.13)
6
con,
l0 (x) =
(x x1 )(x x2 )
(x x0 )(x x2 )
, l1 (x) =
.
(x0 x1 )(x0 x2 )
(x1 x0 )(x1 x2 )
Consideraciones sobre el m
etodo.
Uno de los inconvenientes que tiene la forma de Lagrange para el polinomio de interpolacion, es que al agregar otro punto de interpolacion o
nodo , los elementos de la base polinomios de Lagrange,
li (x) , para i = 0, 1, ..., n + 1.
deben ser calculados nuevamente uno a uno. Surge entonces la inquietud
de como construir el polinomio de interpolacion en forma mas eficiente, de
modo de aprovechar la informacion ya procesada al agregar nuevos nodos.
Este hecho amerita que busquemos otra forma de escribir el polinomio de
interpolacion, es decir expresarlo en otra base del espacio vectorial.
POLINOMICA.
2.1. INTERPOLACION
2.1.3
(2.14)
f (x1 ) f (x0 )
x1 x0
Pn (x) evaluado en x2
a2 =
f (x1 ) f (x0 )
f (x2 ) f (x0 )
.
(x2 x0 )(x2 x1 ) (x2 x1 )(x1 x0 )
8
definimos la primera diferencia dividida o diferencia dividida de orden
1 como el n
umero :
f [xi , xi+1 ] =
f (xi+1 ) f (xi )
.
xi+1 xi
Vemos que hay una relacion entre las diferencias divididas y el valor de
los coeficientes del polinomio de Newton (2.16).
Los calculos para determinar las diferencias divididas pueden facilitarse
mucho, si estas se representan abreviadamente en una tabla.
POLINOMICA.
2.1. INTERPOLACION
xi
x0
f [xi ]
f [x0 ]
f [xi , xi+1 ]
9
f [xi , xi+1 , xi+2 , xi+3 ]
f [x0 , x1 ]
x1
f [x1 ]
f [x0 , x1 , x2 ]
f [x0 , x1 , x2 , x3 ]
f [x1 , x2 ]
x2
f [x2 ]
x3
f [x3 ]
x4
f [x4 ]
f [x1 , x2 , x3 ]
f [x1 , x2 , x3 , x4 ]
f [x2 , x3 ]
f [x2 , x3 , x4 ]
f [x2 , x3 , x4 , x5 ]
f [x3 , x4 ]
f [x3 , x4 , x5 ]
f [x4 , x5 ]
x5
f [x5 ]
x6
f [x6 ]
f [x5 , x6 ]
Actividad III.
Consideremos nuestro ejemplo modelo y construyamos el polinomio interpolante en la forma de Newton.
C
omo medimos qu
e tan buena es la aproximaci
on ?
Cuando en calculo diferencial se estudia el polinomio de Taylor de grado
n para aproximar una funcion f C (n+1) [a, b] en un punto x0 [a, b] su desarrollo involucra el termino Rn (x) llamado residuo o error de truncamiento
y que se define como :
Rn (x) =
f (n+1 )()
(x x0 )(n+1)
(n + 1)!
, (x0 , x).
(2.17)
10
f (n+1 )()
(x x0 )(x x1 )...(x xn ).
(n + 1)!
(2.18)
n 2.2
Observacio
Es posible obtener una relaci
on entre diferencia dividida y el termino
f (n+1 )()
,
(n + 1)!
de modo que podemos expresar la f
ormula de error en terminos de
diferencias divididas. Para ello consideremos :
Pn (x) = f [x0 ] + f [x0 , x1 ](x x0 ) + f [x0 , x1 , x2 ](x x0 )(x x1 ) +
+f [x0 , x1 , ..., xn ](x x0 )(x x1 ) (x xn1 )
si agregamos un punto m
as (xn+1 , f (xn+1 )) de modo que ahora tenemos
(n + 2) puntos y usamos la notaci
on :
xn+1 = x
f (xn+1 ) = f (
x)
x
6= xi
i = 0, ..., n
entonces de la f
ormula de Newton
f (
x) = Pn+1 (
x) = Pn (
x) + f [x0 , x1 , ..., xn , x
]w(
x)
o
f (
x) Pn (
x) = f [x0 , x1 , ..., xn , x
]w(
x)
de aqu y (2.18), obtenemos
f [x0 , x1 , ..., xn , x
] =
f (n+1) ()
para alg
un I
(n + 1)!
(2.19)
POLINOMICA.
2.1. INTERPOLACION
2.1.4
11
El problema de Hermite
= f (xi ) , i = 0, ..., n
2. Sea ki el n
umero de condiciones de interpolacion sobre el nodo xi .
3. Si x0 , ..., xn son los nodos entonces
p(j) (xi ) = f (j) (xi ) , j = 0, 1, ki1 , i = 0, ..., n
2.1.5
C
omo obtener el polinomio de Hermite ?
H2n+1 (x) =
Pn
Pn
i=0 f
0 (x )h
i i (x).
(2.20)
12
i (x) elementos de una base para el espacio vectorial de los
Con hi (x) y h
polinomios, tales que,
hi (xj ) = ij
i (xj ) = 0.
, h
h0i (xj )
, h0 i (xj ) = ij .
(2.21)
=0
n
Y
(x xj )
.
(xi xj )
j=0 j6=i
H2n+1 (x) =
Pn
Pn
i=0 f
0 (x )h
i i (x).
(2.23)
con,
hi (x) = [1 2(x xi ) li0 (xi )]li2 (x) , i = 0, ..., n.
(2.24)
i (x) = (x xi ) l2 (x) , i = 0, ..., n.
h
i
Que podemos decir del error cometido ?
Debera deducirse en forma analoga a como se obtiene el error del polinomio interpolante de Lagrange. En efecto,
Si x0 , ..., xn son (n + 1) puntos distintos en [a, b] y f C (2n+2) [a, b] y
H(x) es el polinomio de grado (2n + 1) tal que :
H(xi )
= f (xi ) , i = 0, ..., n
n
f (2n+2) ((x)) Y
(x xi )2 .
(2n + 2)! i=0
(2.25)
POLINOMICA.
2.1. INTERPOLACION
13
n 2.3 Es conveniente se
Observacio
nalar que en el caso particular que existe un s
olo nodo x0 , se conoce la funci
on f (x) y sus n derivadas el polinomio
de Hermite es el polinomio de Taylor, es decir
H(x) = P (x)
= P (x0 ) + P 0 (x0 )(x x0 ) + P 00 (x0 )
(x x0 )2
(x x0 )n
+ + P (n) (x0 )
.
2!
n!
(2.26)
H3 (x) = a0 + a1 (x x0 ) + a2 (x x0 )2 + a3 (x x0 )2 (x x1 ).
(2.27)
f [xi ]
f [x0 ]
f [xi , xi+1 ]
f [x0 , x0 ] = f 0 (x0 )
x0
f [x0 ]
f [x0 , x0 , x1 ]
f [x0 , x1 ]
x1
f [x0 , x0 , x1 , x1 ]
f [x1 ]
f [x0 , x1 , x1 ]
f [x1 , x1 ] = f 0 (x1 )
x1
f [x1 ]
y f [x1 , x1 ] = f 0 (x1 ).
En efecto,
xx0
f (x) f (x0 )
= f 0 (x0 ).
x x0
(2.28)
14
Un razonamiento similar es valido para:
xx1
f (x) f (x1 )
= f 0 (x1 ).
x x1
(2.29)
xk+n xk
f [xk , , xk+n ] =
f (n) (xk )
, xk = xk+1 = = xk+n .
n!
(2.31)
Actividad I.
1) Encuentre un polinomio p(x) de grado menor o igual que 4 que cumpla
con las condiciones :
f (0) = 0
f 0 (0) = 0
f (2) = 16
f 0 (2) = 32
f 00 (2) = 48
Usando
el primer nodo como pivote
el u
ltimo nodo como pivote.
POLINOMICA.
2.1. INTERPOLACION
15
0
1
5.12
1
3
3.00
2
6
2.48
3
9
2.34
4
15
2.18
h(x) = +
x
b) Utilizando los datos de la tabla y la aproximacion anterior, calcule
:
max{|h(xk ) f (xk )|/k = 0, 1, ..., 4}
Que interpretacion puede darle a este n
umero ?
5) Determine un polinomio P (x) tal que
p(1) = 10
p0 (1) = 11
p00 (1) = 22
p(3) = 18
p0 (3) = 83.
M
odulo 11
Prof. Mara Angelica Vega U.
9.2.
1x1
n = 0, 1, 2,
(142)
la sustituci
on = arc cos (x) implica que:
1x1
Tn (x) = cos(n )
(143)
n = 1, 2,
y x [1, 1]
con T0 (x) = 1 y T1 (x) = x. Esta relacion de recurrencia implica que para cada n 1,
polinomio de grado n con coeficiente principal 2n1 .
9.2.1.
(144)
Tn es un
para
k = 1, 2, , n.
(145)
Adem
as tiene extremos absolutos en
(k)
xk = cos
(n)
para
k = 0, 1, , n.
(146)
con
(k)
Tn (xk ) = cos
(n)
para
k = 0, 1, , n.
(147)
Las gr
aficas de algunos polinomios de Tchebyshev se presentan en la siguiente figura: En estos
gr
aficos se puede observar las siguientes 3 propiedades de los polinomios de Chebyshev:
1. |Tn (x)| 1 1 x 1.
81
para cada
n 1.
1
Ten+1 (x) = xTen (x) Ten1 (x)
4
para cada n 2.
iii) Debido a la relaci
on lineal entre Ten y Tn la propiedad 8.1, implica que los ceros de Ten ocurren
tambien en,
(2k 1)
para k = 1, 2, , n.
(148)
x
ek = cos
(2n)
y que los valores extremos de los Ten ocurren en
k
xk = cos
(n)
para
82
k = 0, 1, , n.
(149)
para cada k = 0, 1, 2, , n
De esto u
ltimo, se deduce la siguiente propiedad
Propiedad 9.2 Los polinomios de la forma Ten , cuando n 1, tienen la propiedad
1
2n1
= m
ax |Ten (x)| max |Pn (x)|
x[1,1]
para toda
x[1,1]
Pn
Y
f
n
En esta u
ltima expresi
on, se produce la igualdad si y solo s Pn = Ten
Observaci
on 9.2 1. La respuesta a la interrogante d
onde colocar los nodos interpolantes para
minimizar el error en la interpolaci
on de Lagrange? Recordemos que: Si f C n+1 [1, 1] y
x 0, , xn son n
umeros distintos en el intervalo [1, 1], entonces para cada x [1, 1]
existe (x) en (1, 1) tal que,
f (x) = P (x) +
f (n+1) ((x))
(x x0 )(x x1 ) (x xn ),
(n + 1)!
(150)
(151)
es un polinomio m
onico de grado (n + 1), la propiedad anterior implica que este mnimo se
obtiene ss
(x x0 )(x x1 ) (x xn ) = Ten+1 (x).
(152)
Luego si se escoge xk como el (k + 1) cero de Ten+1 para cada k = 0, 1, n, es decir cuando
xk se escoja como
(2k + 1)
x
ek+1 = cos
para k = 1, 2, , n.
(153)
(2(n + 1))
el valor m
aximo de |(x x0 )(x x1 ) (x xn )| ser
a minimizado. Como,
m
axx[1,1] |Ten+1 (x)| = 2n
1
= max |(x x
f0 )(x x
f1 ) (x x
en+1 )|
2n
x[1,1]
(154)
2.
1
[(b a)x + a + b]
2
umeros correspondientes x
ek
para transformar los n
umeros xk , en el intervalo [1, 1] en los n
en el intervalo [a, b].
Ejemplo 9.1 Sea f (x) = xex en [0, 1,5]. Construir dos polinomios interpolantes de grado a lo m
as
tres.
i) Usando los nodos igualmente espaciados x0 = 0, x1 = 0,5, x2 = 1, x3 = 1,5
ii) Usando los nodos de Tchebyshev.
iii) Hacer una tabla comparativa entre los valores exactos de la funci
on, el polinomio usando
e
nodos igualmente espaciados y el polinomio de Tchebyshev T4 y entre los errores absolutos
de los dos polinomios.
Sol.
i) Usando los nodos igualmente espaciados se obtiene:
l0 (x) = 1,3333x3 + 4,0000x2 3,6667x + 1,
l1 (x) = 4,000x3 10,000x2 + 6,0000x,
l2 (x) = 4,000x3 + 8,0000x2 3,0000x,
l3 (x) = 1,3333x3 2,0000x2 + 0,66667x.
De aqu el polinomio interpolante es
P3 (x) = 1,3875x3 + 0,057570x2 + 1,2730x.
ii) Usando los nodos de Tchebyshev. Transformamos los ceros x
ek = cos( (2k+1)
, k = 0, 1, 2, 3
8
de Te4 de [1, 1] a [0, 1,5], usando la transformaci
on lineal
x
ek = 0,75 + 0,75e
xk
obteniendose,
x
e0 = 1,44291 , x
e1 = 1,03701 , x
e2 = 0,46299 , x
e3 = 0,05709
Los polinomios de Lagrange para estos nodos son:
e
l0 (x) = 1,8142x3 2,8249x2 + 1,0264x 0,049728,
e
l1 (x) = 4,3799x3 + 8,5977x2 3,4026x + 0,16705,
e
l2 (x) = 4,3799x3 11,112x2 + 7,1738x 0,37415,
e
l3 (x) = 1,8142x3 + 5,3390x2 4,7976x + 1,2568.
y el polinomio interpolante de grado a lo m
as 3 es:
Pe3 (x) = 1,3811x3 + 0,044445x2 + 1,3030x 0,014357.
84
7.
Integraci
on Num
erica.
M
odulo 7
Prof. Mara Angelica Vega U.
7.1.
F
ormulas de Newton-Cotes.
f (x)dx
a
= Pn (x) + E(x) ,
f (x)dx =
Rb
a
Pn (x)dx +
Rb
a
entonces
E(x)dx
de modo que si
Pn (x) =
n
X
i=0
f (x)dx =
a
n
X
Z
f (xi )
i=0
pi (x)dx.
(106)
w(x)f (x)dx =
a
n
X
(107)
i=0
M
etodo del Trapecio.
Si en la f
ormula, (??), n=1 entonces los puntos de interpolacion son x0 y x1
Z
x1
f (x)dx =
x0
1
X
i=0
x1
H0 =
x1
l0 (x)dx =
x0
x0
x x1
1
dx =
x0 x1
h
x1
(x x1 )dx =
x0
h
.
2
Analogamente resulta:
H1 =
h
.
2
Luego,
R x1
f (x)dx =
x0
h
[f (x0 ) + f (x1 )].
2
(108)
E(x)dx =
ET =
a
1
(b a)3 f 00 ().
12
(109)
Notese aqu que ba = h es la longitud del intervalo y que la formula (??) proporciona un resultado
exacto para polinomios de grado a lo mas 1. Esta formula se conoce con elnombre de m
etodo del
trapecio simple.
Una forma de disminuir el error de cuadratura, es considerar mas puntos de interpolacion por
ejemplo (n + 1), en este caso el intervalo [a, b]lo dividimos en n subintervalos de longitud h y en
cada subintervalo aplicamos el metodo anterior , obteniendose,
Rb
a
n1
X
ba
f (x)dx =
[f (x0 ) + f (xn ) + 2
f (x0 + ih)].
2n
i=1
denominada m
etodo del trapecio generalizada y el termino de error
ET =
1 h3 00
f ()
12 n2
h3
max |f 00 (x)|
12n2 axb
(110)
7.1.2.
M
etodo de Simpson.
Si en la f
ormula, (??), n=2 entonces los puntos de interpolacion son x0 , x1 y x2 y
Z
x2
f (x)dx =
x0
2
X
i=0
f (x)dx =
R x2
x0
(x x1 )(x x2 )
(x x0 )(x x2 )
f (x0 ) +
f (x1 ))dx
(x0 x1 )(x0 x2 )
(x1 x0 )(x1 x2 )
R x2 (x x0 )(x x1 )
f (x2 )dx +
x0 (x x )(x x )
2
0
2
1
x2
x0
x1
f (x)dx =
x0
h5
h
[f (x0 ) + 4f (x1 ) + f (x2 )] f (4) .
3
90
#
"
m
m1
X
X
h
f (x2i1 ) + f (x2m )
f (x2i ) + 4
+f (x0 ) + 2
f (x)dx =
3
i=1
i=1
(111)
m
h X (4)
f (i ).
90 i=1
5
f (x)dx =
2
p
p
2
[5f (2 0,6) + 8f (0) + 5f (2 0,6)]
9
(1)
a) Usando la f
ormula (1), estime el valor de la siguiente integral:
Z
7.2.
Cuadratura Gaussiana.
i=0
sea mnimo, para cualquier f . La mejor eleccion es la que maximice el grado de precision de la
formula.
Como los valores de los Hi son arbitrarios y los xi solo a que la funcion cuya integral se esta
aproximando, debe estar definida en estos puntos , hay (2n + 2) parametros involucrados. Si los
coeficientes de un polinomio se consideran tambien como parametros, entonces la clase mas grande
de polinomios para la cu
al es exacta la formula sera 2n + 1.
Actividades 7.2 Se considera la f
ormula de cuadratura:
Z
2
2
2
, x3 =
, A= .
2
2
3
x2 = 0 , x1 =
La f
ormula es exacta para polinomios de grado 3.
De la actividad anterior , es claro que para aplicar cuadratura Gaussiana, necesitaremos algunos
conceptos relacionados con conjuntos ortogonales de funciones.
Definici
on 7.1 Diremos que un conjunto de funciones {0 , 1 , , n } es ortogonal en [a, b],
con respecto a la funci
on peso w(x) 0, si
Rb
a
Rb
a
0 kj w(x)dx = 0 , cuando j 6= k y
0 kj w(x)dx
> 0 , cuando j = k
n
X
i i (x)
i=0
2n + 1
n+1
xPn (x)
n
n+1
Pn1 (x)
2
, j = 1, ..., n
(n + 1)Pn+1 (xj )Pn0 (xj )
En esta f
ormula n representa el grado del polinomio.
iv) F
ormula para el error.
E(f ) =
22n+1 (n!)4
f (2n) ().
(2n + 1)[(2n)!]3
ii) F
ormula Recursiva.
Ln+1 =
1
n+1
(2n + 1 x)Ln(x)
n
n+1
Ln1 (x)
[(n)!]2
.
Ln+1 (xj )L0n (xj )
iv) F
ormula para el error.
E(f ) =
(n!)2 f (2n) ()
.
(2n)!
con [0, ).
Polinomios de Hermite.
2
2(n+1) (n)!
.
[Hn0 (xj )]2
n! f (2n) ()
E(f ) =
.
2n [(2n)!]
con (, ).
Polinomios de Tchebyshev.
i) Son ortogonales con respecto a la funcion peso w(x) = (1 x2 )1/2 en [a, b] = [1, 1]
ii) F
ormula Recursiva.
Tn+1 (x) = 2xTn (x) Tn1 (x)
para todo n 1, T0 (x) = 1, T1 (x) = x.
iii) F
ormula para los pesos.
.
n
donde n representa el n
umero de ceros del polinomio.
Wj =
iv) F
ormula para el error.
E(f ) =
2
f (2n) ().
22n (2n)!
Actividades 7.3
1.
Estimar
3
Z
1
dx
x
2.
Estimar
ex x2 dx ,
3.
2
2
sqrt
, x2 =
, H 1 = H2 =
, I=
2
2
2
2
x1 =
Calcular :
Z
cosx
dx
1 x2
La f
ormula de Gauss - Tchebyshev,
Z 1
n
f (x)
X
f (xi )
dx approx
n i=1
1 x2
1
es exacta para polinomios de grado 2n-1.
a) Demuestrelo para el caso n=3.
b) Aproxime usando lo anterior:
Z
0
cosx
dx.
2 x2
7.3.
Integrales Indefinidas
F (x) =
f (t)dt.
(112)
para a x b. Podemos escoger un adecuado paso de h para aproximar el lado derecho de (112),
para x = a + h , x = a + 2h , ... cada integral puede estimarse por alguna regla de cuadratura por
ejemplo trapecio. Los valores intermedios de F (x) pueden estimarse por interpolacion.
Otro metodo es reemplazar f por alg
un polinomio de aproximacion p y aproximar F integrando p.
Si |f (x) p(x)| < para a x b entonces,
Z
Z x
F (x)
p(t)dt <
a
dx (b a)
para a x b. Tomando [a, b] como [1, 1] una adecuada eleccion de p es la serie de Tchebyshev
b
X
r Tr (x).
(113)
r=0
donde,
r =
N
2 X
f (xj )Tr (xj ).
N j=0
(114)
y xj = cos( j
on (113), es necesario integrar Tr (x), cuya
N ), con N > n. Para integrar la expresi
integral indefinida es un polinomio de grado r+1. Por lo tanto, queda una suma de T0 , T1 , ..., Tr+1 .
Para evaluar en general la integral de Tr (x) es mas facil usar t = cos(), de modo que:
R
R
Tr (x)dx = cosr sin d
1
2
1
=
2
r+1
r1
+C
+ 2
.
(115)
2
r+1
r1
r 1
1
donde r > 1. Adem
as,
Rx
1
Rx
1
T0 (t)dt
1
T1 (x) + 1
4
T1 (t)dt
1
1
T1 (x)
4
4
!
r Tr (t) dt =
r=0
n+1
X
j Tj (x).
(116)
1 j n 1.
(117)
j=0
1
(j+1 j1 ) ,
2j
y
0 =
n
X
1
1
(1)r+1 r
0 1 +
2
4
r2 1
r=2
7.4.
Integrales Impropias
Record
ando c
omo se definen las integrales impropias de primera y segunda clase, tenemos los dos
problemas siguientes:
Rb
i) Estimar a f (x)dx, donde f tiene una singularidad en x = b, entonces definimos sobre el
intervalo [a, b ], con 0 < < b a. Suponemos que
b
Z
lm
f (x)dx
a
R1
1
existe. Por ejemplo, 0 (1 x) 2 dx
R
ii) Estimar a f (x)dx, donde f esta definida sobre cualquier intervalo [a, b] y
Z
lm
R
1
f (x)dx
a
x2 dx
xp cosxdx ,
0<p<1
con singularidad en x = 0. Podemos aproximar cosx por el primer termino de la serie de Taylor
alrededor de x = 0, nos da
1
I=
xp (cosx 1)dx.
dx +
La primera integral tiene el valor (1 p)1 . La segunda integral puede calcularse mediante un
metodo numerico, puesto que su integrando no tiene singularidad, ya que cosx 1 se comporta
como 21 x2 en x = 0. Sin embargo, xp (cosx 1) se comporta como 12 x2p , cuya segunda
derivada y las derivadas de orden superior son singulares en x = 0. Por lo tanto no es posible
garantizar que la integraci
on numerica de resultados exactos.
Ejemplo 7.1
7.5.
Integrales M
ultiples
Dscutiremos integrales sobre una region rectangular. Mediante un cambio de variables, el rectangulo
puede transformarse en cuadrado. Usando cualquier cuadratura en una dimension, tenemos :
R b R b
a
f (x, y)dx dy
R b PN
f
(x
,
y)
dy
i
i
i=0
PN
PN
i=0
i=0 i
Rb
a
f (xi , y)dy
P
N
j=0
j f (xi , yj ) ,
f (x, y)dx dy =
a
N
X
i j f (xi , yj ).
(118)
i,j=0
4
16
8
16
4
2
8
4
8
2
4
16
8
16
4
1
4
2
4
1
La suma de los n
umeros en la tabla es (1 + 4 + 2 + 4 + 1)2 Consideraremos la funcion f (x, y) 1,
por lo tanto la regla integrar
a la funcion sobre la region con area (b a)2 , cada n
umero en la tabla
2
(b a)
debe ser multiplicado por
para obtener los pesos i j de (118).
144
El estimativo de error de las reglas del producto, da un error estimado para la regla unidimensional.
Se puede obtener una cota de error basados en la regla de Simpson , con paso h. Si R denota la
regi
on cuadrada a x b , a y b, entonces:
Z
f (x, y)dx =
a
7.6.
N
X
i f (xi , y) (b a)
i,j=0
h4 (iv)
f (y , y).
180 x
(119)
Diferenciaci
on Num
erica
Se trata de encontrar metodos para aproximar f 0 dados los valores de x en ciertos puntos. Si p
es una aproximaci
on polinomial a f , podemos usar p0 como una aproximacion a f 0 . Sin embargo,
puede ocurrir que el m
odulo m
aximo de f 0 (x) p0 (x) sobre el intervalo [a, b] puede ser mucho mas
grande que el m
odulo m
aximo de f (x) p(x). Por lo tanto se buscaran otros metodos. La formula
del error es:
Y
f (n+1) (x )
.
(120)
f (x) pn (x) =
(x)
(n + 1)!
n+1
donde,
n+1 (x)
= (x x0 ) (x xn ). Derivando,
f 0 (x) p0n (x) = 0n+1 (x)
Recordamos la f
ormula de diferencias avanzadas:
s
s
pn (x) = pn (x0 + sh) = f0 +
4f0 + +
4n f0
1
n
De x = x0 + sh se tiene
(121)
(122)
dx
= h, por lo tanto,
ds
ds d
1 d
pn (x0 + sh) =
pn (x0 + sh).
dx ds
h ds
(123)
1
1
d
s
4f0 + (2s 1)42 f0 + +
4n f0 .
n
h
2
ds
(124)
p0n (x) =
As
p0n (x) =
(125)
De aqu obtenemos:
0n+1 (x)
=
d
d
(x xr ) j6=r (x xj ) + (x xr ) j6=r (x xj ).
dx
dx
(126)
(127)
j6=r
(128)
(129)
1
f1 f0
1
4f0 =
hf 00 (0 ).
h
h
2
(130)
p01 (x) =
y con r = 0 en (128) tenemos:
f 0 (x0 ) =
1
f2 f0
1
[4f0 + 42 f0 ] =
.
h
2
2h
(131)
f2 f0
1
= h2 f 000 (1 ).
2h
6
(132)
(133)
f 0 (x)
f (x + h) f (x h)
.
2h
(134)
f 0 (x)
f (x + h) f (x h)
.
2h
(135)
f 0 (x)
y
Las derivadas de orden superior de f son aproximadas por las derivadas de orden superior del
polinomio interpolante pn . Si procedemos como antes, tenemos:
p00n (x) =
1 d2
pn (x0 + sh)
h2 ds2
y de (124) tenemos:
p00n (x)
1
d2
d2
s
s
2
3
n
= 2 4 f0 + 2
4 f0 + + 2
4 f0 .
3
n
h
ds
ds
(136)
1 2
4 f0
h2
f2 2f1 + f0
.
h2
(137)
1
hk
dk
dsk
s
k
4k f0 + +
dk
dsk
s
n
4n f0 .
(138)
De aqu se obtiene,
f (k) (x)
4k f0
.
hk
(139)
Si consideramos la f
ormula (139) para aproximar f (k) (x) para un x centrado en el intervalo [x0 , xk ]
y si k = 2m, entonces tenemos:
42m f0
f (2m) (xm )
.
(140)
h2m
Si k = 2m1, el intervalo [x0 , x2m1 ] no tiene un punto central tabulado, en este caso se generaliza
el procedimiento adaptado para la estimacion de la primera derivada. Usamos (140) con n = k+1 =
2m, encontrando
1
1
f (2m1) (xm ) 2m1 (42m1 f0 + 42m f0 ).
(141)
h
2
Ya que,
42m f0 = 4(42m1 f0 ) = 42m1 f1 42m1 f0 .
(142)
obtenemos:
f (2m1) (xm )
42m1 f0 + 42m1 f1
.
2h2m1
(143)
(144)
1
(f4 4f3 + 6f2 4f1 + f0 ).
h4
(145)
f (3) (x2 )
y
f (4) (x2 )
y de (154) tenemos:
p00n (x)
1
d2
d2
s
s
2
3
n
= 2 4 f0 + 2
4 f0 + + 2
4 f0 .
3
n
h
ds
ds
(166)
1 2
4 f0
h2
f2 2f1 + f0
.
h2
+
4
f
0
0 .
n
k
n
hk dsk
dsk
(167)
(168)
De aqu se obtiene,
f (k) (x)
4k f0
.
hk
(169)
Si consideramos la f
ormula (169) para aproximar f (k) (x) para un x centrado en el intervalo [x0 , xk ]
y si k = 2m, entonces tenemos:
42m f0
.
(170)
f (2m) (xm )
h2m
Si k = 2m1, el intervalo [x0 , x2m1 ] no tiene un punto central tabulado, en este caso se generaliza
el procedimiento adaptado para la estimacion de la primera derivada. Usamos (170) con n = k+1 =
2m, encontrando
1
1
f (2m1) (xm ) 2m1 (42m1 f0 + 42m f0 ).
(171)
h
2
Ya que,
42m f0 = 4(42m1 f0 ) = 42m1 f1 42m1 f0 .
(172)
obtenemos:
f (2m1) (xm )
42m1 f0 + 42m1 f1
.
2h2m1
(173)
1
(f4 2f3 + 2f1 f0 ).
h3
(174)
y
1
(f4 4f3 + 6f2 4f1 + f0 ).
h4
Se pueden obtener otras reglas de derivacion considerando mas terminos en (168)
f (4) (x2 )
90
(175)
M
odulo de clases
Prof. Mara Angelica Vega U.
9.7.
Consiste en buscar una una funcion aproximada que ajuste la forma de la tendencia que siguen los
datos sin pasar necesariamente por los puntos dados. Un modo de hacer esto es determinar una
curva que minimice la diferencia entre los puntos dados y la curva. Este metodo se conoce como
regresi
on por mnimos cuadrados. El caso mas simple de una aproximacion por mnimos cuadrados
es el ajuste de las observaciones mediante una lnea recta. La figura siguiente muestra la mejor
lnea recta.
Regresi
on lineal. Este problema clasico puede enunciarse : Dada una funcion continua f sobre
un intervalo [a, b] y un conjunto de n observaciones (x1 , y1 ), (x2 , y2 ), , (xn , yn ), buscamos una
lnea recta de ecuaci
on
f (x) = a0 + a1 x
tal que la diferencia entre el valor real de y y el valor aproximado obtenido por f (x) sea el menor
posible. Recordemos que se definio el error o residuo entre la funcion y) y su aproximacion como :
e = y a0 a1 x.
C
omo obtener la recta de regresi
on ? La regresion lineal es un metodo poderoso en el sentido
que ajusta los datos a la mejor lnea. Sabemos que este es un problema de optimizacion y debemos
encontrar los valores a0 y a1 de f (x) = a0 + a1 x de modo que la suma
Er =
n
X
(ei )2 =
i=1
n
X
(176)
i=1
sea mnima. Para ello derivamos la ecuacion (176) con respecto a cada coeficiente e igualamos a
cero, de donde tenemos :
Er
a0
= 2
Pn
a0 a1 xi ) = 0
Er
a1
= 2
Pn
a0 a1 xi )xi = 0
i=1 (yi
i=1 (yi
Pn
Pni=1 1
i=1 xi
Pnn
i=1
xi
o equivalentemente
Pn
Pn
a0
yi
i=1
P
Pni=1 x2i
=
n
a1
i=1 xi
i=1 xi yi
Ejemplo 9.2 Ajuste a una lnea recta los siguientes cinco puntos. Que puede decir del error que
se obtiene
P1 (1, 5,12) , P2 (3, 3) , P3 (6, 2,48) , P4 (9, 2,34) , P5 (15, 2,18).
Soluci
on. Determinamos cada uno de los terminos que aparecen en (9.7)
C
alculo de las sumas.
n=5
P5
xi = 34
Pi=1
5
y = 15,12
P5i=1 i2
x
i=1 i = 352
,
,
,
,
P5
xi = 34
Pi=1
5
yi = 15,12
Pi=1
5
x
i yi = 82,76
Pi=1
5
2
y
i=1 i = 51,5928
a0
a1
5
34
34
352
=
15,12
82,76
Usando eliminaci
on gaussiana encontramos los valores del vector a
a0 = 4,15298
a1 = 0,166027.
de donde la ecuaci
on de la recta es:
L(x) = 4,15 0,17 x
Actividades 9.4
i) Encuentre el sistema matricial que se obtiene al ajustar, usando:
f (x) = P (x) = a0 + a1 x + a2 x2 .
ii) Dado un conjunto de m observaciones (x1 , y1 ), ..., (xm , ym ). aproximar los datos con un polinomio de grado n, usando el procedimiento de mnimos cuadrados. Observe que el polinomio
es ahora
n
X
f (x) = P (x) =
ai xi .
i=1
Problema 2. Supongamos que queremos ajustar n datos, P1 (x1 , y1 ), , Pn (xn , yn ) con una funci
on g(x) de dos par
ametros 1 y 2 , es decir
g(x) = 1 1 (x) + 2 2 (x).
Notemos que 1 (x) y ( x) son funciones conocidas elementales de x que no son necesariamente
elementos de una base para los polinomios. Obviamente para encontrar la g(x) que minimiza el
cuadrado de los errores hay que determinar los parametros 1 y 2 . En efecto,
E(g) =
n
X
i=1
92
(177)
n
X
(yi )
i=1
n
X
1 (xi )yi + 2
i=1
n
X
!
2 (xi )yi
(178)
i=1
Para ilustrar este modelo, tomemos el ejemplo 0.2 y ajustemos los datos usando una funcion de
dos par
ametros como sigue.
Ejemplo 9.3 Ajustar mediante el metodo de mnimos cuadrados, los datos del ejemplo 1.15 con
2
una hiperbola desplazada del tipo g(x) = 1 + . Determine el error cometido al ajustar los datos
x
con la recta y con la par
abola.
9.8.
Definici
on 9.2 La norma de una funci
on f que pertenece a alguna clase de funciones continuas
C es una funci
on de C al conjunto de los n
umeros reales no negativos :
|| ||
: C R+
f 7 ||f || 0
ii) R y f C
iii) f, g C
||f || = 0 f = 0
||f || = |||f ||
(179)
93
ii)
(Z
) p1
|f (x)|p dx
||f ||p =
(180)
(181)
(182)
p1
p
N
= max |f (xi )|.
i=0 |f (xi )| dx
0ixN
(183)
94
M
odulo N 9
Profesores : Edgard Shipley - Mara Angelica Vega U.
Erkl
arungen: Zusammengestohlen aus Verschiedenem diesem und jenem
Ludwig van Beethoven.
9.9.
Aproximaci
on de Mnimos Cuadrados Continuos.
Sean Pn (x) =
n
X
ak xk
Z
y E(a0 , ..., an ) =
(184)
k=0
es decir, la funci
on error es,
b
(f (x)
E(a0 , ..., an ) =
a
n
X
ak xk )2 dx.
(185)
k=0
b
2
f (x) dx 2
E(a0 , ..., an ) =
a
n
X
ak
f (x)x dx +
a
k=0
n
X
!2
k
ak x
dx.
(186)
k=0
Luego,
E
aj
= 2
Rb
= 2
Rb
f (x)xj dx +
Rb
a
f (x)xj dx + 2
Pn
k=0
Pn
k=0
ak
ak xk xj dx
Rb
a
xj+k dx = 0 , j = 0, 1, ..., n.
Z
ak
a
xj+k dx =
f (x)xj dx , j = 0, 1, ..., n.
(187)
que es una matriz de Hilbert mal condicionada que produce dificultades con el error de redondeo.
Observemos que al dar valores a j en (??), se obtiene:
j = 0,
R
j = 1,
R
..
.
..
.
j = n, 2
R
b
a
f (x)dx +
b
a
f (x)xdx +
b
a
f (x)xn dx +
k
a
x
dx = 0
k
k=0
R b Pn
a
R b Pn
k=0
R b Pn
a
ak xk xdx = 0
k=0
ak xk xn dx = 0
Ejemplo 9.4 (Burden) Determinar el polinomio de grado dos que aproxima por mnimos cuadrados a la funci
on f (x) = sin (x) en el intervalo [0, 1].
Sol. El sistema (??) queda:
1
2
1
3
1
2
1
3
1
4
1
3
1
4
1
5
a0
R1
0
sin xdx
R1
a1 =
x sin xdx
R1 2
a2
x sin xdx
0
2 4
3
El polinomio aproximante de grado dos para f (x) = sin (x) en el intervalo [0, 1] es
P2 (x) = 0,050465 + 4,12251x 4,12251x2
9.9.1.
M
etodo Generalizado
Podemos usar en lugar de la base canonica para polinomios,{1, x, x2 , ..., xn } , cualquier base de
familia de polinomios ortogonales en el intervalo [a, b] respecto de una funcion peso w(x). Para ello
debemos tener presente los siguientes conceptos:
Definici
on 9.3 Un espacio con producto interno (E.P.I.) es un (E, h , i) donde:
hf, hi = hh, f i
hf, ah + bgi = ahf, hi + bhf, gi
hf, f i = ||f ||2 > 0
96
Si f g
|hf, gi|
= ||f ||||g||
Teorema 9.1 Sea G un subespacio de un espacio con producto interno E. Para toda f E , g G
son equivalentes las proposiciones:
i) g es una mejor aproximaci
on a f G
ii) f g G
si
hf g, hi = 0
Definici
on 9.4 Si B = {0 , 1 , 2 , ..., n } es una base de los polinomios ortogonales en [a, b]
respecto de w(x) se cumple:
(
Z b
0,
si j 6= k
hj , k i =
w(x)j (x)k (x)dx =
k , si j = k
a
Observaci
on 9.1 Recordemos que,
Un conjunto de funciones 0 , 1 , ..., n es linealmente independiente en [a, b] si
n
X
j=0
2
Z b
Z b
n
X
E(c0 , ..., cn ) =
w(x)[f (x) Pn (x)]2 dx. =
w(x) f (x)
cj j dx.
(188)
a
97
j=0
Pn
j=0 cj hj , i i
Rb
a
Rb
a
p
||f ||2 = hf, f i =
(189)
! 21
b
2
(x)f (x) dx
.[a, b]
(190)
2
x = 1 (x) 2 = 1 (x) 0 (x)
3
y
2
x2 = 2 (x) 4(1 (x) 0 (x)) + 20 (x)
3
Luego,
P (x) = a
1
2
14
0 (x) + b 1 (x) 0 (x) + c 2 (x) 41 (x) + 0 (x)
3
3
3
y
P (x) =
1
(a 2b + 14)0 (x) + (b 4c)1 (x) c2 (x)
3
Proceso de Gramm-Schmidt
Existe un metodo para generar una familia de polinomios ortogonales en un intervalo dado, respecto
de una funci
on peso (x). Este metodo es el llamado metodo de Gramm-Schmidt que consiste en
determinar los polinomios de la siguiente manera:
98
1. 0 (x) = 1
1 (x) = (x B1 )0 (x)
Bk = R b
a
Rb
(x)x2k1 (x)dx
(x)2k1 (x)dx
Ck =
(x)xk1 (x)k2 dx
Rb
(x)2k2 (x)dx
a
Ejemplo 9.6 Los polinomios de Legendre son ortogonales en [1, 1] con funci
on peso (x) = 1 y
se define 0 (x) = 1. Aplicando la f
ormula anterior recursivamente, se obtiene
1 (x) = x , 2 (x) = x2
1
3
, 3 (x) = x2 x
3
5
.
Ejemplo 9.7 Encontrar la aproximaci
on de mnimos cuadrados de grado dos, de la funci
on f (x) =
ex con x [1, 1] usando polinomios de Legendre.
Sol.: Sea P2 (x) = a0 (x) + b1 (x) + c2 (x) el polinomio que minimiza ||f P2 ||22 . En este caso
las ecuaciones que determinan los coeficientes son:
R1
ex 0 (x)dx
1
R1 2
(x)dx
1 0
a =
R1
b
ex 1 (x)dx
1
R1 2
(x)dx
1 1
R1
= 1
R1
ex xdx
R1
R1
ex 2 (x)dx
1
R1 2
(x)dx
1 2
1
1
[ex ]11 = (e e1 )
2
2
x2 dx
3(2)
3
= = 3e1
2e
e
ex (x2 31 )dx
15
dx =
(e 7e1 )
R1
1
2
4
(x
)
3
1
El polinomio cuadr
atico que minimiza la aproximaci
on por mnimos cuadrados es:
P2 (x)
15
4 (e
7e1 )2 (x)
En el gr
afico, se muestra la funci
on y su aproximaci
on : El error es 0,001440569656, luego ||ex
1
P2 (x)||2 = 0,3795483706e
99
(x + 1)2
4
t=
adem
as
x+1
2 ,
P0 (x) = 1
P1 (x) = x
Usando (4)
ak
a0
a1
2k + 1
2
1
=
2
3
2
1
1
y(x)Pk (x)dx
1
(x + 1)2
1
dx =
4
3
(x + 1)2
1
xdx = .
4
2
Luego,
y(x) =
1
1
1 x
P0 (x) + P1 (x) = +
3
2
3 2
100
y
y(t) = t
1
6
Ejemplo 9.9 Dada f (x) = e2x en [1, 3]. Determinar la mejor aproximaci
on a
g(x) = a + bx2 + cx4 .
Sol. La base {1, x2 , x4 } genera el subespacio G E, consideremos g G , f E y recordemos
que
hf g, hi = 0 hf, hi = hg, hi.
Si h = 1, x2 , x4 entonces,
h=1
, he2x , 1i
= ha + bx2 + cx4 , 1i
R3
e2 dx
0,0664
, he2x , x2 i
R3
1
R3
1
bx2 dx +
R3
1
x2 dx + b
R3
1
cx4 dx
x4 dx + c
, he2x , x4 i
= ha + bx2 + cx4 , x4 i
e2 x4 dx = a
0,4967
R3
1
cx6 dx
26
a + 48,4b + 312,92c
3
0,153
R3
R3
= ha + bx2 + cx4 , x2 i
=a
h = x4
adx +
3
x3 3
x5
= 2a + b 1 + c .
3
5 1
26
= 2a + b + 48,4c
3
e2x 3
2 1
h = x2
R3
R3
1
x4 dx + b
R3
1
x6 dx + c
R3
1
cx8 dx
Resolviendo el sistema
a = 0,144
2
b = 0,045
c = 0,0034
Sistemas Ortonormales.
Definici
on 9.5 Un conjunto {1 , , n } es ortonormal ssi hi , j i = ji
Teorema 9.2 Sea {1 , 2 , , n } un sistema ortonormal
en un E.P.I. que denotaremos (E, h, i).
Pn
La mejor aproximaci
on a f mediante un elemento i=1 ci i se obtiene ssi ci = hf, i i.
hf
n
X
ci i , j i = hf, j i
i=1
n
X
ci hi , j i = hf, i i ci = 0
i=1
n
X
con
{i (x)}
base ortonormal.
i=1
ci hi , j i =
i=1
n
X
ci i
i=1
2
2
3
11
Sol.
i) Determinamos cada ci , i = 1, 2, 3
q R
q
1
c1 = 32 1 x sen (x)dx = 2 32 (sen (1) cos(1))
c2
c3
q R
7 1
2
11
2
7
2 (18 sen (1)
28cos(1))
q
11
5
3
(63x
70x
+
15x)
sen
(x)dx
=
2
2 (4320 sen (1) 6728cos(1))
1
R1
9.9.3.
1.
Proceso de ortonormalizaci
on de Gramm-Schmidt.
Definimos
u1 =
2.
v1
,
||v1 ||
luego ||u1 || = 1 , w1 = u|
3.
v2 hv2 , u1 iu1
w2
=
||w2 ||
v2 hv2 , u1 iu1
w3
||w3 ||
Generalizamos a un =
wn
con
||wn ||
P
hf (x), gi (x)igi (x). Para ello
Se debe ortonormalizar, para obtener g1 (x) y g2 (x) respecto a = {v1 (x) = x, v2 (x) =
3x2 + 1}
103
g1 (x) =
v1 (x)
,y
||v1 (x)||2
3
||v1 (x)||22
26
3
x2 dx =
x3 3
26
| =
3 1
3
y
r
x
g1 (x) = q
26
3
g2 (x) =
1 (v1 (x)) dx =
3
x
26
w2 (x)
, donde w2 (x) = v2 (x) hv2 (x), g1 (x)ig1 (x)
||w2 (x)||2
r
(3x + 1)
1
3
26 x
3
xdx = 21,74
26
Falta determinar
||w2 (x)||22
Z
=
[(3x + 1) 21,74
(w2 (x)) dx =
1
3 2
x] dx = 16,98
26
16,98 y
g2 (x) =
q
3
(3x2 + 1) 21,74 26
x
4,12
R3
1
e2x
3
26 xdx
= 0,033
q
3
(3x + 1) 21,74 26
x
hf (x), g2 (x)i =
R3
1
2x
4,12
xdx = 0,045
3
(3x2 + 1) 21,74 26
x
3
x 0,045
26
4,12
104
M
odulo N 10
Profesores : Mara Angelica Vega U.
Erkl
arungen: Zusammengestohlen aus Verschiedenem diesem und jenem
Ludwig van Beethoven.
10.
10.0.4.
Aproximaci
on Minimax.
Caso Discreto.
Problema Este problema no es directo como el metodo de mnimos cuadrados. Por ejemplo si
1
queremos encontrar el polinomio minimax P1 (x) = a0 + a1 x que aproxima a f (x) = x 2 en un
intervalo [ 14 , 1]
1
4 x1
a0 + a1 2
a0 + a1 1
1
4
, x = 1 y en alg
un
= E
= E.
a1
4
( 14 ) 2
a0 + a1 1
=E
= E.
De aqu,
9
17
1
2
, =
, a=
, E=
3
16
48
48
17 2
1
Luego la mejor aproximaci
on es y(x) =
+ x, que aproxima con un error no mejor que
.
48 3
48
b=
10.1.
Algoritmo de Remez.
1in+2
(191)
para determinar un n
umero real e y un polinomio p Pn .
Paso 3. Cambiar el conjunto X, de la siguiente manera:
Cuando [a, b] es [1, 1], una forma com
un de elegir el conjunto X en paso 1 es el conjunto de puntos extremos de Tn+1 . Para este conjunto inicial, el paso 2 da el polinomio
minimax inmediatamente cuando f (x) = xn+1 . En el caso general las ecuaciones lineales
del paso 2 siempre tienen una u
nica solucion.
Para llevar a cabo el paso 3, necesitamos primero estimar ||f p|| , donde p Pn es
el polinomio que ha sido calculado en el paso 2.
Si ||f p|| es suficientemente cercana a |e| entonces por teorema 4.3 p es proximo al
polinomio minimax y terminamos el proceso iterativo.
De otra forma, sea un punto tal que
|f () p()| = ||f p|| .
Incluimos el punto en el conjunto X y borramos uno de los puntos existentes de modo
que f p tenga signos alternados sobre los (n + 2) puntos de X.
Si est
a entre a y x1 , descartamos x1 o xn+2 y anaalogamente si esta entre xn+2 y b,
descartamos x1 o xn+2 . De otra forma, esta entre dos xi consecutivos y en este caso
descartamos uno de ellos apropiadamente.
1
Ejemplo 10.1 Encontrar el polinomio minimax de grado 2, para f (x) = ( 83 x + 58 ) 2 en [1, 1].
Sol. Escogemos X = {1, 0,5, 0,5, 1} inicialmente, los puntos extremos de T3 y resolvemos el
sistema de ecuaciones lineales (??) de donde obtenemos:
p(x) = 0,79188 + 0,24665x 0,04188x2
|e| = 0,00335
(192)
|e| = 0,00350
(193)
Encontramos que ||f p|| = 0,00350 con 5 cifras decimales y por lo tanto aceptamos este p como
polinomio minimax.
106
10.1.1.
Caso Continuo.
En los espacios con Producto Interno (E.P.I.)se pueden definir las siguientes normas:
1.
.
2.
w(x)f 2 (x)dx.
||f ||2 =
a
3.
Norma 1.
b
Z
||f ||1 =
w(x)|f (x)|dx.
a
4.
Problema 10.1
i) Determinar || x||2 .
ii) Hallar un polinomio g(x) = a0 + a1 x ortogonal a f (x) = 1.
|| x||2 = h x, xi =
x ln |x|dx =
1
e2
e2
1
+ .
2
4
4
ii)
hg(x), f (x)i = 0
g(x)f (x)
Re
1
a0 1 ln |x|dx + a1
a0
Re
1
ln |x|dx + a1
a0 + a1
107
Re
1
Re
1
x 1 ln |x|dx = 0
x ln |x|dx = 0
e2
e2
1
+
2
4
4
=0
e2
e2
1
+
2
4
4
e2
e2
1
4
2
4
a0 = a1
e2
e2
1
4
2
4
,
+ a1 x es ortogonal a 1.
f (1) f (0)
= 21
1
a0
c
1 + f (c)
( 2 1)
2
2
x
c
f 0 (c) =
2
1+x
1 + c2
c
c
= 21
= 0,42 c = 0,455 f (c) = 1,0986
1 + c2
1 + c2
luego,
a0 =
1 + 1,0986
2
( 2 1)
1,0986
2
= 0,955
108
109
10.2.
en
[1, 1]
es
, k = 0, 1, 2, 3, 4
4
De aqu,
1
1
yk = 1 , p , 0 , p , 1
(2)
(2)
Tambi
en por el corolario 1, la aproximaci
on mnimax por un polinomio c
ubico a la
funci
on f (x) = x4 es p3 (x) = x4 (x4 x2 + 0,125) = x2 0,125.
110
El error f (x)p3 (x) tiene la propiedad alternante en los puntos yk , obtenidos anteriormente. Se debe destacar que x2 0,125 es una aproximaci
on polinomial cuadr
atica a la
funci
on x4 en [1, 1] y tambi
en presenta cinco extremos. El teorema de la alternancia
se cumple en n + 3 puntos.
El teorema se
nala que la alternancia de los signos se cumple para a lo menos n + 2
puntos.
Si el intervalo de aproximaci
on es [0, 1] en vez de [1, 1], se debe redefinir los polinomios
de Tchebyshev a dicho intervalo. Estos polinomios trasladados se denotan por Tn (x) y
su recorrido es [0, 1]. Para obtener Tn (x) a partir de Tn (x) se debe efectuar un cambio
de intervalo, usando la transformaci
on:
s = 2x 1
o bien
x=
1
(1 + s) , x [0, 1] , s [1, 1]
2
Se obtiene:
Tn (x) = Tn (s) = Tn (2x 1)
Luego:
T0 (x) = 1 , T1 (x) = x , T2 (x) = 8x2 8x + 1 , T3 (x) = 32x3 48x2 + 18x 1
y as sucesivamente. En general el polinomio m
onico de aproximaci
on mnimax de
grado n a cero es
212n Tn (x)
Por ejemplo el polinomio de aproximaci
on mnimax de grado dos a la funci
on cero en
[0, 1] es:
23 T2 (x) = 23 (8x2 8x + 1) = x2 x + 0,125
Ejemplo 10.4 Ilustrativo.(Aproximaci
on Minimax en una base ortonormal.)
2x
Sea f (x) = e
con x [1, 3] encontrar la mejor aproximaci
on a f (x) respecto de la
base = {x + 1, x2 } con w(x) = ex en || || .
Sol.
Se debe ortonormalizar, para obtener g1 (x) y g2 (x) respecto a .
g1 (x) =
v1 (x)
x+1
=
, y
||v1 (x)||
||v1 (x)||
||v1 (x)|| = max |v1 (x)| = 4 g1 (x) =
x[1,3]
g2 (x) =
x+1
4
w2 (x)
, donde w2 (x) = v2 (x) hv2 (x), g1 (x)ig1 (x)g1 (x)
||w2 (x)||
Z
hv2 (x), g1 (x)i =
1
ex x2
x+1
17 3 1
dx =
e + e = 86,04
4
4
4
111
x+1
.
4
Falta determinar
||w2 (x)|| = max |w2 (x)| = max |x2 86,04
x[1,3]
x[1,3]
x 86,04
|
4
4
x 86,04
entonces
4
4
p02 (x) = 2x
86,04
= 0 x = 10,755
4
| = 42
4
4
y
x+1
x2 86,04
4
g2 (x) =
42
Luego, la mejor aproximaci
on es
g(x) = hf (x), g1 (x)ig1 (x) + hf (x), g2 (x)ig2 (x)
x+1
dx = 0,21
4
2
R3
x 86,04 x+1
4
dx = 0,41
hf (x), g2 (x)i = 1 e2x ex
42
hf (x), g1 (x)i =
R3
1
e2x ex
x+1
x 0,41
4
112
x2 86,04 x+1
4
42
10.3.
Potencias de xn en t
erminos de {Tn (x)}
1n
x =2
X n
Tn2k (x).
k
(194)
k=0
= 23
4
T42k (x)
k=0
k
P2
4
4
T2 (x) + 21
T0 (x)
1
2
= 81 T4 (x) + 12 T2 (x) + 38 T0 = (x)
= 23 [T4 (x) +
Esto u
ltimo se usa en la Economizaci
on de Tchebyshev cuando una funci
on se aproxima por Taylor (Maclaurin) hasta un cierto grado y se rebaja dicho grado manteniendo
un cierto orden de exactitud.
Ejemplo 10.6 f (x) = e(x) en [1, 1], con un error tolerable de 0,05, reemplazando el
t
ermino del desarrollo que contiene a x4 por los polinomios de Tchebyshev de grado
menor o igual a 4.
113
M
etodo de Diferencias Finitas
Prof: Mara Ang
elica Vega U.
M
odulo 12
12.
Resoluci
on Num
erica del Problema de Valor
de Contorno de orden 2.
196
torno (P.V.C)
y 00 (x) = P (x)y 0 (x) + Q(x)y(x) + r(x) ,
0x1
(211)
y(0) = 0.
y(1) = 0.
con P (x), Q(x), r(x), funciones continuas en un intervalo abierto I.
Observemos que en el problema (211), la ecuacion diferencial es no homogenea con coeficientes variables.
12.1.
M
etodo de diferencias finitas.
i = 0, 1, , N + 1
(212)
donde,
h=
1
N +1
i = 0, 1, , N + 1.
(213)
197
Existen varias formas de aproximar las derivadas, pero es recomendable usar diferencias centradas , puesto que resulatan aproximaciones
mejores,
y 00 (xi ) =
y 0 (xi )
y(xi+1 ) y(xi1 )
=
.
2h
(214)
Reemplazamos las expresiones de (214) en (213), simplificamos la notacion escribiendo yi en lugar de y(xi ) y reordenamos los terminos de
la ecuacion en la siguiente forma :
h
h
2
r(xi )h = 1 + p(xi ) yi1 +(2+h Q(xi ))yi 1 p(xi ) yi+1 , i = 1, , N.
2
2
2
(215)
Observaci
on 12.1 Observemos que (215) es un sistema de ecuaciones lineales, cuyas inc
ognitas son los valores de la soluci
on aproximada evaluada en los siguientes puntos (extremos de intervalos),
xi
i = 1, , N.
2 0
(y 2) ,
t
1
y( ) = 3 ,
2
198
y(1) = 3
Soluci
on. Notemos que en esta ecuaci
on P (t) =
2
4
, Q(t) = 0 , r(t) = .
t
t
La ecuaci
on (215) en forma discreta queda,
h
8h2
h
yi1 (4 + 2h2 0)yi + 2 + 2
yi+1 =
, i = 1, , N.
22
ti
ti
ti
(216)
Si tomamos h = 0,1, tenemos que t0 = 0,5 , t1 = 0,6 , t2 = 0,7 , t3 = 0,8 y
t4 = 0,9 , t5 = 1,0. Sustituimos en (216) y obtenemos el sistema matricial :
5
73
8
0
0 y1
2( ) 3
4
60
15
12
16
8
4
4
0
y2
7
70
7
; =
= 35
1
7
8
9
4
0
y3
10
4
4
80
10
16
8
269
4
2( ) 3
.
0
0
y4
9
90
9
45
7
3
(217)
De aqu la soluci
on aproximada es,
y1 =
16
57
262
43
, y2 =
, y3 =
, y4 =
15
7
20
90
Actividades 12.1
con
con
y(0) = 2.
y(1) = 1.
use h=0.25 y compare los resultados con la soluci
on exacta.
200
Observaci
on 15.2 Este tema ha sido desarrollado, usando el texto Metodos
Numericos para Ingenieros. Steven C. Chapra - Raymond P.Canale
16.
Ecuaciones elpticas.
16.1.
La ecuaci
on de Laplace
4x
4x
y el segundo por
4y
4y
se obtiene
(248)
q
q
=0
x y
(249)
T
t
(250)
donde,
cal
qi es el flujo de calor en la direccion de la dimension i [ cm
2 s ]
k es el coeficiente de difusividad t
ermica
es la densidad del material
cm2
s
g
cm3
224
H
CV
donde,
H es el calor (cal)
V es el volumen en cm3
(251)
cal
donde, k 0 es el coeficiente de conductividad t
ermica [ scm
C ]. En ambos
casos k y k 0 son parametros que determinan, que tan bien el material conduce
calor.
La ley de Fourier se conoce tambien como ecuaci
on constitutiva, debido a que proporciona un mecanismo que define las interacciones internas
del sistema. Inspeccionando la ecuacion (250) indica que la ley de Fourier especifica que el flujo de calor perpendicular al eje i es proporcional a gradiente
o pendiente de la temperatura en la direccion i. El signo negativo asegura
que un flujo positivo en la direccion i resulta de una pendiente negativa de
alta a baja temperatura. En la figura 13 se ilustra la representacion grafica
de un gradiente de temperatura, recpordamos que el calor se transfiere hacia
abajo, desde una temperatura alta a una baja, el flujo en a) va de izquierda
225
Figura 13:
T
i
<0
Figura 14:
T
i
>0
se obtiene,
2T
2T
+
=0
x2
y 2
(252)
226
(253)
16.2.
Soluci
on Num
erica
(xm+1, yn+1 )
yj+1
(xi , yj+1 )
yj
(xi , yj )
yj1
(xi , yj1 )
x1
xi1
xi
(x0 , y0 )
xi+1 (xm+1 , y0 ) X
227
16.2.1.
La Ecuaci
on de Laplace.
(254)
(255)
(256)
(257)
Esta relacion, que se satisface por todos los puntos interiores de la placa, se
conoce como ecuaci
on laplaciana en diferencias. Debemos ademas especificar las condiciones de frontera en los extremos de la placa para obtener
una solucion u
nica. El caso mas simple es aquel donde la temperatura en la
frontera es un valor fijo. Este tipo de condicion se denomina condici
on de
frontera de Dirichlet. En la figura siguiente , se tiene una placa con este
tipo de condicion. En esta figura un balance en el nodo (1, 1) es de acuerdo
228
(258)
229
T21
T12
T11 +4T21
T31
T21
+4T31
T11
T21
T22
T32
+4T12
T22
T12
+4T22
T32
T22
+4T32
T31
T13
T12
T23
T33
4T13
T22
T23
T13 +4T23
T32
T23
75
50
75
50
= 175
T33
= 100
+4T33 = 150
(259)
16.2.2.
El m
etodo de Liebmann.
230
(260)
0 + 75 + 0 + 0
= 18,75,
4
(261)
aplicando sobrerrelajaci
on se obtiene,
T11 = 1,5(18,75) + (1 1,5)0 = 28,125
(262)
Para i = 2 , j = 1
T21 =
0 + 28,125 + 0 + 0
= 7,03125
4
(263)
Para i = 3 , j = 1
T31 =
50 + 10,54688 + 0 + 0
= 15,13672
4
(264)
(266)
32,51953 28,12500
|100 % = 13,5 %
32,51953
(267)
La novena iteraci
on da como resultado:
T11 = 4300061
(268)
16.3.
Condiciones en la frontera.
(269)
Observese que para aesta ecuacion se necesita un punto (1, j) que esta fuera
de la placa. Aunque parezca un pun to ficticio sirve para incorporar la derivada de la condicion de frontera en el problema, lo que se logra representando
la primera derivada en la dimension x en (0, j) por la diferencia dividida
finita
T1,j T1,j
T
=
x
24x2
(270)
despejando
T1,j = T1,j 24x
T
x
(271)
Ahora tenemos una relacion para T1,j que incluye la derivada, sustituyendo
en la relacion (269) se obtiene
2T1,j 24x
T
+ T0,j+1 + T1,j1 4T0,j = 0
x
234
(272)
Ecuaciones Hiperbolicas.
Prof. Mara Angelica Vega U.
Modulo 16
18.
La ecuaci
on de ondas.
0<t<b
(293)
0<t<b
(294)
u(a, t) = 0
0 t b,
u(x, 0) = f (x)
0 x a,
ut (0, t) = g(x)
0 < x a,
(295)
La ecuacion de ondas modela el desplazamiento u desde su posicion de equilibrio de una cuerda elastica vibrante cuyos extremos, de coordenadas x = 0
y x = a estan fijos. Aunque es posible determinar la solucion de ondas
por medio de las series de Fourier, se usara este problema como modelo de
ecuaciones hiperbolicas.
248
18.1.
Construcci
on de la ecuaci
on en diferencias.
tj1
xi1
xi
xi+1
xn
(296)
y
uxx (x, t) =
(297)
xi+1 = xi + h
y xi1 = xi h
tj+1 = ti + k
y tj1 = tj k
(298)
ck
, luego tenemos:
h
(299)
250
(300)
ui,j1
r2 ui1,j
r2 ui+1,j
(2 2r2 )ui,j
ui,j1
18.2.
Condiciones Iniciales
251
(301)
ui,2 = fi + kgi
para
i = 2, 3, , n 1
(302)
252
(304)
u(xi , k) = fi + kgi +
Como r =
ck
h,
(305)
para i = 2, 3, n 1
(306)
(307)
u(1, t) = 0
0 t 0,5,
0 x 1,
ut (x, 0) = g(x) = 0
0 x 1,
(308)
2(0,05)
0,1
= 1. Como g(x) = 0 y r = 1, la f
ormula (306) para calcular los
ui,2 =
fi1 + fi+1
,
2
253
para i = 2, 3, 9
(309)
Sustituyendo r = 1 en la ecuaci
on (299) obtenemos la ecuaci
on en diferencias ya simplificada
(310)
Tabla de aproximaciones
254
(311)
tj
x2
x3
x4
x5
x6
x7
x8
x9
0,00
0,896802
1,538842
1,760074
1,538842
1,000000
0,363271
0,142040
0,05
0,769421
1,328438
1,538842
1,380037
0,951056
0,428980
0,000000
0,10
0,431636
0,769421
0,948401
0,951056
0,809017
0,587785
0,360616
0,1
0,15
0,000000
0,051599
0,181636
0,377381
0,587785
0,740653
0,769421
0,6
0,20
0,380037
0,587785
0,519421
0,181636
0,309017
0,769421
1,019421
0,9
0,25
0,587785
0,951056
0,951056
0,587785
0,000000
0,587785
0,951056
0,9
0,30
0,571020
0,951056
1,019421
0,769421
0,309017
0,181636
0,519421
0,5
0,35
0,363271
0,639384
0,769421
0,740653
0,587785
0,377381
0,181636
0,40
0,068364
0,181636
0,3606161
0,587785
0,809017
0,951056
0,948401
0,45
0,181636
0,210404
0,000000
0,428980
0,951056
0,380037
0,538842
0,50
0,278768
0,363271
0,142040
0,363271
1,000000
1,538842
1,760074
255
Ecuaciones Parabolicas.
Prof. Mara Angelica Vega U.
Modulo 15
17.
La ecuaci
on de conducci
on de calor.
Analogamente a la deduccion de la ecuacion de Laplace, se puede utilizar la conservacion del calor para desarrollar un balance de calor en una
barra larga aislada como en la siguiente figura Ademas de examinar el ca-
235
es decir,
(273)
(274)
tomando lmite,
T
q
= C
x
t
(275)
2T
T
=
x2
t
(276)
236
6
6
yj+1
(xi , yj+1 )
yj
(xi , yj )
yj1
(xi , yj1 )
xi
(x0 , y0 )
xi1
xi+1 (xm+1 , y0 ) X
17.0.1.
M
etodos Explcitos
(277)
(278)
(279)
j
j
Tij+1 = Tij + (Ti+1
2Tij + Ti1
)
(280)
de donde resulta
donde = k
4t
. Esta ecuacion permite calcular explcitamente los val(4x)2
239
17.0.2.
Convergencia y estabilidad
1
2
o
4t
17.0.3.
1 4x2
2 k
(281)
17.1.
Un m
etodo implcito simple
241
(282)
que tiene una exactitud de segundo orden. Al sustituir en la ecuacion original, se obtiene
j+1
j+1
Ti+1
2Tij+1 + Ti1
Tij+1 Tij
k
=
(4x)2
4t
(283)
donde =
(284)
k4t
. Esta ecuacion se aplica a todos los nodos excepto al
(4x)2
primero y al u
ltimo de los nodos interiores, los cuales se modifican al considerar las condiciones de frontera. La condicion de frontera en el extremo
izquierdo de la barra (i = 0) se expresa:
T0j+1 = f0 (tj+1 )
(285)
donde f0 (tj+1 ) es una funcion que describe como cambia con el tiempo
la temperatura de la frontera. Sustituyendo (285) en (284) se obtiene la
ecuacion en diferencias para el primer nodo interior (i = 1)
(1 + 2)T1j+1 T2j+1 = T1j + f0 (tj+1 )
242
(286)
Analogamente para (i = m)
j+1
j+1
j
+ fm+1 (tj+1 )
Tm1
+ (1 + 2)Tm
= Tm
(287)
donde fm+1 (tj+1 ) describe los cambios especficos de temperatura en el extremo derecho de la barra (i = m + 1). observamos que el sistema resultante
de m ecuaciones lineales con m incognitas es tridiagonal.
Ejemplo 17.2 Resolver el ejemplo anterior usando diferencias finitas implcitas. Para este caso = 0,020875 .
para t = 0 la ecuaci
on para el primer nodo interior es
1,04175T11 0,020875T21 = 0 + 0,020875(100)
o
1,04175T11 0,020875T21 = 2,0875
An
alogamente,
1
T1
0,020875
0
0
2,0875
1,04175
0,020875
1
1,04175
0,020875
0
T2 0
0
0,020875
1,04175
0,020875 T3 0
1
1,04375
T4
0
0
0,020875
1,04175
243
En t = 0,1 seg
T11 = 2,0047
T21 = 0,0406
T31 = 0,0209
T41 = 1,0023
En t = 0,2 seg
T12 = 3,9305
T22 = 0,1190
T32 = 0,0618
T42 = 1,9653
El metodo implcito descrito es estable y convergente, pero tiene la desventaja que la aproximacion en diferencias temporal tiene una exactitud de primer
orden y con diferencia espacial de oreden 2. Hay que mencionar que aunque
este metodo es incondicionalmente estable hay un lmite de exactitud para
el uso de pasos tiempo grande. Por tanto no es mucho mas eficiente que los
metodos explcitos para la mayora de los problemas variables en el tiempo.
17.2.
El m
etodo de Crank-Nicholson
244
como para la temporal. Para alcanzar esta exactitud en el tiempo se desarrollan diferencias en el punto medio del incremento tiempo, por lo tanto la
1
(288)
(289)
donde =
(290)
k4t
. Como en el caso del metodo implcito simple, se determi(4x)2
j+1
nan las condiciones de fronteea T0j+1 = f0 (tj+1 ) y Tm+1
= fm+1 (tj+1 ) para
245
(291)
y para el u
ltimo nodo interior
j+1
j
j+1
j
Tm1
+ 2(1 + )Tm
= fm+1 (tj ) + 2(1 )Tm
+ Tm1
+ fm+1 (tj+1 )
(292)
observamos que los sistemas de ecuaciones involucrados son tridiagonales,
lo que hace eficiente el proceso.
1
T 1
0,020875
0
0
4,175
2,04175
0,020875
1
2,04175
0,020875
0
T 2 0
0
0,020875
2,04175
0,020875 T3 0
1
0
0
0,020875
2,04175
T4
2,0875
En t = 0,1 seg
T11 = 2,0450
T21 = 0,0210
T31 = 0,0107
T41 = 1,0225
246
247