2-Soluciones de Sistemas de Ecuaciones

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 20

2.

-SOLUCIONES DE SISTEMAS DE ECUACIONES

COMPUTACION II
GRADO DE FISICAS
Universidad Autónoma de Madrid

Dr. Pablo Luis Pernas

Lunes 11:30 -13:30


Empecemos con un ejemplo. El circuito de la figura de debajo se llama puente de Wheatstone y fue

inventado por el físico inglés Charles Wheatstone (1802-1875) y es un circuito especialmente preciso para

medir resistencias. Aun con un circuito tan simple aplicando las simples leyes de Kirchhoff y la ley de

Ohm, resolverlo de manera exacta, si la corriente no esta balanceada, implica un sistema ecuaciones e

incógnitas grande y complicado.


SISTEMAS LINEALES:
MÉTODOS DIRECTOS Y MÉTODOS ITERATIVOS

2.1 Métodos numéricos directos

Eliminación Gauss (y/o Gauss-Jordan)


Método de factorización LU

2.2 Métodos numéricos iterativos

Método de Jacobi
Método de Gauss-Seidel
Eliminación de Gauss/Gauss-Jordan

En matemáticas, la eliminación gaussiana o reducción de filas, es un algoritmo para resolver sistemas de


ecuaciones lineales que podemos escribir de manera compacta matricialmente como Ax = B.

La eliminación de Gauss consiste en una secuencia de operaciones realizadas sobre la correspondiente matriz
de coeficientes A. Este método también se puede utilizar para calcular el rango, el determinante y el inverso
de una matriz invertible. El método lleva el nombre de Carl Friedrich Gauss (1777–1855), aunque los
matemáticos chinos conocían algunos casos especiales del método, aunque presentados sin pruebas, ya
alrededor del 179 d. C.
Supongamos que tenemos un sistema de ecuaciones lineales especial llamado triangular superior:

5x1 + 3x2 – 2x3 = -3


6x2 + x3 = -1 Se ve que es fácil de resolver sacando x3 y así hasta la primera ecuación
2x3 = 10

Entonces el procedimiento de Gauss sería que la matriz original A sea triangular superior mediante

operaciones entre renglones y al final, hacer sustitución hacia atrás de las incógnitas, obteniendo la

solución .

Gauss: cuando se obtienen soluciones mediante la reducción del sistema dado a otro equivalente en el que

cada ecuación tiene una incógnita menos que la anterior.

https://en.wikipedia.org/wiki/Gaussian_elimination
Método de factorización LU

Dado el sistema lineal de ecuaciones Ax = B, queremos ahora factorizar A = LU, donde L y U son dos matrices

triangulares (inferior y superior, respectivamente).

Una matriz cuadrada A, no singular, puede resolverse como el producto de una matriz triangular inferior (L) y una

matriz triangular superior (U) de infinitas formas. Las más utilizadas son:

Método de Doolittle: unos en la diagonal de L. A = LU

Método de Crout: unos en la diagonal de U. Entonces LUx = b , si z = Ux


Tenemos Lz=b
Método de Choleski: los elementos diagonales de L y U tienen que ser iguales.

De esta forma nuestro sistema original se puede descomponer en dos sistemas lineales triangulares fáciles de

resolver por sustitución regresiva y progresiva respectivamente.

https://en.wikipedia.org/wiki/LU_decomposition
• MÉTODO DE CROUT:
UNOS EN LA DIAGONAL DE U.
Sistemas fáciles de resolver

Analizaremos previamente un sistema que sea fácil de resolver. Por ejemplo, supongamos que la matriz A de nxn presenta
estructura diagonal. El sistema de ecuaciones toma por tanto la forma

En este caso el sistema se reduce a n ecuaciones simples y la solución es:


Continuando con la búsqueda de sistemas con soluciones fáciles, supongamos ahora que A tiene una
estructura triangular inferior L, es decir, todos los elementos de A, distintos de cero se sitúan bajo la
diagonal principal:

Es fácil ver que el valor de x1 se obtiene directamente a partir de la primera ecuación. Sustituyendo el valor
conocido de x1 en la segunda ecuación es posible obtener el valor de x2. Procediendo de la misma forma para
el resto de las ecuaciones, es posible obtener todos los valores x1 , x2, x3, ..., xn uno tras otro y en ese orden. El
algoritmo formal para encontrar la solución se denomina sustitución progresiva y se puede expresar como:
Se puede emplear el mismo razonamiento para el caso en que la estructura de la matriz A sea triangular
superior. En este caso el sistema matricial adopta la forma:

y es posible obtener las soluciones en el orden xn, xn-1, ..., x1, que denominados algoritmo de sustitución
regresiva:
La factorización LU:

El análisis anterior nos muestra lo fácil que es resolver estos dos sistemas de ecuaciones triangulares y

lo útil que resultaría disponer de un método que nos permitiera llevar a cabo la factorización A=LU

Si disponemos de una matriz A de nxn, estamos interesados en encontrar aquellas matrices:

Tal que sea A = LU


Entonces en LUx=b hacemos z=Ux
Tenemos Lz=b

1. Primero obtenemos z aplicando el algoritmo de sustitución progresiva en la ecuación.


2. Posteriormente obtenemos los valores de x aplicando el algoritmo de sustitución regresiva
El análisis anterior nos muestra lo fácil que es resolver estos dos sistemas de ecuaciones triangulares

Para deducir un algoritmo que nos permita la factorización LU de A, partimos de la fórmula para la multiplicación de
matrices:

donde nos hemos valido del hecho de que lis=0 para s > i y usj = 0 para s > j

En el paso k, podemos suponer que ya se calcularon las filas 1,2,…k-1 de U y las columnas 1,2, ..k-1 de L.
Haciendo i = j = k en la ecuación anterior:
Si especificamos un valor para lkk (o para ukk), a partir de la ecuación anterior es posible determinar un valor
para el otro término. Conocidas ukk y lkk y a partir de la ecuación podemos escribir las expresiones para la k-ésima
fila (i=k) y para la k-ésima columna (j=k), respectivamente:

Es decir, las ecuaciones se pueden emplear para encontrar los elementos ukj y lik.

El algoritmo basado en el análisis anterior se denomina factorización de Doolittle, cuando se toman los
términos lii = 1 (L triangular inferior unitaria) y factorización de Crout cuando se toman los términos uii = 1
(U triangular superior unitaria). Y Método de Choleski, iguales, lii = uii .
Inconvenientes al operar con método directos:

(1) → Generación de números muy grandes y difíciles de manejar por las sucesivas multiplicaciones.

(2) → Posibilidad de tener ceros en las diagonales. Esto implicaría una división por cero al hacer la sustitución

regresiva:

Pivoteo:

A los términos que se sitúan en la diagonal (los que escalonan) se les denomina pivotes. Si el pivote es nulo el

método fallará, ¿qué se puede hacer? Podríamos intercambiar (de orden) una ecuación con otra que

proporcionase un pivote no nulo. ¿Y si ninguno es adecuado?: Se considerará que la resolución ha sido

fallida.
Referencias:

1. Clases para Computación II, Física Aplicada UAM, Antonio Arranz.


2. Métodos de resolución exacta y aproximada en https://www.uv.es/~diaz/mn/node26.html
3. Gerald y Wheatley, Análisis Numérico con Aplicaciones, Pearson-Prentice Hall
Sistemas de ecuaciones lineales

Pr.7: Sist. Ec. Lineales (Métodos directos)


Pr.8: Sist. Ec. Lineales (Métodos iterativos)
Pr.9: Sist. Ec. Lineales (Tridiagonales)

Sistemas de ecuaciones no lineales

Pr.10: Sist. Ec. No lineales (Método Newton Raphson)

PRIMER PARCIAL !!
Una implementación en pseudocódigo del algoritmo para llevar a cabo la factorización LU se muestra
en la figura debajo:

También podría gustarte