Este documento trata sobre los conceptos básicos de los métodos numéricos como teoría de errores, cifras significativas y errores de redondeo. Explica que los métodos numéricos dan aproximaciones y no resultados exactos, por lo que es importante entender estas nociones para usarlos de forma efectiva.
0 calificaciones0% encontró este documento útil (0 votos)
11 vistas17 páginas
Este documento trata sobre los conceptos básicos de los métodos numéricos como teoría de errores, cifras significativas y errores de redondeo. Explica que los métodos numéricos dan aproximaciones y no resultados exactos, por lo que es importante entender estas nociones para usarlos de forma efectiva.
Este documento trata sobre los conceptos básicos de los métodos numéricos como teoría de errores, cifras significativas y errores de redondeo. Explica que los métodos numéricos dan aproximaciones y no resultados exactos, por lo que es importante entender estas nociones para usarlos de forma efectiva.
Este documento trata sobre los conceptos básicos de los métodos numéricos como teoría de errores, cifras significativas y errores de redondeo. Explica que los métodos numéricos dan aproximaciones y no resultados exactos, por lo que es importante entender estas nociones para usarlos de forma efectiva.
Descargue como PPTX, PDF, TXT o lea en línea desde Scribd
Descargar como pptx, pdf o txt
Está en la página 1de 17
MÉTODOS NUMÉRICOS
SEMANA 1: DEFINICIONES UNIVERSIDAD LA GRAN COLOMBIA, DEPARTAMENTO DE CIENCIAS BÁSICAS BOGOTÁ 1 A 6 DE FEBRERO 2021. TEORIA DE ERRORES:
Debido a que los métodos numéricos dan sólo una
aproximación, entender el concepto de error es fundamental para utilizar en forma efectiva los métodos numéricos.
En la práctica profesional, los errores llegan a resultar
costosos y, en algunas ocasiones, catastróficos. Si una estructura o un dispositivo falla, esto puede costar vidas. CIFRAS SIGNIFICATIVAS:
El concepto de cifras o dígitos significativos se ha
desarrollado para designar formalmente la confiabilidad de un valor numérico. Las cifras significativas de un número son aquellas que pueden utilizarse en forma confiable. Se trata del número de dígitos que se ofrecen con certeza, más uno estimado. Aunque, por lo común, determinar las cifras significativas de un número es un procedimiento sencillo, en algunos casos genera cierta confusión. Por ejemplo, los ceros no siempre son cifras significativas, ya que pueden usarse sólo para ubicar el punto decimal: los números 0.00001845, 0.0001845 y 0.001845 tienen cuatro cifras significativas. Asimismo, cuando se incluye ceros en números muy grandes, no queda claro cuántos son significativos. Por ejemplo, el número 45 300 puede tener tres, cuatro o cinco dígitos significativos, dependiendo de si los ceros se conocen o no con exactitud. La incertidumbre se puede eliminar utilizando la notación científica, donde , , muestran, respectivamente, que el número tiene tres, cuatro y cinco cifras significativas CIFRAS SIGNIFICATIVAS EN METODOS NUMÉRICOS • los métodos numéricos dan resultados aproximados. Por lo tanto, se deben desarrollar criterios para especificar qué tan confiables son dichos resultados. Una manera de hacerlo es en términos de cifras significativas.
• Aunque ciertas cantidades como , o representan cantidades
específicas, no se pueden expresar exactamente con un número finito de dígitos. Por ejemplo. • = 3.141592653589793238462643... hasta el infinito. Como las computadoras retienen sólo un número finito de cifras significativas, tales números jamás se podrán representar con exactitud. A la omisión del resto de cifras significativas se le conoce como error de redondeo. ERRORES DE REDONDEO
los errores de redondeo se originan debido a que la computadora emplea un número determinado de cifras significativas durante un cálculo. Los números como , o no pueden expresarse con un número fijo de cifras significativas. Por lo tanto, no pueden ser representados exactamente por la computadora.
Además, debido a que las computadoras usan una
representación en base 2, no pueden representar exactamente algunos números en base 10. Esta discrepancia por la omisión de cifras significativas se llama error de redondeo. Entre los diferentes tipos de error nos incumben los errores de truncamiento que resultan del empleo de aproximaciones como un procedimiento matemático exacto, y los errores de redondeo que se producen cuando se usan números que tienen un límite de cifras significativas para representar números exactos. La relación entre el resultado exacto, o real, y el aproximado está dada por:
Esta definición no toma en consideración el orden de la magnitud del
valor que se estima. Esto lo combatimos al normalizar el error respecto al valor verdadero Los métodos numéricos usan un método iterativo para calcular los resultados. En tales métodos se hace una aproximación considerando la aproximación anterior. En tales casos, el error a menudo se calcula como la diferencia entre la aproximación previa y la actual. Por lo tanto, el error relativo porcentual está dado por
Se busca que su valor absoluto porcentual sea menor que una
tolerancia porcentual prefijada . En este caso, el método establece continuar con las iteraciones hasta cumplir que
si el anterior criterio se cumple, se tendrá la seguridad que el
resultado es correcto en al menos n cifras significativas.