A lo largo del tiempo, los métodos numéricos han sido desarrollados con el objeto de resolver problemas matemáticos cuya solución es difícil o imposible de obtener por medio de los procedimientos tradicionales.
Las soluciones que ofrecen los métodos numéricos son aproximaciones de los valores reales y, por tanto se tendrá un cierto grado de error que será conveniente determinar. Las aproximaciones numéricas pueden introducir errores la pregunta es ¿Qué error puede considerarse tolerable?
Los errores asociados con los cálculos y medidas se pueden caracterizar observando su precisión y exactitud. La precisión se refiere a 1) el numero de cifras significativas que representa una cantidad o 2) la extensión en las lecturas repetidas de un instrumento que mide alguna propiedad física. La exactitud se refiere a la aproximación de un número o de una medida al valor verdadero que se supone representa.
DEFINICIÓN DE ERROR
Los errores numéricos se generan con el uso de aproximaciones para representar las operaciones y cantidades matemáticas. Esto incluye errores de truncamiento que resultan de representar aproximadamente un procedimiento matematico exacto, y los errores de redondeo, que resultan de presentar aproximadamente números exactos. Para los tipos de errores, la relación entre el resultado exacto o verdadero y el aproximado esta dado por :
Valor verdadero = valor aproximado + error ( Ec.1 )
Reordenando la ecuación Ec.1, se encuentra que el error numérico es igual a la diferencia entre el valor verdadero y el valor aproximado esto es :
Donde Ev se usa para redondear el valor exacto del error. Se incluye el subíndice v par dar a entender que se trata del “verdadero” error. Un defecto es que muchas veces no se toma en consideración el orden de
magnitud del valor que se esta probando . Por ejemplo, un error de un centímetro es mucho mas significativo si se esta midiendo un remache que un puente. Una manera de medir las magnitudes de las cantidades que se
están evaluendo es normalizar el error respecto al valor verdadero, como en:
Error relativo fraccional = error / valor verdadero
Donde: Error = valor verdadero – valor aproximado.
El error relativo también se puede multiplicar por el 100% para expresarlo como:
Ev = (error verdadero/ valor verdadero ) 100
Donde Ev denota el error relativo porcentual. El subíndice v significa la normalización del error al valor verdadero . Para los métodos numéricos el valor verdadero únicamente se conocerá cuando se habla de funciones que se pueden resolver analíticamente. Sin embargo, en aplicaciones reales, no se conoce la respuesta verdadera. En estos casos, normalizar el error es una alternativa usando la mejor estimación posible del valor verdadero, esto es a la aproximación misma, como:
Ea = (error aproximado/ valor aproximado)100
Donde el subíndice a significa que el error está normalizado a un valor aproximado .Uno de los retos a que se enfrentas los métodos numéricos es el de determinar estimaciones del error en ausencia de conocimiento de los valores verdaderos. El error se calcula como la diferencia entre la aproximación previa y la actual. Por lo tanto, el error relativo porcentual está dado por:
Ea =abs( ((aproximación actual- aproximación previa )/ aproximación actual) 100)
Si se cumple la relación anterior , entonces se considera que el resultado obtenido esta dentro del nivel aceptable, es decir, aun error previamente fijado.
ERROR POR REDONDEO
Es aquel tipo de error en donde el número significativo de dígitos después del punto decimal se ajusta a un número específico provocando con ello un ajuste en el último dígito que se toma en cuenta. Los errores de redondeo resultan de representar aproximadamente números que son exactos. Proceso mediante el cual se eliminan decimales poco significativos a un número decimal.
Para llevar a cabo operaciones de algunas funciones matemáticas los compiladores ejecutan estas funciones utilizando series infinitas de términos, pero es difícil llevar a cabo estos cálculos hasta el infinito, por lo tanto la serie tendrá que ser truncada. Truncamiento es el término usado para reducir el número de dígitos a la derecha del punto decimal, descartando los menos significativos.
ERRORES POR EQUIVOCACIÓN
En los primeros años de la computación los resultados numéricos erróneos fueron atribuidos algunas veces al mal funcionamiento de la computadora misma. Hoy dia esta fuente de error es muy improbable y la mayor parte de las equivocaciones se atribuye a errores humanos. Las equivocaciones ocurren a cualquier nivel del proceso de modelación matematica y pueden contribuir con todas las otras componentes del error. Las equivocaciones, por lo general se pasan por alto en la discución del método numérico. Esto sin duda prueba el hecho de que los errores de torpeza son, hasta cierto punto inevitables.
ERRORES DE FORMULACIÓN
Los errores de formulación o de modelamiento degeneran en lo que se podría considerar como un modelo matemático incompleto, ya que si se esta usando un modelo deficiente, ningún método numérico generara los
Gracias Por la Informacion!
ResponderBorrarGracias por todo :D
ResponderBorrarExcelente. Gracias.
ResponderBorrar