6
HISTORIA DE LOS METODOS NUMERICOS Los métodos numéricos no es el estudio de un matemático en particular, su propósito es el desarrollo de métodos de métodos para la solución de diversos problemas matemáticos mediante una infinita cantidad de operaciones numéricas. La importancia de esta rama de la matemática no es el problema en particular, si no el método que se aplicara. Por ende es importante comprender en que momento de la vida cotidiana nos sirve estos métodos. En el presente trabajo se analizara como surgen estos mismos, declarar la diferencia que existe entre exactitud y precisión en relación con el error. De igual manera se comentaran los errores más comunes que existen. Así como también es importante mencionar las herramientas computaciones para la obtención de soluciones de manera fácil y práctica. Los métodos numéricos se tienen desde los siglos XIX y XX, utilizando métodos numéricos aproximados. El papiro de Rhind es el documento matemático más antiguo que se conserva, data unos 200 años a. c. originario de las civilizaciones egipcias donde aparecen más de 80 problemas resueltos que trataba de calcular montones de volúmenes y el área de una circunferencia. En babilonia ya se tenía conocimiento para calcular aproximadamente raíces cuadradas. En cambio de la antigua Grecia fueron famosos los trabajos de Arquímedes en el siglo III a. c. El Papiro de Moscú y de Rhind, escritos de 1850 y 1650 A. de C. Ambos documentos incluyen ejemplos de cálculos que implican el manejo de ecuaciones lineales con una y dos incógnitas. Es con los griegos que aparece por primera vez, en el siglo V A. de C., la matemática como una ciencia que utiliza el método deductivo como herramienta funda mental para probar que un resultado es verdadero. A finales del siglo XIX se perfila la teoría de las series infinita, Principio del siglo XVIII aparece el cálculo de diferencias finitas. Con el surgimiento de las computadores digitales a mediados del siglo XX y su continuo desarrollo, la matemática numérica ha recibido un fuerte estimulo, ya que la computadora digital ha hecho posible la aplicación práctica de bastantes métodos numéricos. En la actualidad los métodos numéricos son un medio para fortalecer la compresión de las matemáticas, porque profundizan en los temas que de otro modo resultarían complejos, esto aumenta su capacidad de

Historia de Los Metodos Numericos

Embed Size (px)

DESCRIPTION

gdegfgererterdfsdfs dsggertrtfsdfterterterrertertertetrertsdfsdfsdfsdfsdfsdf

Citation preview

Page 1: Historia de Los Metodos Numericos

HISTORIA DE LOS METODOS NUMERICOS

Los métodos numéricos no es el estudio de un matemático en particular, su propósito es el desarrollo de métodos de métodos para la solución de diversos problemas matemáticos mediante una infinita cantidad de operaciones numéricas. La importancia de esta rama de la matemática no es el problema en particular, si no el método que se aplicara. Por ende es importante comprender en que momento de la vida cotidiana nos sirve estos métodos. En el presente trabajo se analizara como surgen estos mismos, declarar la diferencia que existe entre exactitud y precisión en relación con el error. De igual manera se comentaran los errores más comunes que existen. Así como también es importante mencionar las herramientas computaciones para la obtención de soluciones de manera fácil y práctica.

Los métodos numéricos se tienen desde los siglos XIX y XX, utilizando métodos numéricos aproximados. El papiro de Rhind es el documento matemático más antiguo que se conserva, data unos 200 años a. c. originario de las civilizaciones egipcias donde aparecen más de 80 problemas resueltos que trataba de calcular montones de volúmenes y el área de una circunferencia. En babilonia ya se tenía conocimiento para calcular aproximadamente raíces cuadradas. En cambio de la antigua Grecia fueron famosos los trabajos de Arquímedes en el siglo III a. c. El Papiro de Moscú y de Rhind, escritos de 1850 y 1650 A. de C. Ambos documentos incluyen ejemplos de cálculos que implican el manejo de ecuaciones lineales con una y dos incógnitas. Es con los griegos que aparece por primera vez, en el siglo V A. de C., la matemática como una ciencia que utiliza el método deductivo como herramienta funda mental para probar que un resultado es verdadero. A finales del siglo XIX se perfila la teoría de las series infinita, Principio del siglo XVIII aparece el cálculo de diferencias finitas. Con el surgimiento de las computadores digitales a mediados del siglo XX y su continuo desarrollo, la matemática numérica ha recibido un fuerte estimulo, ya que la computadora digital ha hecho posible la aplicación práctica de bastantes métodos numéricos. En la actualidad los métodos numéricos son un medio para fortalecer la compresión de las matemáticas, porque profundizan en los temas que de otro modo resultarían complejos, esto aumenta su capacidad de entendimiento de la materia. Es importante al momento de realizar estos métodos diferenciar los que es exactitud y precisión en relación con el error, la exactitud se refiere a que tan cercano está el valor calculado o medido del valor verdadero, en cambio la precisión es que tan cercanos se encuentran los valores el uno con el otro. Los errores numéricos surgen con el uso de aproximaciones para representar valores o las cantidades en las operaciones matemáticas. Dando así a los diferentes tipos de error que se pueden surgir como: inherentes, de redondeo, por truncamiento, absoluto y relativo.

Definición de métodos numéricos, su importancia y el porqué

Page 2: Historia de Los Metodos Numericos

“Son técnicas mediante las cuales es posible formular problemas matemáticos De tal forma que puedan resolverse usando operaciones aritméticas” • Los métodos numéricos se utilizan para: • Solución de sistemas de ecuaciones lineales • Solución de ecuaciones no lineales y trascendentales • Encontrar un valor por medio de tablas: interpolación • Encontrar un comportamiento (un modelo) a partir de datos ajustando Una curva: ajuste de curvas • Integración numérica de una función • Solución numérica de ecuaciones diferenciales

Cuando se emplea un número en un cálculo, debe haber seguridad de que

pueda usarse con confianza. El concepto de cifras significativas tiene

dos implicaciones importantes en el estudio de los métodos numéricos.

1.- Los métodos numéricos obtienen resultados aproximados. Por lo tanto,

se debe desarrollar criterios para especificar que tan precisos son los

resultados obtenidos.

2.- Aunque ciertos números representan número específicos, no se pueden

expresar exactamente con un número finito de cifras.

Exactitud y Precisión.

La exactitud se refiere a que tan cercano está el valor calculado o

medido del valor verdadero. La precisión se refiere a qué tan cercano

está un valor individual medido o calculado respecto a los otros.

La inexactitud se define como un alejamiento sistemático de la verdad. La

imprecisión, sobre el otro lado, se refiere a la magnitud del

esparcimiento de los valores.

Los métodos numéricos deben ser lo suficientemente exactos o sin sesgos

para que cumplan los requisitos de un problema particular de ingeniería.

Error.

Page 3: Historia de Los Metodos Numericos

En general, para cualquier tipo de error, la relación entre el número

exact9 y el obtenido por aproximación se define como:

Error = Valor real -valor estimado

En ocasiones, se sabrá exactamente el valor del error, que denotaremos

como Ev, o deberemos estimar un error aproximado.

Ahora, para definir la magnitud del error, o que incidencia tiene en el

cálculo el error detectado, podemos normalizar su valor :

Ea = Error relativo (fracción) = error estimado I valor verdadero

Como el valor de Ea puede ser tanto positivo como negativo, en muchos

casos nos interesa saber más la magnitud del error, caso en el cual

usaremos el valor absoluto de este.

Un caso muy interesante es una investigación que realiza Scarborough, en

que determinó el número de cifras significativas que contiene el error

como:

Page 4: Historia de Los Metodos Numericos

Si reemplazamos Es en la ecuación. Obtendremos el número de cifras

significativas en que es confiable el valor aproximado obtenido.

Así, si queremos que nuestro cálculo tenga un error menor al criterio

para dos cifras significativas, debemos obtener números que correspondan

a menos de:

Es=(0.5x 102–2)%=0.5%

Esto nos servirá para determinar cuántos términos serán necesarios en un

cálculo aproximado para tener la certeza que el error se encuentra bajo

el margen especificado.

EXACTITUD Y PRECISIÓN.

La exactitud de una medición hace referencia a su cercanía al valor que

pretende medir.

La precisión está asociada al número de cifras decimales utilizadas para

expresar lo medido.

Un instrumento inexacto nos entrega resultados sesgados, “desplazados”;

uno impreciso, resultados “ambiguos”, “difusos”.

Así, por ejemplo, una pesa es exacta si nos entrega el peso correcto, sin

agregarle ni quitarle. Asimismo, es más precisa en la medida que el

aparato usado es capaz de detectar diferencias de peso más pequeñas.

La exactitud y precisión exigibles a una medición, dependerán de los

objetivos del estudio que la utiliza.

La precisión de un resultado estadístico debe estar de acuerdo con la

precisión de los datos originales y con las exigencias propias del

proyecto que los usa.

Es fácil cometer el error de responder usando más decimales que los

contenidos en las mediciones iniciales, aumentando artificialmente la

precisión por la propia capacidad de cálculo de los computadores.

Por otra parte, es de suma importancia cuidar que, durante el proceso de

cálculo intermedio, no se pierda precisión innecesariamente. Es

importante mantener el máximo posible de decimales, pues esto ayuda a

Page 5: Historia de Los Metodos Numericos

controlar la aparición y propagación de errores numéricos que invaliden

los resultados.

Estos son errores de precisión y exactitud ajenos al proceso de medición

inicial y son introducidos típicamente por los métodos numéricos usados y

por la aritmética del computador que tiene una precisión finita para

representar interiormente a los números.

El último tema mencionado en el párrafo anterior, es un tema complejo que

no se discutirá mayormente, pero es importante mencionarlo y mostrar un

ejemplo ilustrativo para entender su alcance.

Exactitud y precisión

La precisión se refiere 1) al numero de cifras significativas que

representan una cantidad 2) la extensión en las lecturas repetidas de un

instrumento que mide alguna propiedad física.

Por ejemplo:

Cuando se hacen algunos disparos en un lugar de tiro al blanco la

precisión se refiere a la magnitud del esparcimiento de las balas.

La exactitud se refiere a la aproximación de un numero o de una medida al

valor verdadero que se supone representa.

La inexactitud (conocida como sesgo) se define como un alejamiento

sistemático de la verdad.

Exactitud.- Indica qué tan cercano es un valor calculado respecto al

valor verdadero.

Precisión.- Considerando que los métodos numéricos son técnicas

iterativas, expresa qué tan cercana es una aproximación o una estimación

a un valor, respecto a las aproximaciones o iteraciones anteriores del

mismo.

Inexactitud.- También se le conoce como sesgo. Es un alejamiento

sistemático del valor verdadero a calcular.

Page 6: Historia de Los Metodos Numericos

Imprecisión.- También se le conoce como incertidumbre. Se refiere al

grado de alejamiento entre sí, a las diversas aproximaciones a un valor

verdadero.

Al observar las definiciones anteriores, puede determinarse que el error

asociado a los métodos numéricos permite medir el grado de exactitud y

precisión de los mismos.