sábado, 2 de agosto de 2014

Cálculo de raíces de ecuaciones

El objeto del cálculo de las raíces de una ecuación es determinar los valores de x para los que se cumple:

 
f(x) = 0(28)


La determinación de las raíces de una ecuación es uno de los problemas más antiguos en matemáticas y se han realizado un gran número de esfuerzos en este sentido. Su importancia radica en que si podemos determinar las raíces de una ecuación también podemos determinar máximos y mínimos, valores propios de matrices, resolver sistemas de ecuaciones lineales y diferenciales, etc...
La determinación de las soluciones de la ecuación (28) puede llegar a ser un problema muy difícil. Si f(x) es una función polinómica de grado 1 ó 2, conocemos expresiones simples que nos permitirán determinar sus raíces. Para polinomios de grado 3 ó 4 es necesario emplear métodos complejos y laboriosos. Sin embargo, si f(x) es de grado mayor de cuatro o bien no es polinómica, no hay ninguna fórmula conocida que permita determinar los ceros de la ecuación (excepto en casos muy particulares).
Existen una serie de reglas que pueden ayudar a determinar las raíces de una ecuación:
  • El teorema de Bolzano, que establece que si una función continua, f(x), toma en los extremos del intervalo [a,b] valores de signo opuesto, entonces la función admite, al menos, una raíz en dicho intervalo.
  • En el caso en que f(x) sea una función algebraica (polinómica) de grado n y coeficientes reales, podemos afirmar que tendrá n raíces reales o complejas.
  • La propiedad más importante que verifican las raíces racionales de una ecuación algebraica establece que si p/q es una raíz racional de la ecuación de coeficientes enteros:

    \begin{eqnarray*}a_{0} + a_{1}x + a_{2}x^{2} + \dots + a_{n}x^{n} = 0 & (a_{i} \in
\mathcal{Z})
\end{eqnarray*}


    entonces el denominador q divide al coeficientes an y el numerador p divide al término independiente a0.Ejemplo: Pretendemos calcular las raíces racionales de la ecuación:

    3x3 + 3x2 - x - 1 = 0


    Primero es necesario efectuar un cambio de variable x = y/3:

    \begin{displaymath}3\frac{y^{3}}{3^{3}} + 3\frac{y^{2}}{3^{2}} - \frac{y}{3} - 1 = 0
\end{displaymath}


    y después multiplicamos por 32:

    y3 + 3y2 -3y -9 = 0


    con lo que los candidatos a raíz del polinomio son:

    \begin{eqnarray*}y = 9; & y = -9; \\
y = 3; & y = -3; \\
y = 1; & y = -1
\end{eqnarray*}


    Sustituyendo en la ecuación, obtenemos que la única raíz real es y = -3, es decir, $x = \frac{-3}{3} = -1$ (que es además la única raíz racional de la ecuación). Lógicamente, este método es muy poco potente, por lo que sólo nos puede servir a modo de orientación.
La mayoría de los métodos utilizados para el cálculo de las raíces de una ecuación son iterativos y se basan en modelos de aproximaciones sucesivas. Estos métodos trabajan del siguiente modo: a partir de una primera aproximación al valor de la raíz, determinamos una aproximación mejor aplicando una determinada regla de cálculo y así sucesivamente hasta que se determine el valor de la raíz con el grado de aproximación deseado.

4.1 Método de la bisección

Es el método más elemental y antiguo para determinar las raíces de una ecuación. Está basado directamente en el teorema de Bolzano explicado con anterioridad. Consiste en partir de un intervalo [x0,x1]tal que f(x0)f(x1) < 0, por lo que sabemos que existe, al menos, una raíz real. A partir de este punto se va reduciendo el intervalo sucesivamente hasta hacerlo tan pequeño como exija la precisión que hayamos decidido emplear.
 

  
Figure: Diagrama de flujo correspondiente a la implementación del método de la bisección.
[scale=0.9]eps/bisecc
 
El algoritmo empleado se esquematiza en la figura (3). Inicialmente, es necesario suministrar al programa el número máximo de iteraciones MaxIter, la tolerancia $\delta$, que representa las cifras significativas con las que queremos obtener la solución y dos valores de la variable independiente, x0 y x1, tales que cumplan la relación f(x0)f(x1) < 0. Una vez que se comprueba que el intervalo de partida es adecuado, lo dividimos en dos subintervalos tales que $[x_{0}, \frac{x_{0} + x_{1}}{2}]$ y $[\frac{x_{0} + x_{1}}{2}, x_{1}]$ y determinamos en qué subintervalo se encuentra la raíz (comprobando de nuevo el producto de las funciones). Repetimos el proceso hasta alcanzar la convergencia (hasta que $\Delta \leq \delta$) o bien hasta que se excede el número de iteraciones permitidas (Iter > MaxIter), en cuyo caso es necesario imprimir un mensaje de error indicando que el método no converge.
Dos operaciones representadas en el esquema de la figura (3) requieren una explicación adicional:
  • El punto medio del intervalo se calcula como $x_{m} = x_{0} +\frac{(x_{1}-x_{0})}{2}$ en lugar de emplear $x_{m} =\frac{x_{0}+x_{1}}{2}$. Se sigue de este modo una estrategia general al efectuar cálculos numéricos que indica que es mejor calcular una cantidad añadiendo un pequeño término de corrección a una aproximación obtenida previamente. Por ejemplo, en un computador de precisión limitada, existen valores de x0 y x1 para los cuales xm calculado mediante $\frac{x_{0}+x_{1}}{2}$ se sale del intervalo [x0,x1].
  • La convergencia ($\Delta$) se calcula mediante la expresión $\Delta = \mathrm{ABS}((x_{1}-x_{0})/x_{1})$. De este modo, el término $\Delta$, representa el número de cifras significativas con las que obtenemos el resultado.

4.2 Método de las aproximaciones sucesivas

Dada la ecuación f(x) = 0, el método de las aproximaciones sucesivas reemplaza esta ecuación por una equivalente, x=g(x), definida en la forma g(x)=f(x)+x. Para encontrar la solución, partimos de un valor inicial x0 y calculamos una nueva aproximación x1=g(x0). Reemplazamos el nuevo valor obtenido y repetimos el proceso. Esto da lugar a una sucesión de valores $\{x_{0},x_{1},\dots,x_{n}\}$, que si converge, tendrá como límite la solución del problema.
 
 
  Aproximaciones sucesivas
Figure: Interpretación geométrica del método de las aproximaciones sucesivas.
[scale=0.9]eps/as-1
  En la figura (4) se representa la interpretación geométrica del método. Partimos de un punto inicial x0 y calculamos y = g(x0). La intersección de esta solución con la recta y=x nos dará un nuevo valor x1 más próximo a la solución final.
Sin embargo, el método puede divergir fácilmente. Es fácil comprobar que el método sólo podrá converger si la derivada g'(x) es menor en valor absoluto que la unidad (que es la pendiente de la recta definida por y=x). Un ejemplo de este caso se muestra en la figura (5). Esta condición, que a priori puede considerarse una severa restricción del método, puede obviarse fácilmente. Para ello basta elegir la función g(x) del siguiente modo:
\begin{displaymath}g(x) = x + \alpha f(x)\end{displaymath}
de forma que tomando un valor de $\alpha$ adecuado, siempre podemos hacer que g(x) cumpla la condición de la derivada.
 

   Aproximaciones sucesivas
Figure: Demostración gráfica de que el método de las aproximaciones sucesivas diverge si la derivada g'(x) > 1.
[scale=0.9]eps/as-2


4.3 Método de Newton

Este método parte de una aproximación inicial x0 y obtiene una aproximación mejor, x1, dada por la fórmula:
 \begin{displaymath}x_{1} = x_{0} - \frac{f(x_{0})}{f'(x_{0})}\end{displaymath}(29)
 La expresión anterior puede derivarse a partir de un desarrollo en serie de Taylor. Efectivamente, sea r un cero de f y sea x una aproximación a r tal que r=x+h. Sif'' existe y es continua, por el teorema de Taylor tenemos:
 
0 = f(r) = f(x+h) = f(x) + hf'(x) + O(h2(30)
 en donde h=r-x. Si x está próximo a r (es decir hes pequeña), es razonable ignorar el término O(h2):
 
0 = f(x) + hf'(x(31)
 por lo que obtenemos la siguiente expresión para h:
 \begin{displaymath}h = -\frac{f(x)}{f'(x)}\end{displaymath}(32)
 A partir de la ecuación (32) y teniendo en cuenta que r=x+h es fácil derivar la ecuación (29).
 

   Metodo de Newton
Figure: Interpretación geométrica del método de Newton.
[scale=0.9]eps/new-1
  El método de Newton tiene una interpretación geométrica sencilla, como se puede apreciar del análisis de la figura (6). De hecho, el método de Newton consiste en una linealización de la función, es decir, f se reemplaza por una recta tal que contiene al punto (x0,f(x0)) y cuya pendiente coincide con la derivada de la función en el punto, f'(x0). La nueva aproximación a la raíz, x1, se obtiene de la intersección de la función linear con el eje X de ordenadas.
Veamos como podemos obtener la ecuación (29) a partir de lo dicho en el párrafo anterior. La ecuación de la recta que pasa por el punto (x0,f(x0)) y de pendientef'(x0) es:
 
y - f(x0) = f'(x0)(x-x0(33)
 de donde, haciendo y=0 y despejando x obtenemos la ecuación de Newton-Raphson (29).
 

   Metodo de Newton
Figure: Dos situaciones en las que el método de Newton no funciona adecuadamente: (a) el método no alcanza la convergencia y (b) el método converge hacia un punto que no es un cero de la ecuación.
[scale=0.9]eps/new-2
  El método de Newton es muy rápido y eficiente ya que la convergencia es de tipo cuadrático (el número de cifras significativas se duplica en cada iteración). Sin embargo, la convergencia depende en gran medida de la forma que adopta la función en las proximidades del punto de iteración. En la figura (7) se muestran dos situaciones en las que este método no es capaz de alcanzar la convergencia (figura (7a)) o bien converge hacia un punto que no es un cero de la ecuación (figura (7b)).


4.4 Método de la secante

El principal inconveniente del método de Newton estriba en que requiere conocer el valor de la primera derivada de la función en el punto. Sin embargo, la forma funcional de f(x) dificulta en ocasiones el cálculo de la derivada. En estos casos es más útil emplear el método de la secante.
El método de la secante parte de dos puntos (y no sólo uno como el método de Newton) y estima la tangente (es decir, la pendiente de la recta) por una aproximación de acuerdo con la expresión:
 \begin{displaymath}f'(x_{0}) = \frac{f(x_{1})-f(x_{0})}{x_{1}-x_{0}}\end{displaymath}(34)

Sustituyendo esta expresión en la ecuación (29) del método de Newton, obtenemos la expresión del método de la secante que nos proporciona el siguiente punto de iteración:
 \begin{displaymath}x_{2} = x_{0} - \frac{x_{1}-x_{0}}{f(x_{1})-f(x_{0})}f(x_{0})\end{displaymath}(35)
  
 

   
Figure: Representación geométrica del método de la secante.
[scale=0.9]eps/secante
 
En la siguiente iteración, emplearemos los puntos x1 y x2para estimar un nuevo punto más próximo a la raíz de acuerdo con la ecuación (35). En la figura (8) se representa geométricamente este método.
En general, el método de la secante presenta las mismas ventajas y limitaciones que el método de Newton-Raphson explicado anteriormente.

4.5 Método de Steffensen

El método de Steffensen presenta una convergencia rápida y no requiere, como en el caso del método de la secante, la evaluación de derivada alguna. Presenta además, la ventaja adicional de que el proceso de iteración sólo necesita un punto inicial. Este método calcula el siguiente punto de iteración a partir de la expresión:

 \begin{displaymath}x_{n+1} = x_{n} - \frac{[f(x_{n})]^{2}}{f(x_{n}+f(x_{n}))-f(x_{n})}
\end{displaymath}

4.6 Método de la falsa posición

El método de la falsa posición pretende conjugar la seguridad del método de la bisección con la rapidez del método de la secante. Este método, como en el método de la bisección, parte de dos puntos que rodean a la raíz f(x) = 0, es decir, dos puntos x0 y x1tales que f(x0)f(x1) < 0. La siguiente aproximación, x2, se calcula como la intersección con el eje X de la recta que une ambos puntos (empleando la ecuación (35) del método de la secante). La asignación del nuevo intervalo de búsqueda se realiza como en el método de la bisección: entre ambos intervalos, [x0,x2] y [x2,x1], se toma aquel que cumpla f(x)f(x2) < 0. En la figura (9) se representa geométricamente este método. 
  
 
   
Figure: Representación geométrica del método de la falsa posición.
[scale=0.9]eps/falpos
  
La elección guiada del intervalo representa una ventaja respecto al método de la secante ya que inhibe la posibilidad de una divergencia del método. Por otra parte y respecto al método de la bisección, mejora notablemente la elección del intervalo (ya que no se limita a partir el intervalo por la mitad).
 
 
   
Figure: Modificación del método de la falsa posición propuesta por Hamming. La aproximación a la raíz se toma a partir del punto de intersección con el eje X de la recta que une los puntos ( x0,f(x0)/2) y (x1,f(x1)) si la función es convexa en el intervalo (figura a) o bien a partir de la recta que une los puntos (x0,f(x0)) y (x1f(x1)/2) si la función es cóncava en el intervalo (figura b).
[scale=0.9]eps/hamming
  
Sin embargo, el método de la falsa posición tiene una convergencia muy lenta hacia la solución. Efectivamente, una vez iniciado el proceso iterativo, uno de los extremos del intervalo tiende a no modificarse (ver figura (9)). Para obviar este problema, se ha propuesto una modificación del método, denominada método de Hamming. Según este método, la aproximación a una raíz se encuentra a partir de la determinación del punto de intersección con el eje X de la recta que une los puntos ( x0,f(x0)/2) y (x1,f(x1)) si la función es convexa en el intervalo o bien a partir de la recta que une los puntos (x0,f(x0)) y (x1f(x1)/2) si la función es cóncava en el intervalo. En la figura (10) se representa gráficamente el método de Hamming.
Como hemos comentado, el método de Hamming requiere determinar la concavidad o convexidad de la función en el intervalo de iteración. Un método relativamente sencillo para determinar la curvatura de la función consiste en evaluar la función en el punto medio del intervalo, f(xm) (en donde xm se calcula como en el método de la bisección) y comparar este valor con la media de los valores de la función en los extremos del intervalo, $\overline{f} = (f(x_{0}) +f(x_{1}))/2$. Tenemos entonces que:
\begin{displaymath}f(x_{m}) \left\{\begin{array}{ll}\leq \overline{f} & \mbo......line{f} & \mbox{si la función es convexa}\end{array} \right.\end{displaymath}


TOMADO DE: http://www.uv.es/~diaz/mn/node17.html

No hay comentarios:

Publicar un comentario

Nota: solo los miembros de este blog pueden publicar comentarios.

Archivo del blog