Line 163: | Line 163: | ||
|} | |} | ||
− | + | ==2.1 El problema de minimización global y el diferencial de J== | |
El problema de minimización global o sin restricciones asociado con los problemas de búsqueda en línea descritos es | El problema de minimización global o sin restricciones asociado con los problemas de búsqueda en línea descritos es |
En optimización, la estrategia de búsqueda en línea es uno de los enfoques iterativos básicos para encontrar un mínimo local de una función objetivo . El enfoque de búsqueda en línea primero supone conocida una aproximación previa para y encuentra una dirección de descenso a lo largo de la cual la función objetivo será minimizada y entonces esto determinará qué tan lejos debe moverse a lo largo de esa dirección. Este tamaño de paso está asociado con un mínimo local de la restricción de a la recta de búsqueda. Al problema de encontrar este tamaño de paso se le llama un problema de búsqueda en línea, es decir, es un problema de minimización con restricciones de la forma
|
que también se puede escribir como
|
(1) |
Aquí la recta de búsqueda es la recta que pasa por y tiene (por conveniencia, para nuestras posteriores aplicaciones) la dirección . Como ya se dijo, una de las áreas donde surgen problemas de búsqueda en línea son los métodos iterativos para minimizar localmente una función sin restricciones. En cada iteración debe resolverse un problema de búsqueda en línea de la forma (1), para y conocidos. Si denotamos con a la solución del problema de búsqueda en línea de la iteración , se toma a como la nueva aproximación para el mínimo de . La solución de los problemas de búsqueda en línea se puede aproximar por una variedad de métodos numéricos [1], entre ellos el método de Newton. Si definimos entonces la solución del problema (1) es equivalente a la solución del problema en
|
Para resolver este problema buscamos los valores donde la derivada de se hace cero, es decir, resolvemos (por el método de Newton) la ecuación
|
Tenemos que
|
donde denota la derivada direccional de en en la dirección de . Así que por comodidad definimos
|
y resolvemos la ecuación
|
para lo cual, dada una aproximación inicial , se construyen sucesivas aproximaciones de acuerdo a
|
En este trabajo extenderemos estas ideas para aplicar el método de Newton a un problema de búsqueda en línea pero donde los elementos y aunque conocidos, pertenecen al espacio de Hilbert y no a . En este contexto, este artículo es una continuación o extensión de lo expuesto en [2].
Los problemas de búsqueda en línea en que estamos interesados aquí son del tipo
|
(2) |
con y fijos en , y donde el funcional de nuestro interés es
|
(3) |
donde y la norma euclideana canónica, donde es una función vectorial, , y la función vectorial es la solución del siguiente problema de valor inicial que modela la dinámica de un circuito de tres juntas de Josephson acopladas inductivamente, [3]:
|
(4) |
En (3)-(4), y son estados inicial y final conocidos, respectivamente. En [3] y en [4] se dan los siguientes valores factibles para los parámetros involucrados en este sistema y con los cuales se harán los experimentos numéricos mas adelante:
|
El problema de minimización global o sin restricciones asociado con los problemas de búsqueda en línea descritos es
|
el cual, (junto con (3)-(4)) corresponde a un problema de control cuyo objetivo es llevar la dinámica del sistema del estado al estado . Este tipo de problemas de control pueden resolverse usando un algoritmo de gradiente conjugado como los discutidos en el Capítulo 2 de [5] y el Capítulo 3 de [6], donde también se menciona el concepto de Frechet-diferenciabilidad adecuado para minimizar funcionales en espacios de Hilbert. A continuación damos una definción y un teorema básicos para resolver el problema que nos ocupa.
Definición. Sea un espacio de Hilbert. Un funcional sobre es Frechet-diferenciable si, para todo , existe , la derivada o el diferencial de en , tal que
|
con denotando par de dualidad, y tendiendo a cero cuando tiende a cero.
Teorema. Si está definido como en (3) entonces es Frechet-diferenciable y su diferencial es
|
(5) |
donde se obtiene al resolver el sistema (versión matricial de (4)) :
|
(6) |
y después el sistema adjunto
|
(7) |
donde es una matriz diagonal de 3x3 para la cual la entrada iésima de la diagonal es .
De este teorema resulta que , con solución de (7) una vez que es solución del sistema (6) tomando .
La demostración de este teorema, y de los resultados que se mencionan a continuación pueden consultarse en [7].
Para resolver por el método de Newton nuestro problema de búsqueda en línea (2) definimos
|
(8) |
entonces el problema se reduce a encontrar raíces para (un problema de en ), las cuales aproximaremos con la iteración de Newton
para lo cual debemos conocer y . Para describir en términos de necesitamos el siguiente teorema:
Teorema. Sea un funcional Frechet-diferenciable sobre y como en (8). Entonces
|
Así que la ecuación que tenemos que resolver para es
|
Como la iteración de Newton es
|
aún nos falta encontrar una expresión para . Como estamos trabajando en , los pares de dualidad coinciden con el producto interno gracias al teorema de representación de Riesz. Dado que ya conocemos el representante de la transformación (ver (5)), podemos escribir
|
(9) |
donde se obtiene resolviendo
|
y luego el problema
|
Para calcular , por la regla de Leibniz para la diferenciación bajo el signo integral tenemos, a partir de (9) que:
|
lo cual nos da
|
que denotaremos como
|
y donde se obtiene resolviendo
|
y luego el problema
|
Con ésto el método de Newton para aproximar queda
|
La idea principal es sustituir el espacio por un espacio de funciones más práctico. A grandes rasgos este espacio será el de las funciones lineales por pedazos en (0,T), que además ofrecen la ventaja de poder ser representadas computacionalmente por eneadas de números.
Para describir esto con mayor precisión, comenzamos haciendo una partición uniforme del intervalo con
|
Dada esta partición, una función en puede ser aproximada por la función lineal por pedazos cuyo valor en es . En la figura 1 se muestra una y su aproximación lineal por pedazos, con . Note que entonces una función puede ser representada computacionalmente por dos -eadas:
|
Figura 1: Función y con y . |
Con esto, está claro que podemos aproximar las funciones en por triadas de funciones lineales por pedazos, es decir por matrices de la forma
mientras que las funciones de nuestra teoría quedarían aproximada o representadas por la matriz
|
y las funciones de nuestra teoría quedarían aproximadas o representadas por la matriz
|
También a partir de ahora, estaremos usando la notación para denotar el valor de la función , lineal por pedazos, en el tiempo . Esta notación también aplica para las funciones y , es decir, con denotamos el valor de la función en el tiempo y similarmente para . Esto se resume en decir que en este capítulo damos los valores de y en la partición y debemos minimizar una version discreta del funcional, para lo cual es necesario encontrar los valores aproximados de
|
y de
|
en la partición . En lo que sigue detallamos cómo hacemos todas estas discretizaciones.
El funcional de (3) lo aproximamos por
|
con . Aquí es la aproximación de en el tiempo , que mas adelante especificamos cómo calcular.
Aproximamos el sistema (6) por un esquema de Euler explícito que luce como sigue:
|
El sistema adjunto (7) lo aproximamos por
|
Las discretizaciones mencionadas implican que estamos considerando el siguiente producto interno
|
Para resolver la ecuación con el método de Newton se requiere el conocimiento de que estará dada en los nuevos espacios vectoriales por
|
donde se obtiene resolviendo
|
y luego resolviendo
|
y para
|
con obtenido al resolver
|
y luego resolver
|
Con esto podemos ya aplicar el método de Newton para resolver la versión discreta de : Dado , iterar con
|
Usamos el criterio de paro , para pequeño dado.
En este ejemplo tomamos , , y , y . Se tomaron los valores siguientes para los parámetros en la iteración de Newton y en la discretización de los problemas involucrados:
Dadas las funciones y , minimizamos con el método de Newton el funcional sobre y en 3 iteraciones se obtuvo el valor . La gráfica del funcional restringido a la recta se muestra en la Figura 2.
Figura 2: Funcional para las funciones y del ejemplo 1. |
En este ejemplo tomamos , , y , , . Tanto para la discretización de los problemas involucrados como para las iteraciones de Newton se tomaron los valores siguientes:
Dadas las funciones y , minimizamos con el método de Newton el funcional sobre y en 6 iteraciones se obtuvo el valor . La gráfica del funcional restringido a la recta se muestra en la Figura 3.
Figura 3: Funcional para las funciones y del ejemplo 2. |
No contamos con un ejemplo para el cual se conozca la solución exacta, así que nuestra validación se basa en el desempeño del método en ejemplos como los dos mostrados, dado que es posible tener una visualización suficientemente detallada del funcional restringido a la "recta" que pasa por y tiene dirección . De acuerdo a estos ejemplos se puede concluir que el método de Newton produce resultados excelentes. En este trabajo el objetivo no es comparar el método de Newton con otros métodos, sino verificar que este tipo de problemas se pueden resolver aceptablemente utilizando el método de Newton; sin embargo en trabajos futuros esperamos considerar otros métodos y hacer tal comparación, por ejemplo, con los métodos que no utilizan derivadas. También podemos mencionar que los resultados presentados aquí se aplicarán próximamente para resolver el problema de minimización global asociado con el problema de control, el cual, como se conocen el estado inicial del que se parte y el estado final al que se quiere llegar, podrá considerarse como un caso de validación de la metodología expuesta en el presente trabajo.
[1] R. P. Brent (2002) Algorithms for minimization without derivatives. New York: Courier Dover Publications.
[2] J. López, L. H. Juárez (2019) Método de Newton para Problemas de Búsqueda en Línea en . Journal of Basic Sciences. Vol. 5, Num. 13.
[3] Y. Braiman, B. Neschke, N. Nair, N. Ima, and R. Glowinski. (2016) Memory States in Small Arrays of Josephson Junctions, PHYSICAL REVIEW E (94), 052223: 1-13.
[4] J. D. Rezac, N. Imam and Y. Braiman, (2017) Parameter optimization for transitions between memory states in small arrays of Josephson junctions, PHYSICA A (474), 267-281.
[5] R. Glowinski (2015) Variational Methods for the Numerical Solution of Nonlinear Elliptic Problems, Philadelphia: SIAM.
[6] R. Glowinski (2003) Finite element methods for incompressible viscous flow. In Handbook of Numerical Analysis, Vol. IX, P.G. Ciarlet & J.L. Lions, eds., 3-1176, Amsterdam: Elsevier.
[7] C. N. Cortazar (2020) Método de Newton para búsquedas en línea en el espacio . Tesis de Maestría. Universidad Juárez Autónoma de Tabasco.
Published on 19/04/21
Submitted on 09/03/21
Licence: CC BY-NC-SA license