Содержание к диссертации
Введение 4
1 Постановка задачи и алгоритм решения 11
-
Исходная и расширенная задачи 11
-
Дополнительные условия и алгоритм
решения 14
-
Конкретизация алгоритма 21
-
Случай оператора, не зависящего от
параметра 2С
2 Приложения к решению некоторых задач оптимального управ
ления 29
2.1 Задача быстродействия со смешанными ограничениями 29
-
Постановка задачи. Эквивалентная задача 29
-
Алгоритм решения задачи быстродействия со смешанным ограничением 37
-
Пример: задача быстродействия для модели прыгающего одноногого робота 46
2.2 Задача оптимизации смешанных
ограничений 59
-
Постановка задачи. Эквивалентная задача 59
-
Алгоритм решения задачи оптимизации
смешанных ограничений С4
2.2.3 Пример: задача оптимизации фазового
ограничения в макроэкономике 69
3 Регуляризирующий алгоритм 7G
-
Возмущенная задача и регуляризирующий алгоритм 7G
-
Конструктивный регуляризирующий
алгоритм 84
3.3 Регуляризирующий алгоритм для
задачи быстродействия
с фазовыми ограничениями 103
Литература 119
Введение к работе
В дисертации рассматривается оптимизационные задачи вида: р —> min, FM = ь(р), х Х{р), V > Ро-В задаче (1), требуется найти наименьшее значение скалярного параметра р, при котором зависящее от этого параметра уравнение F(p,x) = b(p) имеет решение в пределах заданного множества Х(р); нахождению подлежит также само это решение. Подобные постановки возникают в разного рода прикладных задачах (задачи оптимизации сетей страховых компаний, задачи оптимизации портфелей инновационных проектов - см., напр., [85,88]), а также при исследовании параметрических семейств операторных уравнений [88]).
Диссертация посвящена построению и исследованию одного итерационного метода решения задачи (1) (пространство аргументов х считается, в общем случае, бесконечномерным). При рассматриваемых в работе ограничениях оптимизационная задача (1), является, вообще говоря, невыпуклой. Предложенный итерационный метод конкретизируется применительно к некоторым задачам оптимального управления.
Известно, что для решения невыпуклых задач оптимизации стандартные методы, например, градиентного типа (см. [12], [55], [32], [29]) могут быть не применимы. Известен также ряд общих подходов, применимых для решения широкого класса оптимизационных задач - методы штрафных и барьерных функций (см., напр., [12], [77]); гомотопические методы (см., напр., [97]); методы стохастической оптимизации [52]). Подходы этого класса, обладая значительной общностью, сопряжены, однако, с проблемой их конструктивной реализации при решении конкретных задач.
Тип невыпуклой задачи обычно создает специфические трудности па пути обоснования конструктивных алгоритмов решения. В связи с этим развиваются специализированные подходы, ориентированные на решение; конкретных типов задач певыпуклой оптимизации (см., напр.. [9G|). Для некоторых классов задач, в определенном смысле близким к выпуклым, известны итерационные алгоритмы решения, использующие операции с функцией Лаграижа (см., напр., [79], [2]). В [G7-C9] предложен подход к итерационному решению оптимизационных задач, невыпуклость которых определяется присутствием в них разностей выпуклых функций. В [3] развиваются методы оптимизации, основанные на игровых моделях.
Широко исследуемый класс задач оптимизации составляют задачи оптимального управления. Центральным инструментом анализа таких задач является принцип максимума Поитрягииа [5G]. Во многих случаях он позволяет получить окончательное решение задачи либо выявить его аналитическую структуру. Все же значительное число задач оптимального управления находятся за пределами сферы эффективного применения принципа максимума Поитрягииа. К числу таких задач относятся, прежде всего, задачи оптимального управления с фазовыми (а также смешанными) ограничениями: для них принцип максимума Поитрягииа имеет усложненную форму и трудно поддается аналитическому исследованию в конкретных ситуациях. Другой универсальный подход к решению задач оптимального управления, в том числе, с фазовыми ограничениями, объединяет метод динамического программирования [8], [11], [18], [21,22], [3G,37], [G5] и его обобщения (численная реализация этих методов сопряжена, вообще говоря, с большими размерностями вычислений). Большая серия работ посвящена изучению корректных дискретных аппроксимаций, позволяющих получать приближенные решения задач оптимального управления посредством решения конечномерных задач математического программирования (см. [7G], [13], [48]). В [94], [57[ - [G3] развиваются методы, ориентированные на решение различных типов задач оптимального управления.
Многие задачи оптимизации, как известно, некорректны: малые возмущения их данных могут вести к большим отклонениям решений |12|. Построение методов регуляризации оптимизационных задач - нахождения их устойчивых приближенных решений на основании возмущенных данных - составляет обширный раздел теории некорректных задач [71], [2G], [45], |1,4|, |9|, [7,12,15,10], [20|, [23], [24|, [28|, [31], [44|, [50], [51[, [01], [72,73[.
Материал настоящей диссертации примыкает к работам [38| - |43|, |82| - [93], развивающим методы решения обратных задач динамики и задач оптимизации исходя из регуляризации известного в теории позиционного управления принципа экстремального сдвига Н.Н. Красовского [35]. Задача (1) ранее рассматривалась в [40,87,90], где, в предположении что функция F(p,x) линейна по аргументу х, построен основанный на принципе экстремального сдвига итерационный метод ее решения, указано его приложение к решению линейной задачи быстродействия с фазовыми ограничениями и приведен соответствующий регуляризирующий алгоритм.
В данной работе функция F(p,x) полагается, вообще говоря, нелинейной, но удовлетворяющей ряду ограничений, наиболее существенным из которых выступает условие выпуклости множеств F(p,X(p)). Последнее условие позволяет путем подходящей рандомизации аргумента (см. [89|) сконструировать вспомогательную оптимизционную задачу с линейным ограничением-равенством, в определенном смысле эквивалентную задаче (1). Для вспомогательной задачи строится итерационный метод решения, обобіцаяющий метод, ранее предложенный в [91], и устанавливается сходимость генерируемой им последовательности к решению исходной задачи (1). Предложенный метод конкретизируете применительно к некоторым частным случаям, включающим задачи оптимального управления со смешанными ограничениями. В конце работы конструируется связанный с этим методом регуляризирующий алгоритм.
В главе I рассматривается задача оптимизации вида (1) в нормированном пространстве X. В разделе 1.1 на нес накладываются такие основные требования, как требования непрерывности многозначного отображения р і—> Х(р) и функций ;; i—> b(p), {р,х) і— F(p,x), а также требование того, что функция (р, х) і—> F(p,x) — Ь(р) является комнактификатором (см. [89]) (условия (А1) - (A3)). При данных условиях устанавливается существование решеня задачи (1) (следствие 1.1).
Далее накладывается упомянутое; выше требование выпуклости множеств F(p,X(p)) (р > Pq) (условие (А4)) и строится расширенная задача оптимизации в пространстве вероятностных мер, являющихся выпуклыми комбина- днями точечных мер Дирака: ц = ^2схі5Хі, аі>0, ^ aj = 1, .ть ...,хт Є X. і=\ г=1
При этом носителем данных мер для каждого р > щ является множество Х(р). При сделанных предположениях полученная расширенная задача оказывается задачей выпуклого программирования.
В разделе 1.2 вводится ряд дополнительных предположений (условия (А5) - (АО)) и, с использованием эквивалентности исходной и расширенной задач, обосновывается основной алгоритм решения. Раздел 1.3 посвящен упрощению основного алгоритма.
Основной алгоритм решения задачи (1) требует, вообще говоря, бесконечного расширения текущей памяти. В разделе 1.4 алгоритм конкретизируется для случая, когда значения F(p,x) не зависят от параметра /; и показывается, что в этом случае алгоритм можно модифицировать так, что вычисления потребуют постоянного объема памяти.
В главе II рассматриваются приложения предложенного в главе I алгоритма к решению двух задач оптимального управления с фазовыми ограничениями.
В разделе 2.1 рассматривается задача быстродействия для n-мерной дифференциальной управляемой системы z{t) = f{z{t),t) + g(z(t),t)u(t), (2) функционирующей на отрезке времени [0,Т] (Т > 0), из заданного начального состояния zQ Є Rn в заданное; конечное состояние z1 Є Вп при смешанном геометрическом ограничении (z(t),u(t)) Є Q(i) (t Є [0,T]) па фазовую переменную z(t) и rn - мерную управляющую переменную u(t).
В разделе 2.1.1 формулируются требования непрерывности функций /(, ), ()(-, ) и замкнутозначности, вынуклозиачпости и ограниченности многозначного измеримого отображения Q(-), гарантирующие существование решения поставленной задачи быстродействия (теорема 2.1).
Теоремы существования, учитывающие специфику конкретных классов задач оптимизации, приведены в |1()|, |19|, [33], [34], \66\. [70], [78|.
Далее исходная задача быстродействия сводится к задаче вида (1) в нормированном пространстве X = L2{[0,T}, Rn) х L2w([0,T], Rm), где L2w{[0,T},Rm) - пространтство L2([0,T], Rm), снабженное слабой нормой (см., напр., [10]). На рассматриваемую управляемую систему накладывается дополнительное требование выпуклозначпости образов F(p,G) (р Є [0,Т]), где F(-, ) - интегральный оператор системы (2), G - множество управляемых процессов (z(-), «()), удовлетворяющих смешанному ограничению (z(t),u(t)) Є Q(t) (t Є [0,Г]).
Там же приводится билинейная управляемая система в качестве примера системы, для которой соответвующая задача быстродействия удовлетворяет указанному условию выиуклозначности образов при интегральном преобразовании.