Электронная библиотека диссертаций и авторефератов России
dslib.net
Библиотека диссертаций
Навигация
Каталог диссертаций России
Англоязычные диссертации
Диссертации бесплатно
Предстоящие защиты
Рецензии на автореферат
Отчисления авторам
Мой кабинет
Заказы: забрать, оплатить
Мой личный счет
Мой профиль
Мой авторский профиль
Подписки на рассылки



расширенный поиск

Энтропийно-вероятностное моделирование сложных стохастических систем Соколова, Ирина Сибагатулловна

Энтропийно-вероятностное моделирование сложных стохастических систем
<
Энтропийно-вероятностное моделирование сложных стохастических систем Энтропийно-вероятностное моделирование сложных стохастических систем Энтропийно-вероятностное моделирование сложных стохастических систем Энтропийно-вероятностное моделирование сложных стохастических систем Энтропийно-вероятностное моделирование сложных стохастических систем Энтропийно-вероятностное моделирование сложных стохастических систем Энтропийно-вероятностное моделирование сложных стохастических систем Энтропийно-вероятностное моделирование сложных стохастических систем Энтропийно-вероятностное моделирование сложных стохастических систем Энтропийно-вероятностное моделирование сложных стохастических систем Энтропийно-вероятностное моделирование сложных стохастических систем Энтропийно-вероятностное моделирование сложных стохастических систем
>

Диссертация - 480 руб., доставка 10 минут, круглосуточно, без выходных и праздников

Автореферат - бесплатно, доставка 10 минут, круглосуточно, без выходных и праздников

Соколова, Ирина Сибагатулловна. Энтропийно-вероятностное моделирование сложных стохастических систем : диссертация ... кандидата физико-математических наук : 05.13.18 / Соколова Ирина Сибагатулловна; [Место защиты: Челяб. гос. ун-т].- Челябинск, 2013.- 134 с.: ил. РГБ ОД, 61 13-1/494

Содержание к диссертации

Введение

ГЛАВА 1. Проблематика математического моделирования сложных систем . 13

1.1. Ключевые моменты в определениях «сложная стохастическая система» и «модель сложной системы» 13

1.2. Обзор методов математического моделирования сложных систем 21

1.3. Энтропия в моделировании сложных систем 25

1.4. Основы и предпосылки развития энтропийно-вероятностного подхода 35

1.5. Выводы и результаты 38

ГЛАВА 2. Энтропийно-вероятностное моделирование 40

2.1. Формализация энтропийно-вероятностного подхода 40

2.2. Исследование энтропийно-вероятностной модели 52

2.3. Задачи управления системой на основе энтропийно-вероятностной модели 59

2.4. Выводы и результаты 75

ГЛАВА 3. Численная реализация задач управления системой на основе энтропийно-вероятностного подхода 76

3.1. Формирование системы 76

3.2. Задача максимизации энтропии системы 77

3.3. Задача минимизации энтропии системы 90

3.4. Задача изменения энтропии системы в сторону увеличения или уменьшения 93

3.5. Выводы и результаты 95

ГЛАВА 4. Методика энтропийного вероятностного моделирования и анализа на практических примерах 96

4.1. Моделирование системы, характеризующей безопасность производства 96

4.2. Моделирование макроэкономической системы на примере Российской Федерации 100

4.3. Моделирование системы, оказывающей влияние на численность населения Российской Федерации 108

4.4. Выводы и результаты 114

Заключение

Список литературы 117

Введение к работе

Актуальность темы. Актуальным направлением математического моделирования сложных систем является моделирование таких систем с помощью энтропийных методов. В основе этих методов лежит использование энтропии в качестве критерия оценки функционирования системы. Это обусловлено тем, что энтропия - универсальный параметр, свойственный различным категориям систем.

Степень разработанности темы. Энтропии, ее свойствам посвящено множество работ различных авторов: Р. Клаузиус, Л. Больцман, К. Шеннон, Дж. Гиббс, А.Н. Колмогоров, Я.Г. Синай, А.Я. Хинчин, Р.Л. Стратонович, П. Биллингслей, П. Шамбадаль, Н. Мартин, Дж. Ингленд, С. Де Гроот и др.

Энтропийному моделированию посвящены работы таких авторов, как А. Дж. Вильсон, А.П. Левич, Ю.Л. Соловьев, И.В. Прангишвили, Ю.С. Попков, А.М. Хазен, В.И. Шаповалов, Г.П. Быстрай, П. Гленсдорф, Р. Грэй, Б.Б. Кадомцев, Г.Г. Малинецкий, Л.М. Мартюшев, Н.Н. Моисеев, Г. Николис, С.М. Скоробогатов, И. Стенгерс, Д.И. Трубецков и др.

Отметим, что в работах таких известных ученых как И.Р. Пригожин\ Ю.Л. Климонтович раскрывается, что развитию, самоорганизации и деградации в открытых системах способствует изменение энтропии в большую или меньшую сторону. В связи с этим для оказания управляющего воздействия на открытые системы актуальна задача нахождения универсального инструмента, позволяющего увеличивать и уменьшать уровень энтропии системы в зависимости от преследуемых целей и имеющихся на это ресурсов, так же необходимо определение параметров для оказания управленческого воздействия на систему. Существующие энтропийные модели, в большинстве своем, разработаны для решения частных задач. На основе чего возникает необходимость построения общих математических моделей таких систем.

Целью работы является разработка и формализация энтропийно- вероятностного моделирования сложных стохастических систем, позволяющая получить математические модели и алгоритмы для эффективного управления такими системами.

Достижение данной цели предполагает решение следующих задач:

  1. Разработать и теоретически обосновать энтропийно-вероятностный метод моделирования сложных стохастических систем. Метод должен иметь простую реализацию, выделять переменные, чувствительные к управляющему воздействию, и связи между элементами системы.

  2. Исследовать энтропийно-вероятностную модель и на ее основе сформулировать задачи управления сложными стохастическими системами.

  3. Разработать алгоритмы и программы для решения поставленных задач эффективного управления на основе разработанного метода.

  4. Апробировать на примерах методику использования энтропийно- вероятностных моделей.

    1. Пригожин И., Стенгерс И. Порядок из хаоса: Новый диалог человека с природой. М., 1986. С. 413-415.

    2. Климонтович Ю.Л. Введение в физику открытых систем. М., 2002. С.17-21.

    Научная новизна заключается в следующем:

        1. В области разработки новых математических методов моделирования объектов и явлений:

        а) Разработан энтропийно-вероятностный метод - новый метод построения математических моделей сложных систем.

            1. В области разработки, исследования и обоснования математических объектов:

              1. Установлено, что целесообразно рассмотрение энтропии системы как двухкомпонентного вектора, где первая компонента отвечает аддитивности системы, вторая - ее целостности.

              2. Предложены переменные для управляющего воздействия на систему: дисперсии ее элементов и корреляционные связи между ними.

              3. Предложена концепция «точек роста» системы. Выявлено, что в системах существуют «точки роста» - особо чувствительные к воздействию элементы.

              4. Сформулированы задачи эффективного управления системами с целью увеличения и уменьшения энтропии систем и доказаны теоремы о решениях поставленных задач.

              В области разработки, обоснования и тестирования эффективных численных методов с применением ЭВМ:

              а) Исследована группа алгоритмов решения задач эффективного управления системами на основе энтропийно-вероятностных моделей и установлено, что комплексный метод Бокса эффективнее, чем методы различных штрафов для решения задач изменения энтропии системы. Предложен алгоритм реализации уменьшения и увеличения энтропии на основе корреляционной матрицы системы любой размерности.

                  1. В области реализации эффективных численных методов и алгоритмов в виде комплексов проблемно-ориентированных программ для проведения вычислительного эксперимента:

                  а) Разработан и зарегистрирован комплекс программ для решения задач эффективного распределения ресурсов в системе с целью увеличения или уменьшения энтропии системы на основе энтропийно-вероятностных моделей. Теоретическая значимость:

                  1. Разработан энтропийно-вероятностный метод - новый метод моделирования сложных стохастических систем. Он заключается в представлении сложной системы в виде многомерного нормально распределенного случайного вектора и рассмотрении энтропии системы в качестве единого критерия оценки ее функционирования. Метод формализован, универсален в применении.

                  2. Построена математическая модель системы, характеризующая две стороны системы: аддитивность и целостность.

                  Практическая значимость:

                  1. Предложенная модель проста для практической реализации, описывает элементы системы и связи между ними.

                    1. Сформулированы задачи эффективного управления системой с целью увеличения и уменьшения ее энтропии. Доказаны теоремы о решениях этих задач.

                    2. Приведены практические примеры, демонстрирующие методику использования энтропийно-вероятностной модели.

                    3. Разработаны алгоритмы и программы для эффективного управления системой на основе энтропийно-вероятностного моделирования.

                    Методология и методы исследования. Для решения поставленных задач и доказательства сформулированных утверждений применялись методы теории вероятностей и математической статистики, многомерного статистического анализа, математического анализа, выпуклого анализа, системного анализа, математического моделирования, оптимизации и численные методы. При исследовании алгоритмов для решения задач управления системами использовался метод статистических испытаний. Адекватность математических моделей подтверждалась примерами их использования.

                    На защиту выносятся следующие основные положения:

                        1. Разработан энтропийно-вероятностный метод - новый метод построения математических моделей сложных систем. Предложена энтропийно-вероятностная модель для описания многомерных стохастических систем, выделяющая переменные для оказания управляющего воздействия на систему.

                        2. Установлена двухкомпонентность энтропии, первая компонента которой характеризует аддитивность системы, вторая - ее целостность.

                        3. Сформулированы задачи эффективного управления сложными системами на основе энтропийно-вероятностной модели и доказаны теоремы о решениях этих задач. Предложена концепция «точек роста» в системе.

                        4. Предложены алгоритмы и программы решения задач эффективного управления сложными системами на основе энтропийно-вероятностного моделирования.

                        Степень достоверности результатов. Обоснованность и достоверность полученных результатов обусловлена математической строгостью постановки задач, корректным использованием математического аппарата, адекватностью разработанных моделей. Полученные в работе исследовательские результаты согласуются с результатами других авторов.

                        Апробация работы. Результаты работы докладывались и обсуждались на XI Всероссийском симпозиуме по прикладной и промышленной математике (Кисловодск, 2010), XIII Всероссийском семинаре «Моделирование неравновесных систем» (Красноярск, 2010), XI Всероссийском симпозиуме по прикладной и промышленной математике (Сочи, 2010), 33-ей Международной научной школе-семинаре «Системное моделирование социально- экономических процессов» (Звенигород, 2010), IV и V Всероссийской научно- технической конференции «Безопасность критичных инфраструктур и территорий» (Екатеринбург, 2011, 2012) , XVI Байкальской Всероссийской конференции «Информационные и математические технологии в науке и управлении» (Иркутск, 2011).

                        Результаты работы обсуждались на научных семинарах кафедры теории управления и оптимизации Челябинского государственного университета (Челябинск, 2011-2012), НИЦ «Надежность и ресурс больших систем и машин» УрО РАН (Екатеринбург, 2011-2012) и Центра экономической безопасности Института экономики УрО РАН (Екатеринбург, 2012).

                        Комплекс программ, предназначенный для эффективного распределения ресурсов в системе на основе энтропийно-вероятностного подхода, зарегистрирован в Объединенном фонде электронных ресурсов «Наука и образование» при Российской Академии Образования (ОФЭРНиО).

                        Работа выполнялась в соответствии с планами научно-исследовательских работ по гранту РФФИ 10-01-96013-р_урал_а, по проектам Программ междисциплинарных фундаментальных исследований (междисциплинарные проекты) УрО РАН № 09-М-12-2001, № 12-М-127-2049.

                        Положения и выводы диссертационной работы, а также разработанный комплекс программ использованы в ООО «Прикладные технологии» и Научно- инженерном центре «Надежность и ресурс больших систем и машин» УрО РАН для моделирования и управления многомерными стохастическими системами (подтверждено справками).

                        Структура и объем работы. Диссертационная работа состоит из введения, 4 глав, заключения, списка литературы из 163 наименований. Основной текст работы изложен на 116 страницах, включая 9 рисунков и 20 таблиц.

                        Обзор методов математического моделирования сложных систем

                        Таким образом, неоднородность элементов сложной системы обусловлена тем, что они, как правило, содержат большое число разнородных параметров и объединить их для выявления единого критерия эффективности —функционирования системьгвомногих"случаях"становится"сложной"задачей:

                        Более того, части системы не изолированы, взаимодействуют друг с другом и свойства системы существенно зависят от того, как именно взаимодействуют части. Поэтому информация о связях важна [121].

                        Изучив предлагаемые классификации систем [3, 111, 119, 148], отметим, что существуют такие категории, как закрытые и открытые, детерминированные и стохастические (вероятностные) системы, плохо, хорошо организованные и самоорганизующиеся и др. Рассмотрим упомянутые категории подробнее.

                        Вероятностные или стохастические системы - это системы, поведение которых описывается законами теории вероятностей. Для вероятностной системы знание текущего состояния и особенностей взаимной связи элементов недостаточно для предсказания будущего поведения системы со всей определенностью. Для такой системы имеется ряд направлений возможных переходов из одних состояний в другие, т. е. имеется группа сценариев преобразования состояний системы, и каждому сценарию поставлена в соответствие своя вероятность [3]. Примерами вероятностной системы являются экономика, общество [119]. Детерминированной называется система, состояние которой в будущем однозначно определяется ее состоянием в настоящий момент времени и законами, описывающими переходы элементов и системы из одних состояний в другие. Составные части в детерминированной системе взаимодействуют точно известным образом. Примером детерминированной системы может служить калькулятор, если считать его абсолютно надежным. Установка соответствующих чисел и операции между ними однозначно определяют результат работы устройства [3].

                        Согласно [148] по степени связи с внешней средой системы делятся на изолированные, закрытые, открытые. Изолированные системы не обмениваются со средой энергией и веществом. Процессы самоорганизации в них невозможны. Энтропия изолированной системы стремится к своему максимуму. Закрытые системы не обмениваются с окружающей средой веществом, но обмениваются энергией. Они способны к фазовым переходам в равновесное упорядоченное состояние. ОткрБітБіе системБі-обмениваются-с-окружающей средой знергией"и веществом. И социальные системы, биосистемы и т.п. относятся именно к открытым системам. Об этом говорится в [111]: «если в отношении материальных элементов или объектов неживой и искусственной природы проблема определения их границ как систем решается относительно просто, то применительно к субъекту деятельности - человеку, включенному в организационную деятельность, к информации, используемой в социальных системах, энергообмену живых биосистем с окружающей средой, определить границы практически невозможно; поэтому с точки зрения границ и отношений с окружающей средой все живые и социальные системы являются открытыми».

                        Классификация по признаку организованности систем впервые была предложена В.В. Налимовым [3, 81]. Под хорошо организованной системой понимается система, у которой определены все элементы, их взаимосвязь, правила объединения в более крупные компоненты, связи между всеми компонентами и целями системы, ради достижения которых создается или функционирует система. Примером хорошо организованной системы может служить сложное электронное устройство. При представлении объекта в виде плохо организованной системы не ставится задача определить все учитываемые компоненты, их свойства и связи между собой, а также с целями системы. Для плохо организованной системы формируется набор макропараметров и функциональных закономерностей, которые будут ее характеризовать. Определение этих параметров и восстановление функциональных зависимостей осуществляется на основании некоторой выборочной информации, характеризующей исследуемый объект или процесс. Далее полученные оценки характеристик распространяют на поведение системы в целом. При этом предполагается, что полученный результат обладает ограниченной достоверностью и его можно использовать с некоторыми оговорками. Так, например, если результат получен на основании статистических наблюдений за функционированием системы на ограниченном интервале времени, т. е. на основании выборочных наблюдений, то его можно использовать с некоторой -доверительной -вероятностью.- Примером—применения-подхода -отображению объектов в виде плохо организованной системы можно считать оценивание характеристик надежности системы с множеством компонентов [3].

                        Самоорганизующиеся системы - это системы, обладающие свойством адаптации к изменению условий внешней среды, способные изменять структуру при взаимодействии системы со средой, сохраняя при этом свойства целостности системы, способные формировать возможные варианты поведения и выбирать из них наилучшие. Эти особенности обусловлены наличием в структуре системы активных элементов, которые, с одной стороны, обеспечивают возможность адаптации приспособления системы к новым условиям существования, с другой стороны, вносят элемент неопределенности в поведение системы, чем затрудняют проведение анализа системы, построение ее модели, формальное ее описание и, в конечном счете, затрудняют управление такими системами. Примерами самоорганизующихся систем могут служить биологические системы, предприятия и их система управления, городские структуры управления и т.д. [3].

                        В работах [142, 151] приведен очень наглядный пример, позволяющий увидеть различие в понятиях «организация» и «самоорганизация». Представим себе группу рабочих, перед которыми наниматель ставит задачу построить дом. Люди в этой группе имеют разные навыки, опыт и знания. Если наниматель каждому работнику подробно объяснит, что и как нужно делать, а также с какими именно другими работниками следует при этом взаимодействовать, то получившаяся в результате структура группы будет сформирована путем организации. Если же наниматель ограничится лишь объяснением того, каким бы он хотел видеть готовый дом, то работники в группе вынуждены будут самостоятельно (без указаний нанимателя) разделить обязанности между собой. В этом случае структура группы возникнет благодаря самоорганизации.

                        Задачи управления системой на основе энтропийно-вероятностной модели

                        Отметим, что энтропия системы как функция её макросостояний не тождественна термодинамической энтропии. Так, энтропия всегда неподвижно лежащего" мячат с"которым не"может-ничего произойти-равна-нулю—потому что для него существует только одно состояние. Но его термодинамическая энтропия, если газ внутри находится в равновесном состоянии, будет максимальной [10].

                        В 1943 году австрийский физик Э. Шредингер в популярной книге «Что такое жизнь?» предложил понятие «отрицательной энтропии». Он говорил, что негэнтропия - движение к упорядочиванию, к организации системы. По отношению к живым системам: для того, чтобы не погибнуть, живая система борется с окружающим хаосом путем организации и упорядочивания последнего, то есть импортируя негэнтропию. Таким образом, объясняется поведение самоорганизующихся систем [154].

                        Перейдем к обзору непосредственного применения энтропии в различных интерпретациях, и ее роли в математических моделях.

                        На сегодняшний день энтропийный подход и методы нелинейной динамики представляют собой два способа изучения одного и того же, и в последние несколько десятилетий и часто встречаются в процессе изучения явления самоорганизации. Рассмотрим энтропию Больцмана в рамках статистической физики. То обстоятельство, что энтропия пропорциональна логарифму статистического веса, равному числу микросостояний системы, а под микросостоянием понимается вариант взаимодействия всех элементов системы в некоторый момент времени, тесным образом связывает энтропийный подход с методами нелинейной динамики. Дело в том, что основные законы нелинейного поведения систем изучаются в так называемом фазовом пространстве. Точками этого пространства являются те самые микросостояния, логарифму числа которых, согласно Больцману, пропорциональна энтропия. В нелинейной динамике необратимость процессов проявляется в виде сжатия с течением времени области фазового пространства, занимаемой системой. Сжатие фазового пространства означает уменьшение числа микросостояний и, следовательно, должно сопровождаться уменьшением энтропии. Последнее соответствует упорядочению в системе, и является необходимым условием самоорганизации [151].

                        Со -вторым законом- термодинамики возникла идея—эволюции самоорганизующихся систем [75]; кроме того Л. Больцман был одним из основоположников нового междисциплинарного направления: «Физика открытых систем». Он сформулировал свою Н-теорему, которая гласит, что при временной эволюции к равновесному состоянию энтропия замкнутой системы возрастает и остается неизменной при достижении равновесного состояния; поскольку энтропия является мерой неопределенности (хаотичности), то по теореме Больцмана при временной эволюции к состоянию равновесия степень хаотичности монотонно возрастает и имеет максимальное значение в состоянии равновесия. И его научная интуиция подсказывала ему, что его теория временной эволюции газа в замкнутой системе будет развита и в области открытых систем [57].

                        Как известно, эволюция - это процесс изменения, развития в природе и обществе. Вопросам эволюции открытых систем, влиянию энтропии на этот процесс немалое внимание уделяется и в работах И.Р. Пригожина [75, 87, 89], Ю.Л. Климонтовича [55]. Суть ее в том, что процесс изменения открытых систем может вести либо к деградации, либо представлять собой процесс самоорганизации, при котором возникают более сложные и совершенные структуры.

                        Энтропия сыграла немаловажную роль в исследованиях нобелевского лауреата И.Р. Пригожина. Он разработал новую теорию диссипативных (т. е. переходящих в другое состояние) структур [89]. Им был установлен закон того, что окружающая нас природа представляет не что иное, как диссипативные и недиссипативные структуры. Для обоснования этой теории в 1947 году И.Р. Пригожий доказал теорему о неравновесных процессах, исходя из которой установившемуся состоянию процесса соответствует минимальное производство энтропии (критерий минимума производства энтропии) [90]. Он показал, что если на систему наложены внешние условия, которые не дают системе достичь термодинамического равновесия, то энтропия системы увеличивается, а если такие внешние условия отсутствуют, то энтропия достигает абсолютного минимума-[ЛЛ.З-].-_ Разрабатывая теорию самоорганизации сложных систем, И.Р. Пригожий установил, что в системах с нелинейным поведением (под нелинейным поведением понимается неоднозначная реакция системы на внешнее воздействие) происходит такое явление как бифуркация. И точка бифуркации представляет собой переломный, критический момент в развитии системы, в котором она осуществляет выбор пути. Суть этого явления заключается в следующем. Если по какой-либо причине текущее состояние системы окажется неустойчивым, то перед ней может возникнуть выбор из нескольких новых состояний - произойдет бифуркация [75, 89, 125]. Например, для ученика, который только что окончил школу, предыдущее состояние «учеба в школе» становится неустойчивым, однако перед ним возникает широкий выбор новых состояний, т.е. возникает бифуркация [151]. И стоит отметить, что точки бифуркации провоцируются изменением управляющего параметра системы [141], а изменение энтропии может вывести систему на новый уровень самоорганизации, т.к. может сформироваться новая более упорядоченная структура системы[89].

                        В работах Ю.Л. Климонтовича [55, 56] раскрывается, что нормальное функционирование организма, а также социальных и экономических систем, возможно лишь при некоторой «норме хаотичности», и для открытых систем отклонения от нормы в ту или иную сторону могут означать «болезнь» системы и, следовательно, представлять собой процесс деградации. Далее, с помощью управляющих параметров можно контролировать выбор методики «лечения». И если «лечение» приближает состояние открытой системы к норме, то имеет место процесс самоорганизации. А энтропия является тем самым макроскопическим параметром, отвечающим уровню хаотичности в системе.

                        Энтропия оказалась особенно ценна в теории информации сам К. Шеннон в своей работе [152] определял величину вида (1.3) как играющую центральную роль в теории информации в качестве меры количества информации, возможности выбора и неопределенности. Впервые понятия энтропия и информация он связал в 1948 г. С его подачи энтропия стала использоваться как

                        —мера-полезной-информации-в процессах передачи-сигналов по проводам [10]: Значение энтропии (1.3) равно нулю, если какое-либо из р, равно 1, а остальные -нулю, т. е. неопределенность в информации отсутствует. Энтропия принимает наибольшее значение, когда рг равны между собой, и неопределенность в информации максимальна. То есть, что под информацией К. Шеннон понимал сигналы нужные, полезные для получателя. Неполезные сигналы, с точки зрения К. Шеннона, это шум, помехи. Если сигнал на выходе канала связи является точной копией сигнала на входе, то это означает отсутствие энтропии. Отсутствие шума означает максимум информации [10].

                        Задача минимизации энтропии системы

                        Отметим также, что в статистической механике энтропия характеризует неопределённость, связанную с недостатком информации о состоянии системы. Наибольшей оказывается энтропия у равновесной полностью беспорядочной системы - о её состоянии наша осведомленность минимальна. Упорядочение системы (наведение какого-то порядка) связано с получением некоторой дополнительной информации и уменьшением энтропии. В теории информации энтропия также отражает неопределённость, однако, это неопределенность иного рода - она связана с незнанием результата опыта с набором случайных возможных исходов. Поэтому, хотя между энтропией в физике и информатике много общего, необходимо различать эти понятия [10].

                        В общем виде недостатки использования информационной энтропии в качестве меры неопределенности системы заключаются в следующем: - формула (1.6) требует оценки вероятностей pi, что затрудняет ее практическое использование ввиду низкой точности на малых выборках—Энтропия—такого-вида-рассчитывается исходя-из плотности распределения вероятности случайного вектора, тем самым, она применима во всех системах, в которых определено понятие вероятности - в физических, биологических, экономических и т.д. [151]. К тому же, в [5, 9] говорится, что математические модели могут быть детерминированные и вероятностные. Под детерминированной моделью подразумевается, что параметры модели определяются детерминированными величинами (т.е. каждому параметру соответствует конкретное целое, вещественное или комплексное число, либо соответствующая функция). Но на практике, особенно в социальных науках это редкость. В системах обычно присутствует элемент неопределенности, либо из-за того, что система не полностью определена, либо из-за непредсказуемого характера поведения человека. С этой неопределенностью можно справиться, если в модель вместо математических переменных ввести распределение вероятностей. В таком случае мы будем иметь дело с вероятностной моделью [9]. Таким образом, является актуальной задачей разработка и формальное обоснование энтропийно-вероятностного подхода для моделирования сложных стохастических систем.

                        1. Обзор определений сложных систем показал, что разветвленность связей и неоднородность элементов системы приводят к сложности моделирования систем. 2. Анализ современных направлений математического моделирования сложных систем показал актуальность совершенствования, как математических моделей, так и методов их построения. Модели должны быть просты, адекватны, учитывать неоднородность элементов, связи между ними и явно выделять управляющие переменные. 3. Существующие энтропийные методы моделирования в состоянии справит-ься-с-неоднородностью-элементов- системы, однако,-они, в-от-личие-от — термодинамики, не формализованы и с точки зрения полноценной модели не предоставляют явные управляющие переменные и не позволяют в явном виде учитывать связи между разнородными компонентами системы. 4. В ходе анализа информационной энтропии выявлены недостатки ее использования в качестве меры неопределенности системы. 5. Сделан вывод об актуальности задачи разработки и формального обоснования энтропийно-вероятностного подхода для моделирования сложных стохастических систем. ГЛАВА 2. Энтропийно-вероятностное моделирование

                        В данной главе проведена формализация энтропийно-вероятностного подхода на основе—гипотезы, что систему можно представить в виде многомерного нормально распределенного случайного вектора. Построена и исследована энтропийно-вероятностная модель, и на ее основе сформулированы и исследованы задачи управления системами. Введена концепция точек роста для системы.

                        Пусть X - некоторая непрерывная случайная величина. Если известен ее закон распределения, то ее дифференциальная энтропия или энтропия закона распределения определяется по формуле [152]

                        При замене интеграла на конечную сумму в (2.1), нетрудно убедиться, что информационная (2.1) и дифференциальная (2.2) энтропии отличаются друг от друга на константу [127]. Однако, дифференциальная энтропия, являясь числовой характеристикой (функционалом) закона распределения рх(х), имеет ясную интерпретацию и поэтому более предпочтительна для использования. Для удобства возьмем в (2.1) натуральное основание логарифма, т.е. определим энтропию как H(X) = -]px(x)hpx(x)dx.

                        Представим сложную стохастическую систему S в виде многомерной слу чайной-величины Y-={Y Y2,-.7,Ym)-. Каждый элемент Г;-этого-век-тора-является-одномерной случайной величиной, которая характеризует функционирование соответствующего элемента исследуемой системы. Элементы могут быть как взаимозависимыми, так и не зависеть друг от друга [131, 132].

                        Предпосылка о нормальной распределенности вектора основана на том, что на сегодняшний день нормальный закон распределения является одним из наиболее распространенных и универсальных в исследовательских методах. Имеет смысл специально рассматривать совместное нормальное распределение как имеющее наибольшее распространение на практике [24]. Это обусловлено тем, что, в_о-первых,_очень даст мы оперируем-малыми-выборками—на которых — нет возможности точно оценить закон распределения, что позволяет использовать нормальный закон, т.к. статистический критерий согласия его не отклоняет. К тому же, опираясь на центральную предельную теорему, на практике вообще широко применяется приближенная замена одних законов распределения другими; при той сравнительно малой точности, которая требуется от вероятностных расчетов. Опыт показывает, что когда число слагаемых порядка десяти (а часто и меньше), закон распределения суммы обычно может быть заменен нормальным [24].

                        Во-вторых, согласно центральной предельной теореме закон распределения суммы достаточно большого числа независимых случайных величин (при соблюдении некоторых нежестких ограничений) сколь угодно близок к нормальному. Так как многие случайные величины в приложениях формируются под влиянием нескольких слабо зависимых случайных факторов, их распределение считают нормальным [24, 117].

                        Моделирование системы, оказывающей влияние на численность населения Российской Федерации

                        Таким образом, нахождение аналитического решения задач (3.1) является довольно трудоемкой задачей в сравнении с реализацией численных методов, поэтому обратимся к численным методам.

                        Как известно, для решения общей задачи нелинейного программирования было предложено довольно много алгоритмов, однако лишь немногие из них оказались эффективными, особенно для задач большой размерности. Ни один из этих алгоритмов не имеет по отношению к другим таких преимуществ, чтобы его можно было считать универсальным средством решения любых задач нелинейного программирования [22].

                        Одним из критериев эффективности алгоритма может служить информация о сходимости и скорости сходимости алгоритмов, однако, доказательства сходимости применимы только к весьма узким категориям задач и могут служить лишь как дополнительная информация для исследователя, применяющего тот или иной алгоритм. В отличие от линейного программирования при решении задачи нелинейного программирования выбранный алгоритм может оказаться эффективным, даже если не удается доказать его сходимость [6, 30].

                        К числу важных критериев эффективности, используемых при оценивании «качества» того или иного алгоритма, относятся такие критерии как [145]: 1. время, необходимое для реализации серии вычислительных процедур, отметим, что время, затраченное алгоритмом на вычисление, чаще всего используют для характеризации сложности алгоритма [63]; 2. количество вычислений значений функций, требуемое для получения оптимального решения той или иной тестовой задачи с заданной степенью точности и (или) затраты машинного времени, сопряженные с решением рассматриваемой тестовой задачи 3. степень сложности задачи (размерность, число ограничений в виде неравенств, число ограничений в виде равенств, вид целевой функции) 4. простота практического использования алгоритма 5. точность решения по отношению к оптимальному X Наконец, важное требование, предъявляемое к алгоритму нелинейного программирования, заключается в том, чтобы 6. он позволял решать задачи, которые представляют практический интерес. На сегодняшний день широко распространенными и хорошо зарекомендовавшими себя методами условной оптимизации являются такие категории численных методов как методы последовательной оптимизации, комплексный метод Бокса, метод Зойтендейка и другие. [7, 12, 77].

                        Для численной реализации задачи (3.1) сравним работу следующих 7 алгоритмов: 1. метод внешних штрафов в совокупности с методом наилучшей пробы 2. метод комбинированных штрафов в совокупности с методом наилучшей пробы, 3. метод внутренних штрафов в совокупности с методом наилучшей пробы, 4. комплексный метод Бокса

                        Кроме того, дополнительно оценим эффективность метода внешних штрафов в совокупности с методом градиентного спуска с постоянным шагом [77].

                        Оценку эффективности работы-выделенных алгоритмов .будем .проводить на_ большом числе тестовых задач и в качестве сравнительных параметров алгоритмов примем следующие показатели:

                        Методы условной оптимизации, сводящиеся к последовательной безусловной оптимизации (методы штрафов) основываются на преобразовании задачи условной оптимизации в последовательность задач безусловной оптимизации путем введения в рассмотрение вспомогательных функций. Основная идея этой группы методов заключается в том, что строится последовательность задач безусловной оптимизации на основе того, что к целевой функции добавляется определенная функция, которая будет накладывать «штраф» за невыполнение ограничений. В зависимости от вида добавляемой функции штрафа в группу методов последовательной минимизации входят метод внешних, внутренних и комбинированных штрафов.

                        В качестве вспомогательного метода может быть использован любой из общеизвестных методов безусловной оптимизации. В данной работе используются метод наилучшей пробы и метод градиентного спуска.

                        Метод внешних штрафов основывается на добавлении к целевой функции новой функции, интерпретируемой как штраф за нарушение каждого из ограничений. В методе внешних штрафов задача (3.1) будет сведена к последовательности задач поиска безусловного минимума вспомогательной функции:

                        На каждой А ой итерации ищется точка х (г ) минимума вспомогательной функции F(x,rk) при заданном параметре гк с помощью метода наилучшей пробы. Полученная точка х {гк) используется в качестве начальной на следующей итерации, выполняемой при возрастающем значении параметра штрафа. При неограниченном возрастании гк последовательность точек х ( ) стремится к точке условного минимума.

                        Для реализации алгоритма наряду с начальной точкой необходимо задать начальное значение параметра штрафа г 0 и число С \ для увеличения параметра. Обычно выбирается г =0,01;0,1;1, а Се[4,10] [77].

                        Алгоритм завершается при Р(х {гк\гк) є, где є - малое число, заданное дл остановки алгоритма. Сходимость метода доказана в [80].

                        Метод внутренних штрафов заключается в добавлении к целевой функции исходной задачи слагаемого, которое не позволяет генерируемым точкам выйти за пределы допустимой области.

                        Метод внутренних штрафов требует ограничений типа неравенств, поэтому задача (3.1) будет преобразована: Начальная точка задается внутри множества X. На каждой А:-ой итерации ищется точка х (г )минимума вспомогательной функции Fix,rk) при заданном параметре гк с помощью метода наилучшей пробы. Полученная точка х\гк) используется в качестве начальной на следующей итерации, выполняемой при уменьшающемся значении параметра штрафа. При гк — +0 последовательность точек х\гк) стремится к точке условного минимума. Функция штрафа служит барьером, препятствующим выходу из множества X, а если решение задачи лежит на границе, как в случае задачи (3.2), то процедура метода приводит к движению изнутри к границе.

                        Для реализации алгоритма наряду с начальной точкой необходимо задать начальное значение параметра штрафа г 0 и число С 1 для уменьшения параметра. Обычно выбирается г =1;10;100, а С = 10;12;16 [77] Алгоритм завершается при \Ріх ігк),гк)\ є, где є - малое число, заданное для остановки алгоритма. Сходимость метода доказана в [80].

                        Похожие диссертации на Энтропийно-вероятностное моделирование сложных стохастических систем