Электронная библиотека диссертаций и авторефератов России
dslib.net
Библиотека диссертаций
Навигация
Каталог диссертаций России
Англоязычные диссертации
Диссертации бесплатно
Предстоящие защиты
Рецензии на автореферат
Отчисления авторам
Мой кабинет
Заказы: забрать, оплатить
Мой личный счет
Мой профиль
Мой авторский профиль
Подписки на рассылки



расширенный поиск

Теоретико-информационный подход в исследовании динамического беспорядка в сложных системах Емельянова Наталья Александровна

Теоретико-информационный подход в исследовании динамического беспорядка в сложных системах
<
Теоретико-информационный подход в исследовании динамического беспорядка в сложных системах Теоретико-информационный подход в исследовании динамического беспорядка в сложных системах Теоретико-информационный подход в исследовании динамического беспорядка в сложных системах Теоретико-информационный подход в исследовании динамического беспорядка в сложных системах Теоретико-информационный подход в исследовании динамического беспорядка в сложных системах Теоретико-информационный подход в исследовании динамического беспорядка в сложных системах Теоретико-информационный подход в исследовании динамического беспорядка в сложных системах Теоретико-информационный подход в исследовании динамического беспорядка в сложных системах Теоретико-информационный подход в исследовании динамического беспорядка в сложных системах
>

Диссертация - 480 руб., доставка 10 минут, круглосуточно, без выходных и праздников

Автореферат - бесплатно, доставка 10 минут, круглосуточно, без выходных и праздников

Емельянова Наталья Александровна. Теоретико-информационный подход в исследовании динамического беспорядка в сложных системах : Дис. ... канд. физ.-мат. наук : 01.04.02 : Казань, 2004 161 c. РГБ ОД, 61:05-1/155

Содержание к диссертации

Введение

1 Кинетическая теория дискретных стохастических немарковских процессов в сложных системах 12

1.1 Энтропия 12

1.1.1 Понятие энтропии в термодинамике 12

1.1.2 Понятие энтропии в статистической физике 13

1.1.3 Энтропия в сложных системах 23

1.2 Теория стационарных дискретных немарковских стохастических процессов 32

1.2.1 Временная корреляционная функция 33

1.2.2 Вывод кинетического уравнения для временных корреляционных функций 38

1.2.3 Динамические ортогональные переменные. Кинетические уравнения с памятью для временных корреляционных функций 41

1.3 Параметр немарковости 46

2 Теоретико-информационный подход к исследованию сложных систем 48

2.1 Функции памяти временных корреляций 48

2.2 Динамическая информационная энтропия Шеннона 52

2.2.1 Времена релаксации 54

2.2.2 Спектр параметра немарковости 55

2.3 Обобщенная динамическая информационная энтропия Цаллиса для двух стохастических каналов эволюции 56

2.3.1 Время релаксации 59

2.3.2 Статистический спектр параметра немарковости 60

2.3.3 Частотный спектр параметра немарковости 60

3 Применение теоретико-информационного метода к анализу динамики модельных систем 61

3.1 Исследование простых физических модельных систем 63

3.2 Движение броуновского осциллятора 65

3.3 Движение броуновского осциллятора с шумом 73

3.4 Релаксация флуктуации плотности в гидродинамическом пределе. Формула Ландау-Плачека 74

3.5 Идеальный газ 76

Приложение

Введение к работе

Понятие "энтропия" ассоциативно связано в нашем сознании с беспорядком, который следует понимать только в том смысле, что микроскопическое состояние системы многих частиц задаётся набором случайных величин, исчисляемых на основе вероятностных законов. В силу фундаментальности энтропии и возможности её экспериментального изучения, исследование вопроса о связи энтропии с конкретными явлениями разуиорядочивания представляется весьма важным.

Объектом обсуждения в данной работе являются сложные системы. Достаточно хорошо известно, что системы реального мира (физические, химические, биологические и физиологические) и искусственные конструкции (ма. тематические, компьютерные) характеризуются различной степенью сложности [5, 15, 19, 20, 21, 31, 32, 57]. Поразительное разнообразие, богатство форм и структур окружающей нас природы связано с каскадом неустойчивостей и разномасштабных флуктуации, играющих важную роль [34, 35, 36, 40, 41, 12, 43, 48, 49, 104, 105, І06, ИЗ]. Сложные явления в нелинейных динамических системах зачастую обнаруживают поразительное сходство, и поэтому методы физических наук могут напрямую применяться для решения различных нетрадиционных для физики проблем [60, 95, 109, 110, 111, 135, І38]. Изучение сложных процессов в физических, физико-химических и биологических системах порождает ситуацию, в которой большое число собственно физических понятий, таких как неравновесность, устойчивость и неустойчивость, бифуркация, дальний порядок и нарушение симметрии и др. успешно применяются к объяснению явлений в биологии и медицине, социальных процессах [54, 55, 58, 59, 64, 77, 114, 136]. Обсуждение таких весьма разнообразных сложных систем активно ведется на страницах различных научных изданий. Однако до сих пор нет достаточно ясного определения сложности.

Под сложностью в широком смысле можно понимать, что: система содежит большое число взаимодействующих степеней свободы (высоко-размерная система); некоторые переменные имеют обратную связь с другими переменными; достаточно слабый внешний сигнал может разрушить первоначальную "траекторию" эволюцию системы, вызывая в ней непредсказуемое, хаотическое поведение; последовательные события происходят независимо друг от друга, то есть, являются мартовскими; система характеризуется большой изменчивостью своих параметров (или достаточно широким распределением); плавная эволюция системы может прерываться периодами не стационарности (стохастического "дрейфа").

Однако попытки непосредственного вычисления энтропии для таких систем сталкиваются с некоторыми затруднениями. Для сложных систем, зачастую характеризуемых лишь набором экспериментальных временных данных, довольно проблематично построить функцию распределения или найти распределение вероятностей, которые необходимы для вычисления энтропии. В работе предложено в качестве вероятностей состояния использовать функ ции памяти (квадрат модуля функции), которые с помощью кинетической теории дискретных немарковских стохастических процессов можно вычислить непосредственно из экспериментальных данных. Таким образом, предлагается метод вычисления динамических информационных энтропии, основанный на учете временных корреляций на различных уровнях релаксации сложной системы.  

Понятие энтропии в термодинамике

Понятие энтропии возникает при формулировке II начала термодинамики (1865 г., Клаузиус): в замкнутой и изолированной системе все процессы про исходят без уменьшения энтропии: AS 0. Причём, если в обратимых процессах она сохраняется (AS = 0), то в необратимых - энтропия возрастает # (AS 0). При притоке тепла AQ в систему с температурой Т её энтропия возрастает на величину: Абсолютное значение энтропии позволяет установить III начало термодинамики (теорема Нернста: при стремлении к нулю абсолютной температуры, разность AS для любого вещества стремится к нулю независимо от внешних щ параметров), отсюда следует, что при ТабС — 0 S = 0. Начальная точка So 0 при Т = 0. Термодинамика неравновесных процессов позволяет более детально, чем классическая термодинамика, исследовать процесс возрастания энтропии и вычислить количество энтропии, образующейся в единице объёма в единицу времени вследствие отклонения системы от термодинамического равновесия - производство энтропии. Начало статистического подхода к термодинамике связано с работами Р. Кла-узиуса, Дж.К. Максвелла и Л. Больцмана по молекулярно-кинетической теории [1]. В статистической физике энтропия рассматривается как мера вероятности осуществления какого-либо макроскопического состояния. где W статистический вес данного равновесного состояния, к - постоянная Больцмана, W(E,N) - число квантовомеханических уровней в узком интер вале энергии АЕ вблизи значения энергии Е системы из N частиц [28, стр. 117]. Если рассматривать определенную область энергии 6Е, то W — W{E)6E. Если 5Е велико по сравнению с разностью двух соседних уровней энергии, то YV(E) - гладкая функция энергии, которую можно однозначно определить и вычислить, но все же W пропорциональна несколько неопределенной вели чине 6Е. Численные расчеты S не зависят от величины 5Е в широких пределах. В пределах точности, в которых S определяется практически, нет существенной разницы в том, приравнивать ли S логарифму числа состояний, энергия которых отличается от Е на величину, меньшую 6Е, или же логарифму числа состояний, энергия которых меньше Е, J0 VV(E)dE. Действительно: dW/dE всегда положительно, W(E) возрастает монотонно с Е, и два рассматриваемых числа отличаются самое большее на множитель Е/6Е: о

Пока 6E не выбрано чрезвычайно малым, величиной ш(Е/6Е) можно вполне пренебречь, по сравнению с огромным числом состояний. Например, система, состоящая из 1 моля гелия при Т = 273 и р = 1 атм., InVV = А 1025. Самый точный опыт позволяет определить энергию Е с точностью до 0,000001, это соответствует величине ІП.Е/6Е, порядка 14. Если &Е/Е та 10 10 , 1п(Е/6Е) та 1020, разность правой и левой частей (1 1.2) составляет 10 5, и два определения S отличаются только на 10 3% (6Е - убывает обрат но пропорционально времени изоляции системы, вследствие этого энтропия действительно изолированной системы (изолированной в течение бесконечно долгого времени) равна 0). Энтропия пропорциональна размерам системы, для систем молекулярного размера она будет настолько малой, что неопределенности в энергии, которые по своей природе не зависят от размеров системы, будут заметно влиять на ее величину. В этом случае можно применять только метод Гиббса. (Вместо одной системы рассматривается большое число N тождественных сие і ем в тепловом контакте. Энтропия S малой системы вычисляется как функция средней энергии Е). Идеальный одноатомный газ Идеальный одноатомный газ это простейшая система (идеализированная эргодичная система независимых точечных масс). Область ] фазового пространства определяется следующим образом: N-, -число молекул, С, - число ячеек, энергия которых лежит между е, и c-f-j Ас,, Задача вычисления числа состояний W, совместимых с заданной энергией } в интервале Aj, сводится к подсчету количества способов распределения N, молекул по Cj ячейкам. Конечное выражение существенно зависит от статистики, которой подчиняются молекулы. Возможны три варианта: статистика Бозе-Эйнштейна (системы симметричного типа); статистика Ферми-Дирака (системы антисимметричного типа); статистика Больцмаиа (системы различимых частиц). В этом случае в каждой ячейке Cj может находиться произвольное число частиц. Состояние всей системы определяется числом атомов в каждой ячейке. Полное число состояний:

Теория стационарных дискретных немарковских стохастических процессов

Впервые представление о марковских процессах было введено русским математиком А.Л. Марковым в 1905 г. [29]. Марковский случайный процесс характеризуется отсутствием памяти. Временная эволюция такого случайною процесса после момента времени t не зависит от предшествующих состояний. К немарковским относятся процессы, в которых существуют эффекты памяти, т.е. состояние системы определяется эволюцией от начального момент времени. Марковские процессы являются частным случаем немарковских, при условии мгновенной, быстро затухающей памяти. Немарковские методы описания приобрели широкую популярность в исследованиях неравновесных процессов в конденсированных средах после работ Цванцига и Мори [107, 108, 151, 152], Широкое использование представлений о немарковских процессах связано с интенсивным распространением метода проекционных операторов. Последний позволил находить немарковские кинетические уравнения для временных корреляционных функций (ВКФ) флуктуации физических величин. Временную эволюцию состояний системы удобно описывать с помощью нормированных стационарных и нестационарных временных корреляционных функций. Используемая нами теория основана на том, что многомерный динамический вектор состояния подчиняется дискретному уравнению движения с временным шагом, определяемым характером изучаемой системы [6, 7, 8, 9, 10, 11, 12, 13, 66, 67, 68, 69, 70, 72, 149]. Для исследования системы вводится эволюционный оператор динамической системы. Сокращение в описании проводится с помощью процедуры проектирования в многомерном ев клидовом пространстве. Последовательное проектирование, осуществляемое с помощью набора проекционных операторов и процедуры ортогонализации Грама-Шмидта, приводит к набору зацепляющихся скалярных кинетических уравнений для ВКФ и функций памяти. Эти уравнения имеют немарковскую временную структуру, отражают статистические долговременные эффекты памяти и позволяют учесть свойства нсстационарности в рассматриваемых системах. Они содержат большое число кинетических и релаксационных параметров и характеристик.

Последние легко вычисляются для конкретного экспериментального временного ряда. Величины и знаки кинетических и ре лаксационных параметров определяют тип и характер решения кинеіических уравнений. Функции памяти содержат подробную информацию о "ближних" и "дальних" статистических эффектах памяти. Весьма подробную дополнительную информацию об эффектах памяти и динамических режимах эволюции системы можно получить с помощью вычисления физического па раме і ра помарковости и его статистического спектра. Частотные спектры мощности исходной ВКФ и младших функций памяти, фазовые портреты в плоских проекциях младших динамических ортогональных переменных и частотный спектр обобщенного динамического параметра немарковости позволяют по лучить качественную и количественную информацию о динамических состояниях сложной системы. Набор этих величин и функций служит дополнительным диагностическим средством исследования динамических состояний различных сложных систем [6, 7, 8, 9, 10, 11, 12, 13, 66, 67, 68, 69, 70, 72, 149] Временная корреляционная функция используется для анализа статистического поведения зависящей от времени величины A(t), измеряемой в течении большого промежутка времени. При анализе сначала находится среднее ига чрние физического параметра называется временной корреляционной функцией (ВКФ). Если система ергодична, то среднее по времени равно среднему по ансамблю. В равновесной системе С(і) зависит только от промежутка времени t. Определение ВКФ C(t) основано на траектории зависящей от времени переменной А(1), которая может быть получена, например, при численном моделировании. В большинстве же экспериментов непосредственно измеряется Фурье-образ ВКФ который называют спектральной плотностью. Зная спектральную плотность, можно восстановить временную зависимость ВКФ с помощью обратного преобразования Фурье. Представим хаотическую динамику исследуемого параметра сложной системы в следующем виде: Набор измеряемых величин (1.2.5) соответствует сигналу, зарегистрированному за временной период t = (N —1 )т, где т- шаг дискретизации измерения. Среднее значение (X), флуктуация 6XJ, дисперсия (сг2), и относительная дисперсия (&2) случайной переменной вычисляются следующим образом: Эти параметры характеризуют статические (независимые от времени) свойгт ва стационарной системы. В реальных выборках (X), (а2) и {62) зависят о г Т, т и N. Легко определить и условие квазистационарности процесса Далее рассматривается стационарная система, где выполняется условие такого типа. Нормированная корреляционная функция (ВКФ), зависящая от времени t — гат, N — 1 m 1, используемая для описания динамических свойств системы, записывается следующим образом: Свойства нормировки и ослабления корреляций легко определяются wi определения ВКФ (1.2.10) Однако следует учитывать, что в реальных ситуациях второе условие не всегда удовлетворяется даже для достаточно больших времен t. Для дискретных процессов операции дифференцирования и интегрирования следует записывать следующим образом: Вторая дискретная производная Рассмотрим динамику стохастического процесса. Для реальных сложных систем значения X} = х(Т + jt) и 5XJ — 6х(Т + jx] получаются из экспериментальных данных. Введем оператор эволюции U(T-- t2,T + Li) Сдвиг на один шаг т по временной шкале определяется оператором эволюции где x(t + т) и x(t) представляют собой два ближайших соседних значения случайной переменной. Учитывая уравнения (1.2.14), (1.2.15), формалыюо уравнение движения для любого Xj Є (хо,Хі,Х2, »X-N-I) можно записать следующим образом: Запишем (1.2.16) через дискретные значения х3 Вводим квазиоператор1 Лиувилля t следующим образом: Представим набор значений динамической переменной 5х, = 6X(T+JT), j =: 0,1 у..., N — 1 через k-компонентный вектор начального состояния системы Далее используем выражение для скалярного произведения векторов для векторов состояния Ак(0) и A+k(t), где t — тт и Здесь величина к N—1 представляет собой размерность вектора состояния." Функции (1.2.8), (1.2.9) выражаются через скалярное произведение векторов состояния следующим образом: k-компонентный вектор A+k(t), сдвинутый на расстояние t = тпт по дискретной временной шкале, может быть формально получен с помощью многократного действия эволюционного оператора U(t + т, t)

Динамические ортогональные переменные. Кинетические уравнения с памятью для временных корреляционных функций

Дискретная функция памяти M-I(JT) В (1.2.37) представляет собой нормированную ВКФ, эволюция которой определяется деформированным Лиувилли-1ШОМ (С ) = I) для новой динамической переменной В = iL2iAk(0). Таким образом, мы можем полностью повторить процедуру (1.2.26) - (1.2.37) и получить соответствующее немарковское кинетическое уравнение для функции памяти Mi 0т). Повторяя многократно эту операцию, мы получаем цепочку кинетических немарковских уравнений для ВКФ. Однако эта цепочка может быть получена более простым путем. Для этого используем развитый раннее метод [46] для непрерывных гамильтоновых систем с учетом дискретности времени. Напомним наше конечно-разностное уравнение движения (1.2.17) где введен квазиоператор Лиувилля t Применяя квазиоператор L к динамической переменной A,_k(t} (t = піт, т - дискретный временной шаг), мы получаем набор динамических функций -42 Используя переменные Вп(0), можно найти формальное решение уравнения эволюции (1.2.39) в виде Однако в целях обобщения полученного результата и для компактное і и мы применим другую процедуру. Воспользуемся операцией ортогонализации Грама-Шмидта [39] к набору переменных Ви(0). Тогда можно легко получить набор динамических ортогональных переменных, то есть, набор новых векторов состояния Wn Здесь угловые скобки (...) введены в (1.2.19) - (1.2.21), и 6ПД представляет собой символ Кронекера. Далее мы можем ввести рекуррентное соотношение, в котором старшие значения Wn = Wn(t) связаны с младшими Здесь мы использовали уравнение, выведенное ранее для значения п — О Динамическая переменная любого порядка Wn может быть найдена непосредственно из начальной Wo — А(0) С помощью (1.2,44) Физический смысл переменных Wn состоит в следующем. Например, в физике сплошных сред в качестве исходной переменной Wo можно рассматривать флуктуации локальной плотности. Тогда флуктуации плотности локального потока, плотности энергии и плотности потока энергии соответствуют динамическим переменным Wn с номерами п = 1,2 и 3. Набор динамических переменных (1.2.46) связан с набором операторов проектирования. Они проектируют любую динамическую переменную (т.е. вектор состояния) Y на соответствующий сектор состояния Оба набора (1.2.41) и (1.2.46) конечны.

Если мы используем операторы в евклидовом пространстве динамических переменных, то формальное выражение (1.2.47) записывается следующим образом: В соответствии с (1.2.29) - (1.2.30), (1.2.47), (1.2.48) можно ввести выражение дли расщепления оператора Лиувилля через диагональные ( [" ) и недиагональные (CJ1 J матричные элементы при і ф j, п 1 Например, для второго диагонального матричного элемента можно записать следующее выражение: Действуя операторами проектирования ГТП и Рп на дискретное уравнение (1.2.39), получаем цепочку связанных конечно-разностных уравнений немар ковского типа для нормированных дискретных функций памяти Собственные частоты wQ и главные релаксационные частоты Оп определяются через ортогональные переменные следующим образом: Набор функций (1.2.52) вместе с начальной ВКФ (при n = 0) можно рассматривать как функции, характеризующие статистическую память сложной системы с дискретным временем. Начальная дискретная ВКФ a(t) и набор дискретных функций памяти !Vln(t) в уравнении (1.2.51) играют важную роль для описания эффектов немарковости и долговременной памяти. Запишем набор дискретных кинетических уравнений (1.2.51), как систему немарковских дискретных уравнений для начальной дискретной ВКФ a(t) (t тпт дискретное время) для первых трех уровней кинетического описания. Кинетические конечно-разностные уравнения (1.2.51) и (1.2.53) являются аналогом известной цепочки кинетических уравнений Цванцига-Мори, которая играет фундаментальную роль в современной статистической физике неравновесных явлений с непрерывным временем. Кинетические уравнения (1.2 53) можно рассматривать как конечно-разностный аналог уравнений гидродинамики для физических явлений с дискретно меняющимся временем. Динамические ортогональные переменные Wn могут быть найдены из исходного временного ряда экспериментальных данных В конкретных приложениях следует учитывать, что из-за применения конечных разностей размерность новых векторов состояний Wn с ростом но мера п постепенно понижается на единицу. Поэтому, если начальный вектор А имел размерность к, то последующие вектора состояния Wj, W2 и W3 будут иметь размерности, равные соответственно к—1, к—2 и к—3, а вектор Wn будет иметь размерность, равную к —п.. В общем случае, решая цепочку уравнений (1.2.53), можно найти рекуррентные формулы для функций памяти младших и старших порядков в следующей форме: Совокупность введенных здесь представлений о дискретных свойствах позволяет подробно исследовать немарковские свойства дискретных случайных процессов.

Обобщенная динамическая информационная энтропия Цаллиса для двух стохастических каналов эволюции

Рассматривая энтропию Цаллиса (1.1.10) для двух стохастических каналов эволюции, определим двухканальпую обобщенную динамическую информационную энтропию Цаллиса2 для любого Tiro уровня релаксации [71]: В соответствии с (2.2.3) разделим энтропию (2.3.2) на два канала: Рассмотрим некоторые общие аналитические свойства введенных выше энтропии В общем виде можно представить их как функционалы временных корреляционных функций, которые мы обозначим через Е, Поскольку ВКФ меньше единицы, тогда все эти энтропии положительную. Легко видеть, что в пределе q — 1 обобщенная динамическая информационная энтропия Цаллиса (2.3.3с) и оба ее канала (2.3.3Ь) переходят в динамическую информационную энтропию Шеннона (2.2.4) и в соответствующие два канала (2.2.3) По этой причине мы будем называть динамическую информационную энтропию Шеннона (2,2.4) динамической информационной энтропией Цаллиса (2.3.3с), вычисленной в точке q = 1. Энтропия Sqn (2.3.4а) достигает СВОЄЇ о максимального значения {2] q — 1)/(1 — q) при J2 = j. (В пределе q — 1 максимальное значение равно In 2.) Для малых значений ВКФ j2 энтропии SqTt( S n сильно зависят от величины q. Для малых значений q С 1 получаем случае имеет вид: S и jJ2lnJ2. Формулы (2.3.6) справедливы во всех трех случаях q2 » 1, qj2 С 1, qjJ2 sa 1. Таким образом, SJn Sqn,SqTl,S. и мы видим, что малые значения q приводят к увеличению энтропии Scqnt Sqn, S в области малых значений ВКФ \Е\. При q 1 необходимо рассмотреть три случая qjJ2 С 1, qJ2 - 1, q2 - 1. Соответственно получаем Отсюда видно, что для существенно больших значений q и в области малых ВКФ, J2 1, имеем: Sqn, S$n, S$n S. Образно говоря, малые значения q "работают" как увеличительная линза в области малых значений J, и наоборот большие значения q "работают" как уменьшающая линза в области малых значений Щ. Используя этот факт, можно выявить детальную структуру энтропии. Необходимо отметить, что определенные выше энтропии качественно повторяют поведение квадрата модуля ВКФ. Если в какой-либо момент времени ВКФ равна нулю, то равны нулю и энтропии для произвольных, но положительных q. Дополнительно к этому энтропии равны нулю в точках, где ВКФ равна единице. Экстремумы энтропии также повторяют соответствующие экстремумы ВКФ. Действительно, производная но времени от любой и І энтропии равна нулю в те моменты времени, когда равна нулю производная от ВКФ Таким образом, положение нулей и экстремумов энтропии качественно повторяет нули и экстремумы ВКФ. Величина энтропии в экстремумах сильно зависит от величины параметра неэкстенсивности q Мальте значения q приводят к увеличению энтропии в областях малых значений ВКФ Наоборот, большие q приводят к подавлению величины экстремумов. Времена релаксации в этом случае будут выглядеть следующим образом: где At — т - временной шаг дискретизации, n - номер релаксационного уровня (п=0, 1, 2, 3), і - номер временного шага (г=1, 2, ..., N), q el. Различные виды статистического спектра параметра пемарковости с учетом выражений (2.2.10) и (2.3.9) можно записать в следующем виде: Для более детального исследования марковских и нсмарковских свойств сложных систем мы вычисляем частотные спектры различных значений параметра немарковости.

Для этого мы используем частотный спектр мощное і и обобгценной динамической энтропии Цаллиса (2.3 Зс) и частотные спектры мощности энтропии двух стохастических каналов рождения и уничтожения памяти (2,З.ЗЬ), полученные с помощью быстрого преобразования Фурье. В общем виде выражение для вычисления частотного спектра мощности napaJ метра немарковости выглядит следующим образом: где sqri-1 (ш) и Sqn(cu) есть частотные спектры мощности обобщенной динамической энтропии Цаллиса для предыдущего и последующего релаксационных уровней (см. Sqn в (2.3.3с) ДЛЯ TL — 1 и п.). Таким образом, мы получаем различные виды частотных спектров параметра немарковости. Для стохастического канала рождения памяти: где s (си) и s4n{cu) есть частотные спектры мощности динамической энтропии Цаллиса для стохастического канала рождения памяти для предыдущего и последующего релаксационных уровней (см. Sq в (2.3.3Ь)). Для стохастического канала уничтожения корреляций где Sqn t (си) и Sqn(cu) есть частотные спектры мощности динамической чнгро-пии Цаллиса для стохастического канала уничтожения памяти для предыдущего и последующего релаксационных уровней (см. S в (2.3.3Ь)). Для учета взаимодействий между стохастическими каналами рождения и уничтожения корреляций (или, в более общем случае, памяти) мы вычисляем следующий частотный спектр параметра немарковости: где Sq fcu) есть частотные спектры мощности динамической энтропии Цаллиса для стохастического канала рождения памяти, trs? (си) есть частотные опектры мощности динамической энтропии Цаллиса для стохастического канала уничтожения памяти, (см. SS и S? в (2.3.3Ь)). Также введем еще несколько различных модификаций частотного спектра параметра немарковости. Например, для учета взаимодействий между каналами рождения корреляций и обобщением обоих каналов (рождения и уничтожения корреляций) где Sq (ш) есть частотные спектры мощности обобщенной динамической энтропии Цаллиса для стохастического канала рождения корреляций, и sqn(a ) есть частотные спектры мощности обобщенной двухканальной динамической энтропии Цаллиса (см. SqrL в (2.3.3с) и Scq в (2.3.3Ь)). Для учета взаимодействий между каналами уничтожения корреляций и обобщением обоих каналов (рождения и уничтожения корреляций) где Sq uO есть частотные спектры мощности обобщенной динамической энтропии Цаллиса для стохастического канала уничтожения корреляций и Лш) есть частотные спектры мощности обобщенной двухканальной динамической энтропии Цаллиса (см. Sqn в (2.3.3с) и S n в (2.3.3Ь)). Необходимо заметить, что в случае си — 0 частотный спектр параметра немарковости принимает значения статистического спектра параметра немарковости, вычисляемого с помощью времен релаксации (см. уравнения (2.3.10)). Таким образом, частотный спектр параметра немарковости является обобщением статистического спектра параметра немарковости и позволяет получать информацию о динамическом поведении сложных дискретных систем немарковского типа на всем спектре исследуемых частот.

Похожие диссертации на Теоретико-информационный подход в исследовании динамического беспорядка в сложных системах