Содержание к диссертации
Введение
1. Обзор и анализ средств и методов моделирования и оптимизации многоэтапных процессов 10
1.1. Ограничения использования регрессионного анализа 10
1.2. Прикладные возможности нейронных сетей 12
1.3. Элементы теории нейронных сетей 14
1.4. Архитектура нейронной сети 1.4.1. Классификация нейронных сетей и их применение 16
1.4.2. Многослойные нейронные сети 19
1.4.3. Радиальные нейронные сети
1.5. Теоретические основы аппроксимационных свойств многослойных нейронных сетей 24
1.6. Понятие профиля компактности и предобработка данных в задаче классификации 25
1.7. Масштабирование данных 29
1.8. Определение необходимого числа нейронов в сети 29
1.9. Обучение нейронной сети
1.9.1. Алгоритмы обучения нейронных сетей 32
1.9.2. Понятие о задаче оптимизации 35
1.9.3. Обучение нейронной сети как задача оптимизации 37
1.9.4. Алгоритмы оптимизации функции ошибки выхода сети
1.10. Критерий окончания обучения нейронной сети 45
1.11. Показатели значимости входных параметров 45
1.12. Инверсия нейронной сети 47
1.13. Выводы 49
2. Разработка математической модели 51
2.1. Применение понятия профиля компактности для предобработки данных в задаче моделирования
2.2. Алгоритм получения равномерного распределения точек на поверхности решения задачи оптимизации с помощью инверсии нейронной сети 54
2.3. Алгоритм поиска смежных точек в пространстве 58
2.4. Начальные значения весовых коэффициентов 61
2.5. Функция активации нейронов 64
2.6. Выводы 67
3. Разработка автоматизированной системы 68
3.1. Программное обеспечение 69
3.2. Информационное обеспечение 75
3.3. Выводы 84
4. Анализ результатов моделирования и оптимизации на основе разработанной модели 85
4.1. Применение разработанного обеспечения 85
4.2. Параметры модели
4.2.1. Горячая прокатка 87
4.2.2. Холодная прокатка 89
4.2.3. Непрерывный отжиг 91
4.2.4. Дрессировка
4.3. Описание производства проката в ОАО «Новолипецкий металлургический комбинат» 92
4.4. Нейросетевая модель 96
4.5. Апробация системы на производственных данных 102
4.6. Выводы 119
Заключение 121
Литература
- Архитектура нейронной сети 1.4.1. Классификация нейронных сетей и их применение
- Понятие профиля компактности и предобработка данных в задаче классификации
- Алгоритм поиска смежных точек в пространстве
- Описание производства проката в ОАО «Новолипецкий металлургический комбинат»
Введение к работе
Актуальность работы. Сложные многоэтапные процессы характеризуются большим количеством факторов, влияющих как на отдельные стадии этих процессов, так и на протекание нескольких процессов одновременно.
Зависимости между факторами и выходными параметрами могут быть построены аналитически на основании теоретического анализа процессов, однако при этом полученные математические модели имеют нелинейный вид, очень сложны и их практическое использование весьма затруднительно.
Другой подход к моделированию предполагает использование методов идентификации, основанных на наблюдении за реальным процессом и измерении соответствующих значений факторов и выходных параметров. Однако значения некоторых факторов могут быть измерены с существенной погрешностью, для других - известны только усредненные значения, а в отдельных случаях экспериментальные значения факторов включают в себя субъективные ошибки процесса измерения. Полученные в результате идентификации математические модели обычно имеют более простой вид, однако использование таких моделей для оптимизации процессов не обеспечивает требуемого уровня качества.
Таким образом, разработка эффективных методов идентификации сложных многоэтапных процессов в условиях зашумленности исходных данных является актуальной задачей.
Работа выполнена в рамках целевой программы технологических мероприятий по повышению качества продукции и эффективности производства ОАО «Новолипецкий металлургический комбинат» на 2010-2011 годы.
Целью работы являются создание и исследование эффективных методов и средств для решения задачи моделирования и оптимизации многоэтапных процессов на основе нейронных сетей в условиях зашумленности исходных данных.
Основные задачи. Для достижения поставленной цели сформулированы следующие задачи:
исследовать возможность применения нейронных сетей в задачах моделирования и оптимизации сложных многоэтапных процессов;
построить нейросетевую модель многоэтапных процессов в условиях зашумленности исходных данных;
разработать метод оптимизации сложных многоэтапных процессов, использующий инверсию нейронной сети;
разработать комплекс программ, реализующих построенную математическую модель и алгоритм оптимизации;
экспериментально проверить разработанные средства на реальных производственных данных и провести сравнительный анализ с другими моделями.
Методы исследования. В работе использованы методы теории искусственных нейронных сетей, оптимизации, математической статистики, теории вероятности, векторной алгебры, аналитической геометрии, кластерного анализа, объектно-ориентированного программирования, проектирования реляционных баз данных. Программная реализация выполнена на языке C++ в среде программирования Borland C++ Builder 6.0, хранение данных организовано на базе СУБД FireBird 2.1.
Тематика работы соответствует п. 3 «Разработка, обоснование и тестирование эффективных вычислительных методов с применением современных компьютерных технологий», п. 4 «Реализация эффективных численных методов и алгоритмов в виде комплексов проблемно-ориентированных программ для проведения вычислительного эксперимента» и п. 8 «Разработка систем компьютерного и имитационного моделирования» паспорта специальности 05.13.18 - «Математическое моделирование, численные методы и комплексы программ».
Научная новизна. В диссертационной работе получены следующие результаты, характеризующиеся научной новизной:
численный метод решения задачи оптимизации параметров многоэтапных процессов на основе инверсии нейронной сети, обеспечивающий равномерную аппроксимацию поверхности решения и отличающийся использованием градиентного метода уточнения дополнительных точек решения;
алгоритм поиска смежных точек, обеспечивающий равномерное покрытие поверхности решения, отличающийся заполнением наименее представленных областей поверхности решения;
метод подготовки зашумленных данных, основанный на понятии профиля компактности и комбинаторном анализе, отличающийся проведением процедуры кластерного анализа над выходными параметрами и обеспечивающий подготовку данных с непрерывной выходной величиной;
структура программного комплекса моделирования и оптимизации, позволяющего проводить построение нейросетевой модели и инверсию нейронной сети, отличающегося реализацией разработанных методов оптимизации и предобработки данных.
Практическая значимость. Предложенные методы моделирования и алгоритм оптимизации сложных многоэтапных процессов могут быть использованы для получения качественной продукции при реализации сложных технологических режимов производства, а также позволяют разрабатывать технологические режимы новых видов продукции с заданными показателями качества.
Реализация и внедрение результатов работы. Теоретические и практические результаты работы прошли апробацию в Дирекции по информационным технологиям ОАО «Новолипецкий металлургический комбинат». Разработанное программное обеспечение планируется использовать при построении информационных систем производственного уровня для данного предприятия.
Результаты диссертационной работы используются в учебном процессе Липецкого филиала Международного института компьютерных технологий при подготовке инженеров по специальности 230101 «Вычислительные машины, комплексы, системы и сети».
Апробация работы. Основные положения диссертационной работы докладывались и обсуждались на V Всероссийской школе-семинаре молодых ученых «Управление большими системами» (Липецк, 2008), X Международной научно-технической конференции «Информационно-вычислительные технологии и их приложения» (Пенза, 2009), IX Всероссийской научно-практической конференции «Информационные технологии» (Йошкар-Ола, 2009), VIII Всероссийской научно-практической конференции с международным участием «Информационные технологии и математическое моделирование» (Анжеро- Судженск, 2009), X Международной научно-методической конференции «Информатика: проблемы, методология, технологии» (Воронеж, 2010), научно- образовательном семинаре «Математическое моделирование, информационные технологии и проблемы управления» (Липецк, 2010, 2011, 2012), Международной научно-технической конференции «Искусственный интеллект. Интеллектуальные системы ИИ-2010» (Донецк, 2010), Межвузовской научно-практической конференции «Актуальные проблемы современного научного знания» (Липецк, 2011), Областном профильном семинаре «Школа молодых ученых по проблемам технических наук» (Липецк, 2012).
Публикации. По материалам диссертации опубликовано 13 научных работ, в том числе 3 - в изданиях, рекомендованных ВАК РФ. В работах, опубликованных в соавторстве, лично соискателем выполнено: [1] - разработан метод подготовки данных в моделировании, основанный на понятии профиля компактности и комбинаторных формулах для эффективного вычисления функционала скользящего контроля; [2] - разработан алгоритм поиска смежных точек в пространстве, позволяющий находить наименее представленные области поверхности в пространстве, и предложен метод получения равномерного распределения точек на поверхности решения инверсии нейронной сети; [3] - предложена структура взаимодействия программных модулей; [4] - выполнен анализ возможности применения нейронных сетей в моделировании многоэтапных процессов; [5] - проведен выбор архитектуры нейронной сети для решения задачи моделирования и оптимизации; [6, 7] - разработана структура нейросетевой модели многоэтапной технологии производства холоднокатаного проката; [8] - разработана модель данных для задачи моделирования и оптимизации сложных многоэтапных процессов; [9] - оценено влияние вида функции активации и отрезка генерации начальных значений весов на качество обучения нейронной сети; [10] - построена классовая диаграмма на языке UML разработанного программного обеспечения реализации многослойных нейронных сетей; [11] - проведено сравнение обучения нескольких связанных нейронных сетей и одной укрупненной сети.
Структура и объем работы. Диссертация состоит из введения, четырех глав, заключения, списка литературы из 96 наименований, 3 приложений. Основная часть работы изложена на 132 страницах, содержит 38 рисунков и 7 таблиц.
Архитектура нейронной сети 1.4.1. Классификация нейронных сетей и их применение
Классическим методом решения задачи линейной идентификации является регрессионный анализ. Регрессионный анализ - метод статистического анализа зависимости переменной у от независимых переменных Xj{j = 1, и), которые рассматриваются в данном анализе в качестве неслучайных величин, в независимости от настоящего закона распределения переменных хґ
Как правило считается, что случайная величина у описывается нормальным законом распределения и имеет математическое ожидание у, являющееся функцией от переменных Xj и постоянной, не зависящей от этих переменных дисперсии а2.
В общем случае модель регрессионного анализа имеет вид: y = J]fiJ(PJ(Xl X2 - Xn) + , (1) где f$j - коэффициенты модели; ср} - некоторые функции переменных х],х2,...,хп, которые выбираются эмпирически на основе анализа данных; є — случайная величина с нулевым математическим ожиданием и дисперсией т2.
Уравнение регрессии (неизвестные коэффициенты ft) находится с помощью метода наименьших квадратов, т.е. минимизируется сумма квадратов отклонений реально наблюдаемых значений у, от их оценок у„ рассчитанных по уравнению регрессии: 2(У,-У,)2 min, (2) где т - объем выборки [2, 29]. Регрессионный анализ наиболее целесообразно использовать для раскрытия причинно-следственных связей, например при оценке вход-выходных зависимостей объекта. Однако ограничения, лежащие в основе регрессионного анализа, значительно сужают область его практического применения для описания нормально функционирующих процессов. Наиболее существенными ограничениями при использовании регрессионного анализа для определения вход-выходных зависимостей сложных многоэтапных процессов является необходимость измерения без существенных погрешностей входных параметров объекта, включенных в уравнение регрессии, и отсутствие значительных корреляционных связей между входами.
Погрешности измерения существенно увеличивают интервальные оценки коэффициентов регрессии и не позволяют осуществлять расчеты величины у с необходимой точностью. Существенная корреляция между входными параметрами приводит к плохой обусловленности системы нормальных уравнений Гаусса при решении методом наименьших квадратов, и, следовательно, к ненадежным оценкам коэффициентов уравнения регрессии. Кроме того, корреляция усиливает пагубное влияние ошибок измерения. Эти два ограничения обычно не удовлетворяются в сложных многоэтапных процессах.
Также регрессионные уравнения можно рассчитать только для конкретной категории процессов. Отклонения фактических параметров от базовых могут привести к значительному нарастанию погрешности. В регрессионных уравнениях используется относительно ограниченное число факторов, сложные нелинейные зависимости заменяются упрощенными линейными [30].
Более эффективным современным способом идентификации является использование нейронных сетей. Это универсальный механизм для моделирования функций и классификации объектов. Нейронные сети успешно применяются для решения трудно формализуемых задач: распознавание руко писных текстов, прогнозирование осложнений инфарктов миокарда, интерпретация рентгенограмм и т.п.
Нейронные сети - мощный метод для решения задач моделирования, который позволяет аппроксимировать сложные зависимости. Нейронные сети не линейны по своей природе [54].
Нейронные сети позволяют также моделировать зависимости в случае большого числа разнотипных переменных. В ситуациях, когда сложно построить четкую функциональную зависимость, а исходные данные содержат в себе некоторый «шум», предпочтительно использовать аппарат искусственных нейронных сетей.
Нейронные сети представляют собой вычислительные структуры, моделирующие простые биологические процессы, которые обычно ассоциируются с процессами человеческого мозга. Они являются распараллеленными системами, которые способны обучаться с помощью анализа воздействий. Роль преобразователя данных сетей выполняет искусственный нейрон или просто нейрон, который так называется по аналогии с биологическим нейроном.
В настоящее время изучено большое число нейроподобных элементов [55].
Термин «нейронные сети» сформировался в 40-е годы прошлого века исследователями, которые изучали функционирование и организацию биологических нейронных сетей. Наибольший вклад в эту область внесли Ф.Розенблатт, Д.Хебб, М.Минский, У.Маккалох, Дж.Хопфилд и др.
Нейронная сеть используется как самостоятельная система представления знаний, выступающая в практических приложениях как один из компонентов в системе управления либо в модуле принятия решений, которые передают сигнал другим элементам, не связанным с искусственной нейронной сетью. Функции, выполняемые сетью, можно разделить на несколько задач: управление; распознавание и классификация образов; аппроксимация и интерполяция; прогнозирование; идентификация; сжатие данных; ассоциация.
В каждой из указанных задач нейронная сеть выполняет роль аппрок-симатора функции нескольких переменных, реализуя при этом нелинейную функцию у=А \ (3) где х - вектор входных переменных, у — векторная функция векторного аргумента. Большая часть задач моделирования, идентификации и обработки сигналов могут быть приведены к задаче аппроксимационного представления.
Важное свойство нейронных сетей, которое свидетельствует об огромном потенциале и прикладных возможностях, заключается в параллельной работе всех нейронов одновременно. Благодаря этому в случае большого количества связей между нейронами получается значительное увеличение скорости обработки информации. В большинстве случаев обработка сигналов выполняется в режиме реального времени.
Большое число соединений между нейронами приводит к тому, что нейронная сеть перестает быть чувствительной к ошибкам, которые возникают в некоторых контактах. Другие элементы принимают на себя функции поврежденных соединений, поэтому в работе сети не возникают существенные нарушения. Этим свойством пользуются для поиска оптимальной архитектуры нейросетевой модели с помощью разрыва некоторых связей. Алгоритм поиска архитектуры «Optimal Brain Damage» прекрасно иллюстрирует это свойство нейронных сетей.
Другая не менее важная особенность нейронных сетей заключается в способности обучаться и обобщать полученные знания. Сеть обладает свойствами искусственного интеллекта. Обученная на некотором множестве выборок, нейронная сеть обобщает полученную информацию и формирует ожидаемый результат на данных, которые не обрабатывались во время обу чения. Несмотря на значительное количество уже известных практических приложений искусственных нейронных сетей, возможности их дальнейшего использования для обработки сигналов не изучены окончательно, и можно высказать предположение, что нейронные сети еще в течение многих лет будут средством развития информационной техники [32, 66].
Понятие профиля компактности и предобработка данных в задаче классификации
Пусть имеется нейронная сеть, выполняющая преобразование F: X- -Y векторов X из признакового пространства в вектора Y выходного пространства. Сеть находится в состоянии W. Пусть далее имеется обучающая выборка (Xа, У"), а = \...р. Рассмотрим полную ошибку Е, делаемую сетью в состоянии W. E E(W) = Y\F(Xa;W)-Ya\ = YJYJ[Fi(Xa;W)-Ylaf (19)
Отметим два свойства полной ошибки. Во-первых, ошибка Е = E(W) является функцией состояния W, определенной на пространстве состояний. По определению она принимает неотрицательные значения. Во-вторых, в некотором обученном состоянии W, в котором сеть не делает ошибок на обучающей выборке, данная функция принимает нулевое значение. Следовательно, обученные состояния являются точками минимума введенной функции E(W).
Таким образом, задача обучения нейронной сети является задачей поиска минимума функции ошибки в пространстве состояний, и, следовательно, для ее решения могут применяться стандартные методы теории оптимизации. Эта задача относится к классу многофакторных задач, так, например, для сети с N входами и М выходами речь идет о поиске минимума в NxM-мерном пространстве [80].
На практике могут использоваться нейронные сети в состояниях с некоторым малым значением ошибки, не являющихся в точности минимумами функции ошибки. Другими словами, в качестве решения принимается некоторое состояние из окрестности обученного состояния W. При этом допустимый уровень ошибки определяется особенностями конкретной прикладной задачи, а также приемлемым объемом затрат на обучение [20]. 1.9.4. Алгоритмы оптимизации функции ошибки выхода сети
Задачу обучения нейронной сети будем рассматривать на данном этапе как задачу минимизации некоторой заданной функции E(w).
В таком случае для обучения можно использовать алгоритмы, которые считаются наиболее эффективными в теории оптимизации.
К ним относятся методы градиентного поиска, базирующиеся на вычислении градиента целевой функции. Данные методы используют разложение в ряд Тейлора целевой функции E(w) в окрестности точки, ближайшей к имеющемуся решению w. Если целевая функция является функцией от нескольких переменных (w=[wi, w2, ..., wn] ), то представление связывается с окрестностью ранее определенной точки (в частности, при старте алгоритма это исходная точка w0) в направлении р. Подобное разложение описывается в виде формулы универсального вида: E(w + р) = E(w) + [g(w)]T р + — pTH(w)p +..., является матрицей вторых частных производных, которую называют гессианом. В выражении (20) р является направляющим вектором, который зависит от фактических значений вектора w. На практике обычно рассчитывают три первых элемента ряда (20), остальные не рассчитываются. При этом зависимость (20) можно считать квадратичным приближением целевой функ ции E(w) в ближайшей области найденной точки w с точностью, которая равна локальной погрешности отсеченной части 0(h3), где h - р. Для упрощенной записи значений переменных, которые получены в к-ш цикле, запишем с нижним индексом к. Точкой решения w = wk будем считать точку, для которой выполняется условие минимума целевой функции E(w) и g(wk) = 0, а гессиан H(wk) будет положительно определен. При соблюдении данных условий в любой точке, лежащей в окрестности wk, функция имеет большее значение, чем в точке wk, поэтому точка wk будет решением, которое соответствует критерию минимума целевой функции.
Во время поиска минимума целевой функции оптимизации шаг h и направление поиска/? выбираются так, чтобы для следующей точки wk+\ — wk + ЦкРк было выполнено условие E(wk+\) E(wk). Минимизация будет продолжаться, если норма не станет меньше заданной величины допустимой ошибки либо не будет превышен предел на максимальное число итераций (или максимальное время вычислений).
Алгоритм поиска смежных точек в пространстве
В связи типа композиции продолжительность существования экземпляров содержащихся классов зависит от времени жизни объекта класса контейнера. Если объект-контейнер прекратит свое существование, то экземпляры содержащихся объектов также будут удалены. На классовой диаграмме такая зависимость представляется в виде закрашенного ромба на линии связи со стороны класса-контейнера [8].
Двухслойная нейронная сеть (класс CNet2L) состоит из двух слоев (класс CLayer), слой представлен набором нейронов (класс CNeuron). Удаление слоя приводит к удалению объектов типа нейрон.
Аналогично связаны классы CData и CParameter, классы CMatrix и CVector.
В классе CParameter реализована инициализация значений параметра, нахождение минимального и максимального значения, масштабирование значений к некоторому отрезку, например [-1; 1], чтобы параметры с большими значениями и параметры с малыми значениями одинаково влияли на результат - выход нейрона.
Класс CVector связан со многими классами, он используется для хранения идентификаторов входных и выходных параметров модели, значений параметров, входных и выходных сигналов сети, весовых коэффициентов нейронов. В этом классе хранится массив значений и данные о данных - размер массива. Методы представлены функцией добавления элемента в массив, чтения элемента массива, нахождение минимального, максимального элемента массива, максимального элемента по модулю, а также перегрузкой операторов для выполнения операций над векторами: сложение/вычитание векторов, умножение/деление на число, скалярное произведение векторов, умножение на матрицу.
Для хранения элементов матрицы и выполнения операций над матрицами разработан класс CMatrix. Элементы матрицы хранятся как массив объектов типа CVector. Помимо основных операций над матрицами добавлены функция нахождения определителя матрицы путем приведения к диагональному виду и функция нахождения обратной матрицы методом Гаусса.
Векторные и матричные операции реализованы для оптимизации функции нескольких переменных в классе CMultiOptimization методом переменной метрики BGFS [66]. Метод BFGS дает направление поиска минимума для функции нескольких переменных, шаг поиска в этом направлении вычисляется методом Брента. Согласно этому методу первоначально оптимум функции находится методом золотого сечения, далее он уточняется квадратичной интерполяцией [4, 67]. Одномерная оптимизация функции методом Брента построена в классе CUniOptimization.
Данные для обучения сети, оптимизация функции невязки, собственно сама сеть в виде двух связанных слоев собраны в классе CNet2L. Функциональность этого класса по оптимизации функции заимствована из класса CMultiOptimization путем наследования, таким образом, производному классу CNet2L доступны методы базового класса CMultiOptimization [58].
Оптимизируемой функцией является функция невязки, которая рассчитывается через разность фактических значений выходных параметров и значений выходных параметров, получаемых по нейронной сети. Функция невязки находится в производном классе CNet2L, алгоритм оптимизация функции реализован в базовом классе CMultiOptimization, которому не доступны объекты и методы производного класса. Такая задача решается путем виртуализации функций с одинаковой сигнатурой в обоих классах: это функция virtual double F(CVector &_Х) [78].
На классовой диаграмме наследование обозначается стрелкой в виде незакрашенного треугольника, стрелка направлена от производного класса к базовому [8].
Некоторые классы связаны через агрегацию, например класс CNet2L и CData. Агрегация, также как и композиция, представляет собой контейнер других объектов. Отличительной характеристикой данного типа связи является хранение не самого объекта, а ссылки на объект. Тогда время жизни объектов контейнера не зависит от существования самого контейнера: при удалении контейнера его объекты продолжат существование. На диаграмме классов агрегация обозначается в виде незакрашенного ромба на линии связи со стороны класса-контейнера.
Агрегация встречается, когда один класс является коллекцией или контейнером других. Причем по умолчанию, агрегацией называют агрегацию по ссылке, т.е. когда время существования содержащихся классов не зависит от времени существования содержащего их класса. Если контейнер будет уничтожен, то его содержимое - нет. Графически агрегация представляется пустым ромбом на блоке класса и линией, идущей от этого ромба к содержащемуся классу [8].
Описание производства проката в ОАО «Новолипецкий металлургический комбинат»
Температура конца прокатки и температура смотки имеет существенное влияние (рис. 35).
После того, как полоса была свернута в рулон, происходит несколько процессов, такие как изменение формы и размеров зерен феррита, распределения цементита, ориентировки кристаллитов.
Превращение у-железа в ос-железо во время охлаждения железа наступает при 911 С. В случаях, когда прокатка завершается с температурой выше температуры Аг\ (когда кристаллическая решетка находится в состоянии аустенита), тогда образуется однородная структура в результате перекристаллизации в феррит из аустенита. Когда прокатка завершается в диапазоне температур Аг\-Аг3, тогда проходят следующие процессы - перекристаллизация в феррит из аустенита и рекристаллизация феррита, прошедшего деформацию, в результате чего образуются не одинаковые по размеру зерна [56, 64, 83].
При изменении температуры охлаждения металла марки стали 08Ю от 900 до 550 С мелкие частицы цементита равномерно распределяются вокруг зерен феррита. При охлаждении, начиная с температуры 850 С, происходит увеличение размеров цементита, а при более низкой температуре 800 С вокруг ферритовых зерен появляется перлит. Если далее снижать температуру, при которой начинать охлаждение металла (до 750, 700 и 650 С), то образования перлита будут увеличиваться в размерах, цементитные частицы появятся во всей структуре металла. С уменьшением температуры начала ду-ширования зерна феррита приобретают более крупные размеры [6].
При повышении температуры окончания деформации металла и снижении температуры начала медленного охлаждения полосы, свернутой в рулон, структура становится более однородной. С повышением температуры завершения прокатки цементит равномерно распределяется, а при снижении температуры смотки происходит уменьшение размеров частиц цементита.
Условием, обеспечивающим получение полосы с минимальной разно-толщинностью поперечного сечения в пределах допусков при данной профилировке валков, а также минимальное отклонение заданных размеров, является небольшая степень обжатия в двух последних клетях стана (рис. 38).
Незначительная степень деформации в предпоследней и последней клети стана 2000 позволяет уменьшить образование дефектов типа коробова-тость и волнистость [56, 83]. Передел выходного параметра: горячая прокатка _jj Выборка данных Статистика данных Весовые коэффициенты ) Показатели значимости Коэффициенты корреляции номер параметр мин макс средн. ско м 30-хЗО Стан 2000 Толщина проката после клети 12 1,53 3.9 2.7928 0.0198 31 -у1 Стан 2000 Температура конца прокатки 798 860 844.381 0.416 32 -у2 Стан 2000 Температура смотки 627 Б88 857.396 0.768 33 уЗ Стан 2000 Усилие клети 6 1191 2521 1870.338 10.87 34у4 Стан 2000. Усилие клети 7 1475 2793 2237.381 11.99 35-у5 Стан 2000 Усилие клети 8 903 1932 1544.831 8.932 36-уб Стан 2000. Усилие клети 9 1292 2492 1884.722 11.122 37-у7 Стан 2000.
Механические свойства и структура горячекатаной полосы передаются холоднокатаному листу. Если степень обжатия будет достаточно малой, то не будет происходить дробление зерен. При возрастании суммарной степени обжатия холодной прокатки зерна феррита и цементита становятся более вытянутыми, дробятся [56, 63]. По результатам проведенного анализа степень обжатия при холодной прокатке имеет значительное влияние на механические свойства.
Если увеличить температуру нагрева для последующей выдержки в состоянии структуры металла а + у, то наблюдается улучшение характеристик свойств металла, которыми определяется способность металла к штамповке. Но при переходе через температуру АсЪ происходит ухудшение пластической анизотропии и относительного удлинения. При выдержке металла в диапазоне высоких температур и дальнейшем охлаждении происходит несколько процессов изменения в структуре. Если температура находится в диапазоне а + у, то преобладают самодиффузионные процессы, которые определяют форму зерен феррита. При температурах в ос-области в примесях происходят диффузионные процессы. При медленном охлаждении выше Аг\ наблюдается увеличение образования карбида, в ходе дальнейшего ускоренного охлаждения происходят изменения в количестве и размерах образований карбида [63]. Оценка показателей значимости для отжига подтверждает важность соблюдения температурного режима рекристаллизации.
Решим обратную задачу - задачу оптимизации, т.е. необходимо найти такие значения входных параметров модели, реализация которых с наибольшей вероятностью обеспечит выпуск продукции заданного качества. Задача оптимизации на основе нейросетевой модели решается инверсией нейронной сети.
Предварительно необходимо обучить нейронную сеть, тогда с помощью сети можно аппроксимировать показатели качества по значениям технологических параметров. Процедура инверсии нейронной сети заключается в подборе множества значений входных параметров, которые при подстановке в сеть дают наименьшее отклонение относительно заданных выходных значений. Таким образом, подбор входного множества есть оптимизационная задача, число неизвестных (входных параметров) гораздо меньше, чем при обучении сети.
В диссертационной работе для равномерной инверсии нейронной сети предложено находить наиболее удаленные смежные точки (решения), добавлять между ними случайным образом новые и оптимизировать их эффективными градиентными методами оптимизации. Градиентные методы обеспечивают быструю сходимость, а добавление новых точек позволяет получить равномерную аппроксимацию поверхности решения.
Решим задачу поиска оптимальных технологических режимов производства проката с маркой стали 08Ю, категорией вытяжки ВОСВ и толщиной металла 1.5 мм.
Применим данный подход к решению обратной задачи для поиска оптимальной технологии производства проката толщиной 1.5 мм высшей категории вытяжки ВОСВ (весьма особо сложной вытяжки) из низкоуглеродистой качественной стали марки 08Ю.
В соответствии с ГОСТ 9045-93 [22] категория вытяжки будет соответствовать ВОСВ, если значение предела текучести будет не более 185 Н/мм2, относительное удлинение - более 40%, предел прочности - 250-350 Н/мм2, твердость - менее 51 HRB, глубина сферической лунки - более 12,0 мм.
Результаты поиска оптимальной технологии представлены в таблице 6. В первом столбце приведены требуемые значения показателей качества по ГОСТ 9045-93 (выходные параметры и химический состав) и обеспечивающие их параметры технологических режимов в соответствии с технологическими инструкциями (входные параметры), во втором столбце - численные значения требуемых параметров качества, а в третьем и четвертом столбце -рассчитанные по модели параметры технологических режимов, обеспечивающие заданное качество.