Управление системой с помощью линейного регулятора, дополненного нелинейной нейронной сетью


Пусть в дискретные моменты времени описание линейного регулятора, дополненного параллельной нелинейной нейронной сетью, вместе с уравнением замыкания имеет вид

(1.2.1)

Здесь матрица коэффициентов линейного регулятора, а это дополнительный вектор управления, который формируется параллельной линейному регулятору нелинейной нейронной сетью. Этот дополнительный вектор используется для того, чтобы приблизить значения переменных состояния замкнутой системы управления к заданным значениям. Применение нейронной сети для формирования дополнительного вектора управления соответствует решению задачи нелинейного программирования без ограничений градиентным методом. При этом для одномерного поиска используются уравнения линейной модели объекта управления и метод золотого сечения.

Целевая функция нейронной сети управления в каждый момент времени представляет собой квадратичную функцию ошибок и затрат вида

(1.2.2)

где и положительные элементы соответствующих диагональных весовых матриц.

Входные сигналы нейронной сети управления

(1.2.3)

а выходные сигналы этой нейронной сети

(1.2.4)

Тогда

― входы и равные им выходы n нейронов входного слоя (у каждого из нейронов входного слоя по одному входу и q одинаковых выходов для каждого из нейронов скрытого слоя),

― веса связей разных входов q нейронов скрытого слоя,

― выходы q нейронов скрытого слоя (у каждого из q нейронов скрытого слоя m одинаковых выходов), каждый из которых равен , , , сигналы смещения скрытого слоя, ,

― веса связей разных входов m нейронов выходного слоя,

m выходов нейронов выходного слоя (у каждого из нейронов выходного слоя по одному выходу), каждый из которых равен , сигналы смещения выходного слоя, .

Определим компоненты вектора градиента, соответствующего алгоритму обучения (“алгоритму обратного распространения”), то есть алгоритму выбора весов связей скрытого и выходного слоев нейронной сети управления с помощью метода наискорейшего спуска. Объединим все переменные, которые подбираются в процессе обучения, в один вектор

(1.2.5)

размерность которого .

Поскольку в каждый момент времени при известном входном сигнале , выходной сигнал нейронной сети , , то .

Тогда один шаг оптимизации (минимизации) в направлении, противоположном направлению вектора градиента (в направлении “наискорейшего спуска”), будет иметь вид

(1.2.6)

где величина шага определяется с помощью минимизации функции одной переменной

(1.2.7)

одним из методов одномерного поиска, например, методом золотого сечения.

Компоненты вектора градиента определим аналитически.

(1.2.8)

(1.2.9)

Поскольку

(1.2.10)

(1.2.11)

то

(1.2.12)

(1.2.13)

(1.2.14)

(1.2.15)

(1.2.16)

Здесь веса связей выходного и скрытого слоев, сигналы смещения выходного слоя, выходные сигналы и сигналы смещения скрытого слоя.


Согласно теореме о дифференцировании сложной функции многих переменных

(1.2.17)

В данном выражении можно определить с помощью уравнения линейной модели объекта управления

(1.2.18)

Таким образом, в силу (1.2.8, 1.2.12, 1.2.13)

(1.2.19)

где (1.2.17, 1.2.18)

(1.2.20)

Соответственно, в силу (1.2.9, 1.2.12, 1.2.14, 1.2.15, 1.2.16, 1.2.20)

(1.2.21)

где

(1.2.22)

 



Дата добавления: 2022-05-27; просмотров: 96;


Поиск по сайту:

Воспользовавшись поиском можно найти нужную информацию на сайте.

Поделитесь с друзьями:

Считаете данную информацию полезной, тогда расскажите друзьям в соц. сетях.
Poznayka.org - Познайка.Орг - 2016-2024 год. Материал предоставляется для ознакомительных и учебных целей.
Генерация страницы за: 0.009 сек.