Погрупповой метод последовательного поиска.


Пусть число переменных параметров есть N и каждый из параметров xn изменяется с шагом ∆ xn в пределах от xn.мин до xn.макс и принимает M дискретных значений. Тогда при последовательном переборе всех комбинаций множества параметров xn общее число рассчитываемых вариантов составит Q=MN. Это число может быть столь большим (например, при M=10 и N=6 значение Q=106), что даже расчет на быстродействующей ЭВМ может оказаться недопустимо длительным. Поголовный перебор всех вариантов можно исключить, если параметры разбить на группы, включающие только взаимозависимые xn . Далее производится перебор всех xn только внутри группы с определением набора параметров, соответствующих минимуму целевой функции. Последовательно переходя от одной группы параметров к другой, определяют вектор xопт, включающий все параметры xn. Так, например, в приведенном примере из 6-ти параметров при возможности их разбиения на две группы по 3 параметра общее число рассчитываемых вариантов составит Q=2*103=2000, т.е. почти на три порядка меньше, чем в первом варианте. Однако, воспользоваться таким простым и надежным способом поиска глобального минимума можно только при сильной зависимости параметров внутри одной группы и слабой – между разными.

Покоординатный метод.

Здесь сначала дискретно изменяется только параметр x1 при постоянных значениях всех остальных параметров xn до тех пор, пока целевая функция не станет минимальной. Полученное значение x1 фиксируется и в новом цикле начинается изменение параметра x2 при неизменных значениях остальных параметров и т.д., вплоть до изменения параметра xn. Подобная процедура повторяется несколько раз, в результате чего определяется вектор xопт. Как и в предыдущем случае, такой простой алгоритм успешно действует только при слабой зависимости между собой всех параметров xn.

Метод слепого поиска.

 

При данном методе производится случайный перебор значений варьируемых параметров xn до тех пор, пока значение целевой функции не станет приемлемо малым. При этом в программе должно производиться моделирование случайных величин по одному из известных способов. При «слепом» поиске процесс обучения в системе отсутствует, так как каждый шаг обособлен от другого. «Слепой» поиск с большим шагом изменения варьируемых параметров можно совместить с одним из локальных методов поиска с меньшим шагом, что помогает приблизиться к минимуму целевой функции.

Метод оврагов.

Этот метод пригоден для так называемых хорошо организованных функций, при которых переменные параметры x1,x2, …, xn можно разбить на две группы: сильно и слабо влияющие на целевую функцию Fц. Параметры 1-й группы меняются с относительно большим шагом, 2-й – c малым. После большого шага в рамках 1-й группы параметров производится локальный поиск с малым шагом в рамках 2-й группы параметров. Такая итерационная процедура позволяет относительно быстро продвигаться по так называемому «оврагу» к глобальному минимумy функции цели.

 



Дата добавления: 2022-05-27; просмотров: 79;


Поиск по сайту:

Воспользовавшись поиском можно найти нужную информацию на сайте.

Поделитесь с друзьями:

Считаете данную информацию полезной, тогда расскажите друзьям в соц. сетях.
Poznayka.org - Познайка.Орг - 2016-2024 год. Материал предоставляется для ознакомительных и учебных целей.
Генерация страницы за: 0.007 сек.