Разделы


Рекомендуем
Автоматическая электрика  Аналоговые вычисления 

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 [ 97 ] 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143

Сканирование по каждой координате производится о шагом Ау. Выражение для вычисления k-vo вектора К* имеет вид

/У mm, 1 \

Утт, 2

т (-1 где * = /1 + 5](П

Утах, г Ут11\1 г

1 < /;

>=2 т rf--f- Ay,.

При реализации метода обзора в случае равномерного сканирования для

прохода всей области допустимых значений требуются

Утах, г min, г Уг

решений системы (5.9). Ввиду того, что это число может оказаться большим, метод целесообразно применять при решении задач на АВМ с высокой частотой периодизации.

Метод минимизации предусматривает поочередное изменение каждого из элементов вектора Y с переходом к изменению следующего элемента (следующей переменной) при достижении минимума (или максимума) зависимости-функционала р, по изменяемой переменной.

Метод минимизации может использовать в качестве источника информации о качестве поиска как знак приращения Д[а, так и более полные сведения о характере изменения функционала. В первом случае величины приращений могут оставаться постоянными в продолжении всего периода поиска или изменяться в сторону уменьшения (одностороннее изменение величин приращений), или в обе стороны (реверсивное изменение).

При постоянных величинах приращений одному из элементов yi вектора У в точке jfj задается некоторое приращение Af/j. Если величина Д[х при этом оказывается положительной, то поступает команда иа изменение знака приращения Ayi. При отрицательных величинах Д,и. величина yi изменяется в ранее выбранном направлении до появления сигнала Д{л>0. Второе появление сигнала Д[а>-0 приводит к обратному изменению величины yi до

Щ.Яyi = y-=0

И последующему переходу к изменению следующей

переменной. Работу системы при этом можно построить таким образом, что лишь появление сигнала Д[х -< О после последовательности сигналов

Дм-<0.....Дн.>0 вызывает появление указания к переходу к изменению

следующей переменной.

При поиске методом минимизации с односторонним изменением величин приращений после перехода к изменению следующей координаты задается максимально принятая величина приращения Aif/r. с помощью которой производится поиск направления изменения переменной и ее изменение в направлении минимума [а({/г). При достижении минимума зависимостью ц{уг) появляется сигнал Д[А > О, что приводит к одновременному изменению знака и уменьшению величины приращения до ДгУг < AiJ/c- Переход через минимум зависимости [и(Уг) при движении с меньшими величинами приращений вновь вызывает появление сигнала Ац > О и, следовательно, одновременное изменение знака и уменьшение величины приращения до Ауг < Ау. Число ступеней изменения величин приращений может быть любым, однако увеличи-.. ватьего свыше трех нецелесообразно. Достижение минимума кривой р, (Уг) при



изменении величины Уг с минимально выбранной дискретностью, АУг должно вызывать переход к изменению следующей координаты и возврат к максимально возможным величинам приращений (Aiyr+t). Алгоритм изменения переменных методом минимизации с односторонним изменением величин приращений наиболее близок к поведению человека-оператора, вручную изменяющего значении переменных. Действительно, не зная, где находится частный минимум [1{Уг)у оператор сначала резко изменяет значение координаты Уг, а вблизи мийимума изменяет уг более осторожно .

Поиск методом минимизации с реверсивным изменением величин приращений отличается от поиска с односторонним изменением тем, что при переходе к изменению следующей координаты величина приращения не изменяется. Увеличивается приращение лишь в тех случаях, когда значение частной

производной уменьшается до величины, при которой прекращается нор-

мальное функционирование схем управления поиском.

Метод минимизации с пропорциональным изменением величин приращений предполагает изменение величин приращений пропорционально некоторой произвольной функции величины ц и ее производной

(5.25)

Применение описанного метода дает возможность как совместить пробные и полезные решения, подобно вышеописанным методам минимизации, так и разделить их, подобно градиентным методам.

Метод градиента при поиске значений т координат вектора У, определяющих Минимум ц, предусматривает движение вдоль направления антиградиента, соответствующего максимальному убыванию функции ц. Выражение для вычисления k-ro вектора имеет вид

ylk) y(ft-i) grad у.. Ay, где Ay - заданная величина приращения, а

grad [j. =

дУ1

дУ2 дУт

Направление максимального изменения функционала fi определяется вычислением частотных производных с помощью т пробных решений, являющихся подготовкой одного полезного решения. При этом производные ~

заменяются приближенным отношением . Полезные изменения переменных

производятся лишь при полезных решениях, причем величины приращений переменных для каждой из переменных выбираются в общем случае пропорциональными изменению функционала X (5.25), учитывающего не только значения производной fi, но и сами значения [х.

Метод наискорейшего спуска отличается от метода градиента тем, что после предварительного определения направления антиграднента движение по выбранному направлению производится до достижения минимума функции



[Л. Это значит, что при выполнении полезных решений равновероятны любые значения приращений переменной.

Количество точек, где происходит поиск нового направления движения, зависит от характера поставленной задачи, пределов изменения переменных и требуемой точности осуществления поиска [6].

Групповое изменение переменных. Поочередное изменелие переменных при поиске методом минимизации в некоторых случаях не обеспечивает сходимость процесса поиска, особенно при решении задач оптимизации при наличии ограничений [6]. Градиентные методы поиска характеризуются значительно лучшей сходимостью, но требуют больших затрат времени на выполнение пробных решений.

Улучшения сходимости при поочередном изменении переменных (коор-. динат вектора Y) можно достигнуть при групповом поочередном изменении переменных. Один из возможных подходов к построению алгоритма реализации этого метода заключается в том, что двум-трем координатам искомого вектора задаются приращения с последующей оценкой качества этого изменения по знаку Д[А. Если Др. > О (при поиске минимума), направление изменения одной из переменных выбранной группы изменяется; если это не приводит к необходимому изменению знака Д[а, производится изменение знака приращения второй переменной и так далее до тех пор, пока не будет найдено направление изменения, при котором Д[а < 0. Если такое направление найдено не будет, то состав группы переменных изменяется. Выбранное направление используется, как и при реализации метода наискорейшего спуска, до достижения минимума ц на этом направлении, после чего состав переменных изменяется. Группы переменных можно выбирать, например, по порядку, по степени влияния на величину ц и случайным образом; значения приращений можно выбирать так же, как и при реализации метода минимизации.

Итерационные методы В отличие от методов поиска в итерационных методах переход от вектора Е к Y производится без использования нормы и £ II , непосредственно по координатам этого вектора.

В общем случае связь между искомым вектором Y и вектором иевязок Е может быть представлена в виде

Y = QE, (5.26)

где Q - некоторый, в общем случае, неизвестный нелинейный оператор, определяющийся условиями поставленной задачи.

i В.частном случае отыскания начальных значений переменных при решении двухточечной краевой задачи для систем линейных обыкновенных дифференциальных уравнений выражение (5.26) отображает линейную связь между вектором невязок и вектором искомых начальных значений переменных Y = х(0), т. е. значения координат вектора х (0) можно найти решением системы линейных алгебраических уравнений

Е = Ах(0) -f В,

где А - матрица; В - вектор-столбец коэффициентов.

Пркменение итерационных методов предусматривает определение искомых переменных Y по выражению

L - а*)С<*£>. (5.27)

где а*) - некоторый числовой множитель; О* - матрица коэффициентов, которые в общем случае являются функциями переменных .у\ .... {/ (индекс k относится к k-й итерации).

Различные методы итераций отличаются друг от друг? выбором множителя а и матрицы G. В первой группе итерационных методов матрица G обра5,уется




1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 [ 97 ] 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143

Яндекс.Метрика
© 2010 KinteRun.ru автоматическая электрика
Копирование материалов разрешено при наличии активной ссылки.