Задача оптимизации всегда была весьма актуальной, а в
последнее время, с ускоренным развитием различных областей науки и техники, она
приобрела еще более весомое значение.
Так как поведение любого физического объекта можно описать
уравнением или системой уравнений (т.е. создать математическую модель реального
объекта), то задачей инженера является подбор функции с заданной точностью при
данных граничных условиях, которая бы могла "показать" оптимальное
решение.
В данном курсовом проекте рассмотрены базовые методы
оптимизации, которые дают основное представление о теории принятия решений и
широко применяются в самых различных сферах.
В достаточно общем виде
математическую задачу оптимизации можно сформулировать следующим образом; минимизировать
(максимизировать) целевую функцию с учетом ограничений на управляемые
переменные.
Под минимизацией (максимизацией)
функции n переменных f (x) = (x1,.., xn) на заданном множестве U n-мерного векторного
пространства Еn понимается определение хотя бы одной из точек
минимума (максимума) этой функции на множестве U, а также, если это необходимо,
и минимального (максимального) на множестве U
значения f (x). При записи математических задач оптимизации в общем виде обычно
используется следующая символика:
f (x) ®min (max),
хÎ U
где f (x) - целевая функция, а U - допустимое множество,
заданное ограничениямина управляемые переменные.
Если функция f (x) -
скалярная, то задача ее оптимизации носит название задачи математического
программирования. В этом случае критерий оптимизации один, и, следовательно,
речь идет об однокритериальной (одномерной) оптимизации. Если же критериев
несколько, то такая задача называется многокритериальной (задачей векторного
программирования).
Если область допустимых
значений исходной функции задана, то оптимизация называется условной, т.е. имеются
ограничения.
Если же ограничений нет,
т.е. областью определения является область существования функции f (x), то
такая оптимизация называется безусловной.
Пусть функция f (x) определена на множестве U вещественной оси R.
1. Число х* Î U
называется точкой глобального (абсолютного) минимума или просто точкой минимума
функции f (x) на множестве U, если f (x*) £ f (x) для
всех хÎ U.
Значение f * = f (x*) = называют глобальным (абсолютным) минимумом или просто минимумом функции f (x) на множестве U.
Множество всех точек
минимума f (x) на U в дальнейшем будет
обозначено через U*.
2. Число ÎU называется точкой локального минимума функции f (x), если для всех xÎU,
достаточно близких к , т.е. если
существует e > 0 такое, что это неравенство выполняется
для любого.
Глобальный минимум f (x) является и локальным минимумом, а обратное
неверно.
Будем рассматривать
функции многих переменных f =f (x1, …, xn) как функции,
заданные в точках х n-мерного евклидова
пространства Еn: f =f (х).
1. Точка х*ÎЕn,
называется точкой глобального минимума функции f (х),
если для всех х*ÎЕn выполняется неравенство f (x*) £ f (х). Значение f (x*) = = называется минимумом функции. Множество всех точек глобального минимума
функции f (х) будем обозначать через U*.
2. Точка называется точкой
локального минимума функции f (х), если существует e-окрестность точки :
Un () =x такая, что для всех х*ÎUn
() выполняется неравенство f () £ f (х).
3. Если допустимое
множество U в задаче минимизации (максимизации) функции n переменных совпадает со всем пространством En,
то говорят о задаче безусловной оптимизации
Если функция f (x) на множестве U имеет, кроме глобального,
локальные минимумы, отличные от него, то минимизация f (x), как правило, сильно затрудняется. В частности, многие методы поиска
точки минимума f (x) приспособлены только для
функций, у которых каждый локальный минимум является одновременно и глобальным.
Этим свойством обладают унимодальные функции.
Функция f (x) называется унимодальной на отрезке [а; b], если
она непрерывна на [а; b] и существуют числа a и b, , такие, что:
1) если а < a, то на отрезке [a; a] функция f (x) монотонно убывает;
2) если b < b, то на отрезке [b; b] функция f (x) монотонно возрастает;
3) при х Î [a; b] f (x) =f * = .
Множество унимодальных
на отрезке [а; b] функций мы будем обозначать через Q
[а; b]. Отметим, что возможно вырождение в точку одного или двух отрезков из [a; a], [a; b] и [b; b]. Некоторые варианты расположения и вырождения в точку отрезков
монотонности и постоянства унимодальной функции показаны на рисунке 1.
Рисунок 1 - Некоторые варианты расположения и вырождения в
точку отрезков монотонности и постоянства унимодальной функции
Основные свойства
унимодальных функций:
1. Любая из точек
локального минимума унимодальной функции является и точкой ее глобального
минимума на отрезке [а; b].
2. Функция, унимодальная
на отрезке [а; b], является унимодальной и на любом меньшем отрезке [с; d] [а; b].
3. Пусть f (x) Q
[а; b] и . Тогда:
если , то x* [a; x2] ;
если , то x* [x1; b],
где х* - одна из точек
минимума f (x) на отрезке [a; b].
Функция f (x), заданная на отрезке [a; b], называется выпуклой на этом отрезке, если для всех х', х" [а; b] и произвольного
числа [0; 1] выполняется
неравенство
f [ax'+ (1- a) x"] £ af (x') + (l - a) f (x"). (1)
Перечислим основные
свойства выпуклых функций.
Если функция f (x) выпукла на [a; b], то на любом отрезке [х'; х"] Ì [a; b] ее график расположен не
выше хорды, проведенной через точки графика с абсциссами х' и х" (рисунок
2).
Рисунок 2 - Взаимное
расположение
Пусть х' и х" -
произвольные точки отрезка [a; b],
причем х' < х". Легко проверить, что при любом a Î [0; 1]
точка xa = ax’
+ (1-a) x" лежит на отрезке [x’; х"] и при непрерывном изменении a от 0
до 1 пробегает этот отрезок от точки х" (при a = 0) до точки x' (при
a = 1).
Рассмотрим хорду графика
f (x), проходящую через точки (х',f
(х')) и (х",f (х")). Ордината ya
точки этой хорды, соответствующая абсциссе c,
равна. Поэтому неравенство (1) графика выпуклой функции и хорды означает, что f (xa) £ ya, т.е. при любом расположении xa, на отрезке [х'; х"] точка графика функции f (x) лежит не выше соответствующей точки хорды.
2. Из курса математического анализа известны следующие
условия выпуклости функции:
а) для того чтобы
дифференцируемая на отрезке [а; b] функция f (x) была выпуклой на этом отрезке, необходимо и достаточно, чтобы
производная f ' (x) не убывала на [а; b] ;
б) для того чтобы дважды
дифференцируемая на отрезке [а; b] функция f (x) была выпуклой на этом отрезке, необходимо и
достаточно, чтобы при всех хÎ [а; b] выполнялось неравенство f " (x) ³ 0.
3 Условие выпуклости для
дифференцируемой на отрезке [а; b] функции f (x) означает, что на этом отрезке любая касательная
к графику f (x) лежит не выше этого графика
(рисунок 3).
Рисунок 3 - условие
выпуклости
Уравнение касательной к
графику f (х) в точке (x0, f (x0)), x0 Î [а; b] имеет вид: у (х) =f (x0) +f ’ (x0) (x-x0). По формуле конечных приращений для любогохÎ [а; b] имеем: f (х) =f (x0) +f ’ (x) (x-x0),
где точка x лежит между
x и x0. Поэтому
f (х) - у (х) = [f ’ (x) - f ’ (x0)] (x-x0), хÎ [а; b],
откуда с учетом того,
что производная f ’ (x) выпуклой функции не убывает, получаем:
f (x) -y (x) ³ 0 (2)
для всех хÎ [а; b].
4. Если f (x) - выпуклая дифференцируемая на отрезке [а; b] функция и в точке х* Î [а; b] выполняется равенство
f ’ (x*)
= 0 (3)
то х* является точкой
глобального минимума f (х) на [а; b].
С учетом (3) уравнение
касательной у (х) =f (х0) +f ’ (х0) (х-х0) к графику f (x) для точки x0 =х*
принимает вид у (х) =f (x*). Поэтому из (2) следует,
что f (x) f (x*) для всех хÎ [а; b], т.е. х* - точка глобального минимума f (x).
Благодаря свойству 3
выпуклых функций данное свойство приобретает простой геометрический смысл: поскольку
касательная к графику f (x) в точке с абсциссой х*
горизонтальна, а этот график расположен не ниже касательной, то х* есть точка
минимума f (x) (рисунок 3).
Таким образом, равенство
(3) для выпуклой дифференцируемой функции является не только необходимым
условием глобального минимума (как для всякой дифференцируемой функции), но и
его достаточным условием.
5. Можно показать, что
всякая выпуклая непрерывная на отрезке [а; b] функция
является и унимодальной на этом отрезке. Обратное, вообще говоря, неверно (рисунок
4).
Рисунок 4 - график унимодальной, но не выпуклой функции
Таким образом, кроме
перечисленных свойств, выпуклые функции обладают также и всеми свойствами
унимодальных функций.
Для решения задачи
минимизации функции f (х) на отрезке [а; b] на
практике, как правило, применяют приближенные методы. Они позволяют найти
решение этой задачи с необходимой точностью в результате определения конечного
числа значений функции f (х) и ее производных в некоторых точках отрезка
[а; b]. Методы, использующие только значения функции и
не требующие вычисления ее производных, называются прямыми методами минимизации.
Большим достоинством
прямых методов является то, что от целевой функции не требуется
дифференцируемости и, более того, она может быть не задана в аналитическом виде.
Единственное, на чем основаны алгоритмы прямых методов минимизации, это
возможность определения значений f (х) в заданных точках.
Рассмотрим наиболее
распространенные на практике прямые методы поиска точки минимума. Самым слабым
требованием на функцию f (х), позволяющим использовать эти методы,
является ее унимодальность. Поэтому далее будем считать функцию f (х) унимодальной на отрезке [а; b].
Рассмотрим конкретные
вычислительные алгоритмы решения задачи безусловной минимизации f (х) ® min, xÎ En, которые опираются только на вычисление значений
функции f (х), т.е. прямые методы минимизации. Важно отметить, что для их
применения не требуется дифференцируемость целевой функции и даже ее
аналитическое задание. Нужно лишь иметь возможность вычислять или измерять значения
f (х) в произвольных точках. Такие ситуации часто встречаются в практически
важных задачах оптимизации.
Пусть а < x1<х2<b. Сравнив значения f (x) в точках x1 и х2 (пробных
точках), можно сократить отрезок поиска точки х *, перейдя к отрезку [а; х2],
если или к отрезку m [x1; b] если (рисунок 5). Описанную процедуру можно повторить необходимое число раз,
последовательно уменьшая отрезок, содержащий точку минимума. Когда длина
последнего из найденных отрезков станет достаточно малой, следует положить , где - одна
из точек этого отрезка, например, его середина. Методы минимизации, основанные
на этом принципе, называются методами исключения отрезков.
Чтобы относительное
уменьшение отрезка на каждой итерации не зависело от того, какая из его частей
исключается из дальнейшего рассмотрения, пробные точки следует располагать
симметрично относительно середины исходного отрезка. В зависимости от способа
выбора пробных точек получаются различные методы исключения отрезков. Далее
проводится рассмотрение двух наиболее часто встречаемых.
Суть метода заключается
в том, что заданный отрезок [а; b] делится пополам:
.
Затем в каждой из
половин отрезка [а; с] и [с; b] выбираются по одной точке x1 и х2, в них
вычисляются значения функций, производится сравнение полученных значений, и в
результате сравнения устанавливается отрезок, в котором минимума быть не может.
Откинув его, продолжаем ту же процедуру с полученным отрезком до тех пор, пока
вновь полученный отрезок не станет меньше по длине некоторой наперед заданной
величины:
.
Скорость достижения очевидно зависит от
величины откидываемого отрезка. Поэтому x1
и х2 выбираются
симметрично на расстоянии :
(4)
где d > 0 - малое число.
В конце вычислений по
методу дихотомии в качестве приближенного значения х* берут середину последнего
из найденных отрезков [а; b], убедившись предварительно, что достигнуто
неравенство .
Опишем алгоритм метода
деления отрезка пополам.
Шаг 1. Определить середину отрезка и значения x1 и х2 по
формулам (4). Вычислить f (x1) и f (x2).
Шаг 2. Сравнить f (x1) и f (x2).
Если , то перейти к отрезку [а; x2], положив b = x2, иначе - к отрезку [x1;
b], положив а = x1.
Шаг 3. Найти достигнутую точность . Если то перейти к следующей итерации, вернувшись к шагу 1. Если , то завершить поиск х*, перейдя к шагу 4.
Шаг 4. Положить
.
Замечания:
1. Число d из (4) выбирают на интервале (0; 2e) с учетом следующих соображений:
а) чем меньше d, тем больше относительное уменьшение длины
отрезка на каждой итерации, т.е. при уменьшении d
достигается более высокая скорость сходимости метода дихотомии;
б) при чрезмерно малом d сравнение значений f (x) в точках x1 и х2, отличающихся на величину d,
становится затруднительным. Поэтому выбор d должен быть
согласован с точностью определения f (x) и с
количеством верных десятичных знаков при задании аргумента х.
Пусть - погрешность счета. Тогда
следует учитывать следующее условие:
Рассмотрим такое
симметричное расположение точек x1 и х2 на отрезке [а; b], при котором
одна из них становится пробной точкой и на новом отрезке, полученном после
исключения части исходного отрезка. Использование таких точек позволяет на
каждой итерации метода исключения отрезков, кроме первой, ограничиться
определением только одного значения f (x),так как другое значение уже найдено на одной из предыдущих итераций.
Найдем точки x1 и х2,
обладающие указанным свойством.
Рассмотрим сначала
отрезок [0; 1] и для определенности предположим, что при его уменьшении
исключается правая часть этого отрезка. Пусть х2 = t, тогда симметрично расположенная точка х1 =
1-t (рисунок 6).
Пробная точка х1 отрезка
[0; 1] перейдет в пробную точку х2¢ = 1-t
нового отрезка [0; t]. Чтобы
точки х2 = t, и х2¢ = 1-t
делили отрезки [0; 1] и [0; t] в одном и том же отношении,
должно выполняться равенство или , откуда находим положительное значение
…
Таким образом,
х1 = 1-t = , .
Для произвольного
отрезка [а; b] выражения для пробных точек примут вид
; . (5)
Замечания:
1. Точки x1 и х2 из (5) обладают следующим
свойством: каждая из них делит отрезок [а; b] на
две неравные части так, что отношение длины всего отрезка к длине его большей
части равно отношению длин большей и меньшей частей отрезка. Точки с таким
свойством называются точками золотого сечения отрезка [а; b]. Это и объясняет название рассматриваемого метода.
2. На каждой итерации исключения отрезков с пробными
точками (5) одна из них переходит на следующий отрезок и значение f (x) в этой точке вычислять не следует. Если новым отрезком становится [а; х2],
то на него переходит пробная точка исходного отрезка, становясь его второй пробной
точкой (х2’= х1) (рисунок 6). В случае
перехода к отрезку [х1; b] пробная точка исходного отрезка становится первой пробной
точкой отрезка [х1; b].
3. Легко проверить, что х1=а+b-х2, и x2=а+b-х1. Поэтому на каждой итерации метода золотого сечения недостающую
пробную точку нового отрезка можно найти по перешедшей на него пробной точке с
помощью сложения и вычитания, не используя формул (5).
4. В конце вычислений по
методу золотого сечения в качестве приближенного значения х* можно взять
середину последнего из полученных отрезков
.
Опишем алгоритм метода
золотого сечения.
Шаг 1. Найти х1 и х2 по формулам (5).
Вычислить f (x1) и f (x2).
Шаг 2. Определить . Проверка на окончание поиска: если en
> e, то перейти к шагу 3, иначе - к шагу 4.
Шаг 3. Переход к новому отрезку и новым пробным точкам. Если f (x1) £ f (x2) то положить b=x2, x2=x1, f (x2)
£ f (x1), x1=b-t (b-a) и
вычислить f (x1), иначе - положить a=x1, x1= x2, f (x1)
= f (x2), x2=b+t (b-a) и
вычислить f (x2). Перейти к шагу 2.
Шаг 4. Окончание поиска: положить
, .
Сравнение методов
исключения отрезков. При
сравнении прямых методов минимизации обычно учитывают количество N
значений f (x), гарантирующее заданную
точность определения точки х* тем или иным методом. Чем меньше N, тем эффективнее считается метод. При этом вспомогательные операции
такие, как выбор пробных точек, сравнение значений f (x) и т.п., не учитываются. Во многих практических случаях определение
значений целевой функции требует больших затрат (например, времени ЭВМ или
средств для проведения экспериментов) и вспомогательными вычислениями можно
пренебречь. А эффективность метода минимизации особенно важна именно в таких
случаях, поскольку позволяет сократить указанные затраты.
Эффективность методов
минимизации можно также сравнивать, на основании гарантированной точности e (N) нахождения точки х*,
которую они обеспечивают в результате определения N значений f (x). Метод золотого сечения считают более точным,
чем метод дихотомии, однако разница в точности в данном случае незначительна.
Теперь рассмотрим задачи оптимизации, сводящиеся к поиску
точек минимума функции многих переменных на всем пространстве. В большинстве
случаев такая задача бывает сложнее задачи минимизации функции одной переменной, так как с ростом размерности пространства
переменных, как правило, возрастают объем вычислений и сложность алгоритмов, а
также затрудняется анализ поведения целевой функции.
Этот метод заключается в
последовательной минимизации целевой функции f (x) по
направлениям x1 и x2.
Рисунок 10 - Циклический покоординатный спуск.
Опишем этот алгоритм.
Шаг 0. Выбрать х Î En,
критерий достижения точности e и шаг . Найти f (x1 (0),x2 (0)).
Шаг 1. Принять x1 (1) = x1 (0) +.
Определить f (x1 (1),x2
(0)). Сравнить полученное значение с значением начальной функции. Если f (x1 (1),x2 (0)) < f (x1
(0),x2 (0)), то перейти к шагу 5, если же f (x1 (1),x2 (0)) > f (x1
(0),x2 (0)), то перейти к шагу 2.
Шаг 2. Принять x1 (1) = x1 (0) - .
Определить f (x1 (1),x2
(0)). Сравнить полученное значение с значением начальной функции. Если f (x1 (1),x2 (0)) < f (x1
(0),x2 (0)), то перейти к шагу 5, если же f (x1 (1),x2 (0)) > f (x1
(0),x2 (0)), то перейти к шагу 3.
Шаг 3. Принять x2 (1) = x2 (0) +.
Определить f (x1 (0),x2
(1)). Сравнить полученное значение с значением начальной функции. Если f (x1 (0),x2 (1)) < f (x1
(0),x2 (0)), то перейти к шагу 5, если же f (x1 (0),x2 (1)) > f (x1
(0),x2 (0)), то перейти к шагу 4.
Шаг 4. Принять x2 (1) = x2 (0) - .
Определить f (x1 (0),x2
(1)). Сравнить полученное значение с значением начальной функции. Если f (x1 (0),x2 (1)) < f (x1
(0),x2 (0)), то перейти к шагу 4, если же f (x1 (0),x2 (1)) > f (x1
(0),x2 (0)), то принять исходную точку за
минимум.
Шаг 5. Проверить условие достижения точности .
Если в процессе решения
с шагом не получено решения, то
принять
а) исследующий
покоординатный поиск в окрестности данной точки, предназначенный для
определения направления убывания f (х);
б) перемещение в
направлении убывания.
Рисунок 11 - Метод Хука-Дживса
Трактовать данный метод можно по-разному. Рассмотрим один из
многочисленных вариантов.
Опишем один из алгоритмов данного метода.
Шаг 1. Выбираем начальную точку и находим в ней
значение функции.
Шаг 2. Обозначим
координаты начального вектора: .
Тогда, соответственно, угол направления движения
.
Рассчитываем координаты
4-х точек в окрестности начальной по следующим формулам:
Находим в указанных
точках значения функции. Если какое-нибудь из них оказалось меньше значения
функции в точке x0, то принимаем его за исходное.
Шаг 3. Сравниваем полученные значения с f (x1 (0),x2 (0)). Если какое-нибудь из них
оказалось меньше значения функции в 0-й точке точке, то принимаем его за
исходное и переходим к шагу 5.
Шаг 4. Если же все полученные значения функции оказались
больше исходного, то уменьшаем шаг и
переходим к шагу5.
Шаг 5. Проверить условие достижения точности
.
Если данное условие не
выполнено, возвращаемся к шагу 2.
Тогда по методу
циклического покоординатного спуска будет выполнен счет следующего вида:
Т. к. , будем
двигаться в противоположную сторону по оси абсцисс с тем же шагом:
,
поэтому продолжаем двигаться дальше с тем же шагом в данном
направлении до достижения указанной точности, в противном случае уменьшаем шаг
():
Результаты работы
данного алгоритма представлены на рисунке 12. Листинг программы приведен в
приложении Б.
Рисунок 12 - Решение
поставленной задачи методом спуска
Перейдем к методу
Хука-Дживса. Обозначим координаты начального вектора: .
Тогда, соответственно, угол направления движения
.
Найдем значения функции 4-х точек в окрестности начальной:
Минимальное значение функция принимает в точке2, поэтому
движемся в заданном направлении 2 пока идет уменьшение функции
до достижения указанной точности, в противном случае уменьшаем шаг
():
Конечный результат получен на ЭВМ за 36
итераций. Результат представлен на рисунке 13. Листинг программы приведен в приложении Б.
Рисунок 12 - Решение
поставленной задачи методом спуска
Правильным симплексом в
пространстве En называется множество из n + 1
равноудаленных друг от друга точек (вершин симплекса). Отрезок, соединяющий две
вершины, называется ребром симплекса.
В пространстве E2
правильным симплексом является совокупность вершин равностороннего
треугольника, в E3 - правильного тетраэдра.
Если х0 -
одна из вершин правильного симплекса в En
то координаты остальных п вершин х1,. ., хn можно найти, например, по формулам:
(6), где
d1
, d2 ,
a- длина ребра. Вершину х0 симплекса,
построенного по формулам (6), будем называть бaзовой.
В алгоритме симплексного метода используется следующее важное свойство
правильного симплекса. По известному симплексу можно построить новый симплекс
отрaжением какой-либо вершины, например, хk симметрично относительно центра тяжести хc
остальных вершин симплекса. Новая и старая вершиныи хk связаны соотношением:
, где xc.
В результате получается
новый правильный симплекс с тем же ребром и вершинами =2xc - хk, хi, i= 0,. ., n, i¹ k. Таким
образом, происходит перемещение симплекса в пространстве Еn. На рисунке 13 представлена иллюстрация этого свойства симплекса в
пространстве Е2.
Рисунок 13 - Построение
нового симплексa в E2
отрaжением точки х: a - нaчaльный
симплекс х0, х1, ;
б - новый симплекс х0, х1, ;
центр отрaжения - точкa xc = (х0+ х1) /2
Поиск точки минимума
функции f (x) с помощью правильных симплексов производят следующим образом. На
каждой итерации сравниваются значения f (х) в вершинах симплекса. Затем
проводят описанную выше процедуру отражения для той вершины, в которой f (х) принимает
наибольшее значение. Если в отраженной вершине получается меньшее значение
функции, то переходят к новому симплексу. В противном случае выполняют еще одну
попытку отражения для вершины со следующим по величине значением f (х). Если и
она не приводит к уменьшению функции, то сокращают длину ребра симплекса,
например, вдвое и строят новый симплекс с этим ребром. В качестве базовой
выбирают ту вершину х0 старого симплекса, в которой функция
принимает минимальное значение. Поиск точки минимума f (x) заканчивают,
когда либо ребро симплекса, либо разность между значении функции в вершинах
симплекса становятся достаточно малыми. Опишем один из вариантов алгоритма
этого метода.
Шаг 0. Выбрать параметр точности e, базовую точку х0, ребро и построить начальный
симплекс по формулам:
Вычислить f (х1 (0),x2 (0)).
Шаг 1. Вычислить значения f (х) в
вершинах симплекса х1,. ., xn.
Шаг 2. Упорядочить вершины симплекса х0,. .,
хn так, что бы f (х1
(0),x2
(0)) £ …£ £f (х1) £ f (хn-1) £ f (хn).
Шаг 3. Найти среднее значение функции:
.
Проверить условие из учета того, что:
(3.38)
Если оно выполнено, то
вычисления прекратить, полагая х* » х0,
f * » f (x0).
В противном случае перейти к шагу 4.
Шаг 4. Найти
и выполнить отражение
вершины хn. К примеру, для отражения вершины А следует
найти точку
.
Тогда отраженная вершина
будет иметь вид:
.
Если f (Е) <f (xn),
то перейти к построению нового симплекса, иначе - перейти к шагу 5.
Шаг 5. Перейти к новому правильному симплексу с вдвое
меньшим ребром (редуцирование), считая базовой вершиной х0. Остальные
n вершин симплекса найти по формуле хi = (хi + х0) /2, i=1,. .,
n. Перейти к шагу 1.
Геометрическая
иллюстрация работы алгоритма в пространстве показана на рисунке 14, где точки
х0, х1, х2 - вершины
начального симплекса, а пунктиром указаны процедуры отражения.
Рисунок 14 - Поиск точки минимума функции с помощью правильных
симплексов в пространстве
Замечания:
1. Следует иметь в виду,
что если функция f (х) многомодальна, то описанным методом может быть найдена
точка локального, а не глобального минимума f (х).
2. Если ограниченность
снизу целевой функции не очевидна, то в алгоритм метода следует включить
дополнительную процедуру останова.
Алгоритм, описанный в
разд.2.2.4, можно модифицировать, добавив к процедуре отражения при построении
нового симплекса процедуры сжатия и растяжения. А именно, положение новой
вершины вместо вершины хn, соответствующей
наибольшему значению функции, находится сравнением и выбором наименьшего среди
значений целевой функции в точках;
(7)
Геометрическая
иллюстрация этих процедур для пространства E2
приведена на рисунках 15 и 16.
Рисунок 15 - Пробные
точки z1,z2,z3,z4 для перехода к новому
симплексу
Рисунок 16 - Новые
симлексы, полученные в результате процедур сжатия (а, б); отражения (в); растяжения
(г).
Так как величина a Î (0;
1), то выбор точек z1
и z2 соответствует сжатию симплекса; b » 1, поэтому выбор точки z3 соответствует отражению, а g > 1 и выбор точки z4 приводит к
растяжению симплекса. Численные эксперименты показывают, что этот алгоритм
хорошо работает в пространстве En для n £ 6. Отметим,
что при деформациях утрачивается свойство правильности исходного симплекса. Поэтому,
не стремясь к правильности начального симплекса, его строят из произвольной
базовой точки х0 Î En, по формулам
, (8)
где e i - i-й базисный вектор; a- параметр симплекса. На практике хорошо
зарекомендовал себя следующий набор параметров a, b и g для выбора
пробных точек zi в формулах (9): a =
1/2, b = 1 и g =2.
Опишем алгоритм метода
поиска точки минимума функции по деформируемому симплексу.
Шаг 0. Выбрать параметр точности e, параметры a, b и g, базовую
точку х0, параметр a и построить
начальный симплекс. Вычислить f (х0).
Шаг 1. Вычислить значения функции в вершинах симплекса х1,...,
xn.
Шаг 2. Упорядочить вершины х0,..., xn так, чтобы f (х0) £ … £ f (хn).
Шаг 3. Проверить достижение заданной точности. Если оно
выполняется, то вычисления завершить, полагая х * » х0, f * » f (х0). Иначе -
перейти к шагу 4.
Шаг 4. Найти и
пробные точки zk, k=1, …, 4 пo формулам (9). Найти f (z*) = min f (zk). Если f (z*) < f (zn). то положить xn=z*
и перейти к шагу 2. Иначе - перейти к шагу 5.
Шаг 5. Уменьшить симплекс, полагая хi = (хi + х0) /2, i = 1,.
., n и перейти к шагу 1.
Замечание. Для того чтобы избежать сильной деформации
симплекса, алгоритм иногда дополняют процедурой обновления. Например, после N
шагов алгоритма из точки х0 снова строят симплекс, полагая а = ||x0-xn||.
С теоретической точки
зрения описанные методы минимизации слабо исследованы, однако практика
показывает их работоспособность.
Наибольшее значение функция принимает в точке2, ее и будем
отражать. Для этого найдем точку С, лежащую между 1-й и 3-й точками:
Рассмотрим метод симплекса.
Находим координаты отраженной вершины Е и значение в ней
функции:
Т. к. , то
строим новый симплекс на вершинах Е,1 и 3 и повторяем эту операцию до тех пор,
пока среднеквадратичное отклонение не примет указанной величины, в противном
случае приступаем к редуцированию - уменьшению размеров симплекса.