АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомДругоеЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция

Методы спуска

Читайте также:
  1. II. Методы непрямого остеосинтеза.
  2. II. Рыночные методы.
  3. III. Методы искусственной физико-химической детоксикации.
  4. III. Параметрические методы.
  5. IV. Современные методы синтеза неорганических материалов с заданной структурой
  6. А. Механические методы
  7. Автоматизированные методы
  8. Автоматизированные методы анализа устной речи
  9. Адаптивные методы прогнозирования
  10. Административно-правовые методы государственного управления
  11. Административно-правовые методы государственного управления
  12. АДМИНИСТРАТИВНО-ПРАВОВЫЕ МЕТОДЫ УПРАВЛЕНИЯ

 

Большинство итерационных методов, применяемых для решения задач безусловной минимизации функции нескольких переменных, относятся к классу методов спуска. Это такие методы, для которых каждая итерация (шаг) приводит к уменьшению значения целевой функции: f(xk+1)<f(xk), для всех k³0.

Структура типичного алгоритма метода спуска для функции двух переменных Q(x,y) состоит в следующем:

1. Задается начальная точка (x0, y0), принадлежащая области допустимых значений функции.

2. На текущей k-й итерации (k=0,1, …n) определяется вектор задающий направление спуска, причем такой, чтобы для всех достаточно малых значений l>0 (где l- коэффициент, являющийся шагом поиска) выполнялось неравенство:

 

f(xk + lpk, yk+ lsk) < f(xk,yk).

 

3. Вычисляется шаг поиска - lk, для которого выполняется условие п.2, и за очередное приближение к точке минимума принимается точка:

 

(xk + lpk, yk+ lsk), где xk + lpk = xk+1, а yk+ lsk = yk+1.

4. Проверяется выполнение критерия окончания итераций. Если критерий метода выполняется, то полагают (x*,y*)»(xk+1,yk+1). В противном случае осуществляется переход к п.2 и выполняется следующая итерация.

Последовательность точек х1, х2, …, хk, получаемую методом спуска, называют траекторий спуска.

В градиентных методах спуска направление движения к точке минимума целевой функции совпадает с направлением антиградиента, а направление спуска выбирается по формулам:

Для использования градиентного метода оптимизации необходимо определить правило выбора шага (lk) на каждой итерации и правило прекращения итерационного процесса.

При решении вопроса о выборе шага lk следует учитывать, что выбор малого шага на каждой итерации приведет к малым изменениям аргумента и функции, и, следовательно, к увеличению числа итераций, необходимых для решения задачи. Выбор слишком большого шага lk может привести не к убыванию целевой функции Q(x,y), а к ее увеличению, и, следовательно, процесс не будет сходиться к точке минимума.

Алгоритм метода градиентного спуска приведен на рис. 6.8.2-1.

По способу выбора шага спуска среди градиентных методов наиболее известными являются метод градиентного спуска с дроблением шага (ГДШ) и метод наискорейшего спуска (НС).

 

Рис. 6.8.2-1. Алгоритм метода градиентного спуска


1 | 2 | 3 | 4 | 5 | 6 |

Поиск по сайту:



Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Студалл.Орг (0.004 сек.)