|
|||||||
АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомДругоеЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция |
Постановка задачи. Задачей многомерной безусловной оптимизации функции нескольких переменных будем называть задачу, в которой требуется найтиЗадачей многомерной безусловной оптимизации функции нескольких переменных будем называть задачу, в которой требуется найти , (5.1) при отсутствии ограничений на , где – вектор управляемых переменных, – скалярная целевая функция. Определение 7.1. Решением или точкой минимума задачи безусловной оптимизации будем называть такой вектор , что для всех , и писать , (5.2) Определение 7.2. Вектор называется направлением спуска функции в точке , если существует такое , что для всех . Сущность рассматриваемых в данном разделе методов решения задачи (5.1) состоит в построении последовательности точек , принадлежащих , монотонно уменьшающих значения функции . Такие методы называют методами спуска. Алгоритм метода спуска Начальный этап. Задать – начальную точку, -параметр окончания счета, положить . Основной этап. Шаг 1. В точке проверить условие окончания счета; если оно выполняется, то положить и остановиться. Шаг 2. В точке выбрать направление спуска . Шаг 3. Положить , где – длина шага вдоль направления , положить и перейти к шагу 1. Различные методы спуска отличаются друг от друга способом выбора направления спуска и шага вдоль этого направления . Естественно, что трудоемкость вычисления величины следует согласовывать с трудоемкостью определения направления спуска . Методы решения задач безусловной оптимизации можно разделить на группы в зависимости от уровня используемой в методе информации о целевой функции, например: 1. методы нулевого порядка, или прямого поиска, основанные на вычислении только значений функции; 2. градиентные методы, в которых используются значения функции и ее градиента, т.е. вектора, компонентами которого являются частные производные первого порядка; 3. методы второго порядка, в которых используются первые и вторые производные функции , т.е. значения , , и , где - матрица Гессе, элементами которой являются частные производные второго порядка функции ; 4. методы оптимизации квадратичных функций. Первые три группы методов различаются требуемой степенью гладкости целевой функции (разрывная, непрерывная, непрерывно-дифференцируемая, дважды непрерывно-дифференцируемая), тогда как вид самой функции не оговаривается, четвертая группа ориентирована на оптимизацию функции определенного вида.
Поиск по сайту: |
Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Студалл.Орг (0.003 сек.) |