АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомДругоеЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция

На минимум

Читайте также:
  1. Алг «нахождение минимума»
  2. Алг «поиск минимума»
  3. ГРАФИК: Тренируйте «внутреннюю траекторию» раз в месяц минимум по часу.
  4. Интерференция от двух источников: ширина полосы, координаты максимумов и минимумов интенсивности света.
  5. Как минимум предприятие должно располагать денежными средствами в размере, превышающем
  6. Лексический минимум
  7. МАКСИМУМ ЭМОЦИЙ НА ИНФОРМАЦИОННОМ МИНИМУМЕ
  8. Максимумов и минимумов.
  9. На минимум
  10. Ный минимум голосов (Швеция). В Германии субсидии предостав-
  11. Право и мораль (право как минимум нравственности, право как критерий нравственности, другие подходы)

Z < Zп Да

 

 

Нет

 

8 Нет 9

abs(h)<e h = - a h

 

 

Да

10 11 Рисунок 3.7 – Алгоритм поиска

Вывод xп-h, Zп Останов экстремума по методу поразрядного

приближения

Метод квадратичной интерполяции-экстраполяции является одним из методов аппроксимации кривыми и базируется на приближении целевой функции квадратичной параболой по трем точкам – текущее приближение x1= xп и точки, лежащие от нее слева x0 и справа x2 на удалении h и нахождении экстремума аналитически. Процесс проводится до тех пор, пока предыдущее и последующее приближения различаются более, чем на заданную точность поиска. Алгоритм метода следующий (рисунок 3.8, 3.9):

1. находим x0 = xп - h; y0 = f(x0); x1 = xп; y1 = f(x1); x2 = xп + h; y2 = f(x2);

2. находим параметры параболы, проходящей через три выбранных точки

a = (yo- 2y1 + y2) / (2h2);

b = (-yo (2x1 + h) + 4y1 x1 - y2 (2x1 - h)) / (2h2);

Тогда очередное приближение x на основе аналитической оптимизации аппроксимирующей функции равно xп = - b/(2a);

3. проверяем условие: abs(xп - x1) < e.

Если выполняется, то оптимум найден. Иначе переходим к 1-му пункту алгоритма.

 

На минимум:

f(x)

 
 

 


f(x)=ax2+bx+c

 

f(xп+h)

f(xп-h)

f(xп)

 

 

 
 


xп-h xп xп+h x

Рисунок 3.8 – Графическая интепретация метода на основе квадратичной аппроксимации

 

1

Пуск

 

 

Ввод xп, h, e xп – текущее значение приближения

к решению; h – параметр интервала

 

9 аппроксимации; e – точность поиска

4 7

a =...

b =...

 

xi = xп +(i-1) h xп = -b/(2a)

 

 

6 9 Нет

abs(x1- xп)<e 4

yi= f(xi)

Да

 

Zп= f(xп)

 

11 Рисунок 3.9 – Алгоритм на основе

Вывод xп, Zп квадратичной аппроксимации

 

Останов

 

 

Методы случайного поиска основаны на формировании на отрезке поиска случайным образом расчетных точек, вычислении в этих точках значений функции и выборе из них экстремального. Точность определяется числом точек поиска n.

Повторение испытаний описывается формулой Бернулли (биноминальным распределением)

, k = 0, 1, 2,..., n,

где k – число благоприятных случаев;

n – общее число испытаний;

p – вероятность благоприятного исхода при одном испытании;

q – вероятность, противоположная p (q=1-p).

Вероятность, что событие наступит n раз

;

что не наступит ни разу

;

наступит хотя бы один раз

.

 

Если абсолютную точность поиска решения на участке (b - a) обозначить через ε, то вероятность решения при одном испытании p = ε/(b - a). При этом вероятности Р1 получения решения в зависимости от числа испытаний n при различных p приведены в таблице 3.1.

 

Таблица 3.1 – Оценка точности поиска

p n p1
0.1   0.651 0.878 0.995 0.99999
0.01   0.634 0.866 0.993 0.99996
0.0001   0.632 0.865 0.993 0.99996

 

Например, если p = ε /(b - a)=0.01, то вероятность получения решения с точностью ε при числе испытаний n = 100 равна 0.634; при n =200 – 0.866; при n = 500 – 0.993; при n = 1000 – 0.99996, т.е. требуется 10 (b - a) /ε испытаний для надежного решения (Р1> 0.9999) с заданной точностью ε. Аналогичная зависимость, как видно из таблицы, имеет место и при других точностях решения.

Имеется большое множество методов оптимизации на основе случайного поиска и их разновидностей. Ниже приведена иллюстрация простейшего метода поиска, состоящая в последовательном формировании на отрезке от a до b случайным образом расчетной точки xт, расчете в ней целевой функции f(xт), сравнении значения функции f(xт) и ранее найденного "лучшего" значения функции f(xп), присвоении xп =xт и f(xп) =f(xт), если текущая точка "лучше". Формирование случайной точки производится по выражению xт = a + r (b-a), где r – случайное число, равномерно распределенное в интервале от 0 до 1.0.


 

f(x)

 

f(xт)

 

f(xп)

 

 

a xп xт b x

Рисунок 3.10 – Графическая интепретация метода случайного поиска (на минимум)

 

 

Более эффективным является метод случайного поиска с пересчетом, алгоритм которого приведен на рисунке 3.11. Принимаемые значения показателей aш, bш, h и L должны находится в определенном соотношении, например начальные значения могут быть приняты bш = 2; h= bш /5; aш = 0.25; L=10. Формирование случайной расчетной точки xт (блок 9) производится относительно текущего приближения xп на основе использования случайных чисел r, равномерно распределенных в интервале от 0 до 1.0. Произведение sh определяет отрезок, в пределах которого формируется случайная точка.

 


1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | 31 | 32 | 33 | 34 | 35 | 36 | 37 | 38 | 39 | 40 | 41 | 42 | 43 | 44 | 45 | 46 | 47 | 48 | 49 | 50 | 51 | 52 | 53 | 54 |

Поиск по сайту:



Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Студалл.Орг (0.006 сек.)