|
||||||||||
АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомДругоеЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция |
Нелинейная регрессияКонтрольная работа
Ростов-на-Дону 2015 г. Содержание: 1. t-распределение Стьюдента…………………………………………...2 2. Нелинейная регрессия………………………………………………..3 3. Критерий проверки статистической гипотезы……………………..4 4. Задачи………………………………………………………………… 5. Список использованных источников……………………………….9
T-распределение Стьюдента Закон распределения Стьюдента с n числом степеней свободы /1,3, 7-10/ используется при построении доверительных интервалов и проверке статистических гипотез. Если имеются независимые нормально распределенные случайные величины x0, x1,…,xn с m1=0 и , то случайная величина
имеет t(n)-распределение Стьюдента с n числом степеней свободы. В данном распределении n – параметр формы распределения.
, где – знак числа, стоящего в скобках, G() – гамма-функция, Iх (a, b) – неполная бета-функция, х Î (-¥, ¥), | a | < ¥, l > 0, n = 1, 2, 3, ….
Нелинейная регрессия. Нелинейная регрессия - частный случай регрессионного анализа, в котором рассматриваемая регрессионная модель есть функция, зависящая от параметров и от одной или нескольких переменных. Зависимость от параметров предполагается нелинейной.
Задана выборка из пар . Задана регрессионная модель , которая зависит от параметров и свободной переменной . Требуется найти такие значения параметров, которые доставляли бы минимум сумме квадратов регрессионных остатков где остатки для . Для нахождения минимума функции , приравняем к нулю её первые частные производные параметрам : Так как функция в общем случае не имеет единственного минимума[1], то предлагается назначить начальное значение вектора параметров и приближаться к оптимальному вектору по шагам: Здесь - номер итерации, - вектор шага. На каждом шаге итерации линеаризуем модель с помощью приближения рядом Тейлора относительно параметров
Здесь элемент матрицы Якоби - функция параметра ; значение свободной переменной фиксировано. В терминах линеаризованной модели и регрессионные остатки определены как Подставляя последнее выражение в выражение (*), получаем Преобразуя, получаем систему из линейных уравнений, которые называются нормальным уравнением Запишем нормальное уравнение в матричном обозначении как В том случае, когда критерий оптимальности регрессионой модели задан как взвешенная сумма квадратов остатков нормальное уравнение будет иметь вид
Поиск по сайту: |
Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Студалл.Орг (0.004 сек.) |