АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомДругоеЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция

Елементи теорії випадкових процесів

Читайте также:
  1. А) Передумови квантової теорії
  2. Альтернативні теорії вартості
  3. Б) Маркс вважав, що суперечність у трудовій теорії вартості Сміта- Рікардо розв’язується, якщо предметом купівлі-продажу вважати робочу силу, а не працю.
  4. БНМ 2.2.14 Основне рівняння молекулярно-кінетичної теорії газів
  5. Взаємодія процесів. Розподілювана пам’ять. Семафори
  6. Взаємодія теорії та практики
  7. Виникнення економічної теорії та основні етапи розвитку. Сучасні напрямки і школи економічної теорії
  8. Вкажіть елементи, що входять до бази оподаткування ПДВ при постачанні товарів/послуг
  9. Внесок Гюстава Лєбона у розвиток теорії натовпу.
  10. Внесок Зігмунда Фрейда у розвиток теорії натовпу.
  11. Вперше термін “ідеологія” (грец. idea — слово, вчення) вжите французьким філософом і економістом Дестютом де Трасі на початку XIX ст. (“Елементи ідеології”).
  12. Галузеві соціологічні теорії

п.1. Основні поняття. Нехай – деяка множина дійсних чисел. Якщо кожному значенню поставлена у відповідність випадкова величина , то кажуть, що на множині задана випадкова функція . Множину при цьому називають областю визначення випадкової функції.

Наприклад, якщо – випадкова величина, то функція буде випадковою. При одержимо випадкову величину , при – випадкову величину і т.д.

Значення випадкової функції при фіксованому значенні аргументу називається її перерізом (це деяка випадкова величина). При проведенні конкретного випробування випадкова функція буде приймати значення функції невипадкової, яку називають її реалізацією або траєкторією. Реалізації випадкової функції позначають , де індекс вказує номер випробування.

Наприклад, якщо , де – випадкова величина, яка в першому випробуванні прийняла можливе значення , а в другому випробуванні то реалізаціями будуть відповідно невипадкові функції .

Випадковим (стохастичним) процесом називають випадкову функцію аргументу , який відіграє роль часу.

Наприклад, якщо літак повинен летіти із заданою сталою швидкістю, то в дійсності внаслідок дії випадкових факторів (коливання температури, зміни сили вітру та ін.), врахувати вплив яких наперед неможливо, швидкість буде змінюватись. В цьому прикладі швидкість літака є випадковою функцією від неперервно змінного аргументу – часу, тобто швидкість є випадковим процесом.

Якщо аргумент випадкової функції змінюється дискретно, то відповідні йому значення випадкової функції (випадкові величини) утворюють випадкову послідовність.

п.2. Характеристики випадкових процесів. Випадкові процеси мають характеристики, аналогічні характеристикам випадкових величин, але вони є не деякими числами, а невипадковими функціями.

Математичним сподіванням випадкового процесу називають невипадкову функцію , значення якої при кожному фіксованому значенні аргументу дорівнює математичному сподіванню випадкової величини відповідного перерізу:

 

. (7.1)

Дисперсією випадкового процесу називають невипадкову функцію , значення якої при кожному фіксованому значенні аргументу дорівнює дисперсії випадкової величини відповідного перерізу:

. (7.2)

Середнім квадратичним відхиленням випадкового процесу називають квадратний корінь із його дисперсії

. (7.3)

Властивості математичного сподівання:

1) математичне сподівання невипадкової функції дорівнює самій невипадковій функції:

 

;

2) невипадковий множник можна виносити за знак математичного сподівання:

;

3) математичне сподівання суми двох випадкових процесів дорівнює сумі математичних сподівань доданків:

.

Властивості дисперсії:

1) дисперсія невипадкової функції дорівнює нулю:

;

2) за знак дисперсії можна виносити квадрат невипадкового множника :

;

3) дисперсія суми випадкового процесу і невипадкової функції дорівнює дисперсії випадкового процесу:

.

Математичне сподівання, дисперсія і середнє квадратичне відхилення характеризують випадковий процес далеко не повністю. Знаючи тільки ці три характеристики, зокрема, нічого не можна сказати про степінь залежності двох перерізів. Для оцінки цієї залежності вводять нову характеристику – кореляційну функцію.

Кореляційною функцією випадкового процесу називають функцію двох незалежних аргументів і , значення якої при кожній парі фіксованих значень аргументів дорівнює кореляційному моменту відповідних їм перерізів:

. (7.4)

При рівних між собою значеннях аргументів кореляційна функція випадкового процесу дорівнює його дисперсії:

.

Властивості кореляційної функції:

1) кореляційна функція симетрична відносно своїх аргументів:

;

2) якщо – невипадкова функція, а процес , то

3) якщо – невипадкова функція, а процес , то

п.3. Класифікація випадкових процесів (ВП). Випадкові процеси класифікують за такими ознаками:

1) за залежністю характеристик ВП від початку відліку t: стаціонарні; нестаціонарні; 2) за типом аргументу і реалізацій: дискретні ВП з дискретним часом; неперервні ВП з дискретним часом; дискретні ВП з неперервним часом; неперервні ВП з неперервним часом; 3) за складністю математичного апарату: загального вигляду ВП; напівмарковські ВП; марковські ВП.

Для нестаціонарного ВП усі його характеристики змінюються з плином часу. ВП, характеристики якого не залежать від вибору початку відліку, тобто є однорідними щодо часу, називається стаціонарним. Математичне сподівання і дисперсія стаціонарного ВП сталі, тобто

,

а кореляційна функція залежить тільки від величини різниці між аргументами і : .

Для будь-якого ВП функція симетрична, тобто . Тоді для стаціонарного процесу одержимо: .

п.4. Процес Пуассона. Припустимо, що у випадкові моменти часу відбувається деяка подія. Нас цікавить число появ цієї події в проміжках часу від 0 до . Позначимо це число через . Відносно процесу появи події припустимо, що він: 1) стаціонарний; 2) без наслідків; 3) ординарний. В ці припущення вкладається наступний зміст:

1) стаціонарність означає, що ймовірність появи подій в будь-який проміжок часу залежить тільки від числа і від тривалості проміжку часу і не залежить від початку його відліку, тобто ймовірність появи подій за проміжок часу тривалістю є функцією, залежною тільки від і ;

2) відсутність наслідків означає,що ймовірність появи подій в будь-який проміжок часу не залежить від того, появились чи не появились події в моменти часу, які передували цьому проміжку, тобто передісторія потоку не впливає на ймовірності появи подій в близькому майбутньому;

3) ординарність полягає в тому, що поява двох і більше подій за малий проміжок часу практично неможлива, тобто ймовірність появи більше однієї події за малий проміжок часу значно менша ймовірності появи тільки однієї події.

Послідовність подій, які наступають у випадкові моменти часу називають потоком подій. Потік подій, який має властивості 1) – 3), називають простішим або пуасонівським.

Інтенсивністю потоку називають середнє число подій, які появляються за одиницю часу. Якщо стала інтенсивності потоку відома, то ймовірність появи подій простішого потоку за час визначається за формулою Пуассона

. (7.5)

п.5. Марковські випадкові процеси. Ланцюгом Маркова називається послідовність випробувань, в кожному з яких може відбутися одна і тільки одна із несумісних подій повної групи, причому умовна ймовірність того, що в -му випробуванні наступить подія за умови, що в -му випробуванні появилась подія , не залежить від результатів попередніх випробувань.

Наприклад, якщо послідовність випробувань утворює ланцюг Маркова, а повна група складається із чотирьох несумісних подій , причому відомо, що в 6-му випробуванні появилась подія , то умовна ймовірність того, що в 7-му випробуванні появиться подія (тобто ймовірність ), не залежить від того, які події появились в 1-, 2-, …, 5-му випробуваннях.

Часто в теорії ланцюгів Маркова дотримуються іншої термінології і говорять про деяку фізичну систему , яка в кожний момент часу перебуває в одному із станів: і в окремі моменти часу змінює свій стан, тобто переходить із одного стану, наприклад , в інший, наприклад . Зокрема, після випробування система може залишитись в тому ж стані (“ перейти ” із стану в стан ). Таким чином, в новій термінології події, які утворюють повну групу, називають станами системи, а випробування – змінами її станів. Якщо зміна станів відбувається в певні фіксовані моменти часу, то кажуть, що розглядається ланцюг Маркова з дискретним часом (дискретний марковський процес (МП)), якщо перехід із стану в стан можливий в будь-який випадковий момент часу, то кажуть, що розглядається ланцюг Маркова з неперервним часом (неперервний МП). За введеною термінологією ланцюгом Маркова називають послідовність випробувань, в кожному з яких система приймає один із станів повної групи, причому умовна ймовірність того, що в -му випробуванні система буде знаходитись в стані за умови, що в -му випробувані вона знаходилась в стані не залежить від результатів решти, раніше проведених випробувань.

Ланцюг Маркова називається однорідним, якщо умовна ймовірність не залежить від , в цьому випадку пишуть .

Нехай розглядається однорідний МП із скінченною кількістю станів (скінченний МП). Умовну ймовірність того, що із стану (в якому система виявилась в результаті деякого випробування довільного за номером) в результаті наступного випробування система перейде в стан , називають перехідною ймовірністю. Отже, в позначенні перший індекс вказує номер попереднього, а другий – номер наступного стану .

Якщо числа відомі, то кажуть, що задана ймовірнісна характеристика однорідного ВП і записують її у вигляді матриці, яку називають матрицею переходу або стохастичною матрицею:

.

Елементи матриці мають властивості:

1) ; 2) .

Позначимо через ймовірність (безумовну) того, що в -му випробуванні система буде знаходитись в стані . Оскільки , то можна розглядати вектор

,

який називається вектором ймовірностей станів. Часто в задачі, де вивчається однорідний МП вказується вектор початкових ймовірностей

.

Виявляється, що матриця та вектор повністю визначають ланцюг Маркова.

Знайдемо вектор ймовірностей станів і матрицю ймовірностей переходу за кроків. Позначимо відповідну матрицю через , а її елементи через . Візьмемо число таке, що і розіб’ємо перехід із стану в стан за кроків на два. Розглянемо ймовірності переходу системи із стану в стан за кожним із можливих шляхів:

шлях ;

шлях

………………………………………………

шлях .

Тоді ймовірність переходу системи із стану в стан буде дорівнювати

, (7.6)

тобто

. (7.7)

Оскільки , то за формулою (7.7):

,

,

……………………………………..

. (7.8)

Вектор можна визначити за формулою

. (7.9)

Цей вектор задає розподіл ланцюга Маркова за станами через кроків після виходу з початкового стану.

Початковий розподіл називається стаціонарним, якщо при цьому не залежить від . Очевидно, що в цьому випадку . Такий розподіл існує не завжди. Однак у випадку, коли , це так. Знайти стаціонарний вектор (вектор стаціонарного режиму) , можна із рівності:

. (7.10)

Введемо позначення: , . Транспонувавши обидві частини рівності (7.10), отримаємо:

, (7.11)

де одинична матриця.

Система (7.11) лінійно залежна, тому замінивши будь-яке рівняння цієї системи рівнянням

, (7.12)

отримаємо систему, яка дасть єдиний розв’язок для шуканого вектора .

Якщо для ланцюга Маркова існує стаціонарний (граничний) розподіл, то

. (7.13)

В цьому випадку, при ланцюг Маркова входить в стійкий режим, який характеризується властивостями:

а) середній час перебування в стані дорівнює , де – досить великий проміжок часу;

б) середній час повернення в стан дорівнює ;

в) з додатною ймовірністю з будь-якого стану ланцюг Маркова може перейти у будь-який інший стан .

Приклад. Апаратно-технічна система маже перебувати в одному з трьох станів: – комп’ютер в роботі, – комп’ютер на обслуговуванні, – комп’ютер в ремонті; і описується однорідним ланцюгом Маркова з кроком в один день та матрицею перехідних ймовірностей

 

.

 

Потрібно знайти: а) ймовірності станів через день та два дні, якщо зараз комп’ютер на обслуговуванні; б) вектор стаціонарного режиму.

Розв’язання. За умовою задачі вектор початкових ймовірностей . Покладаючи в рівності (7.9) послідовно та , отримаємо відповідно ймовірності станів через день та два дні:

,

.

Нехай – вектор стаціонарного режиму. Покладемо , . За рівністю (7.11) отримаємо:

або

.

Звідки приходимо до системи рівнянь:

Помножимо кожне рівняння системи на 10 і замінимо перше рівняння на рівняння . Отримаємо систему:

розв’язок якої такий: . Отже, шуканий

вектор стаціонарного режиму .


Поиск по сайту:



Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Студалл.Орг (0.032 сек.)