АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомДругоеЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция

Лекция №2 Случайные величины

Читайте также:
  1. EUCALYPTUS COLLECTION Коллекция ЭВКАЛИПТ
  2. FOUR SEASONS COLLECTION Коллекция ЧЕТЫРЕ СЕЗОНА
  3. I. Расчет номинального значения величины тока якоря.
  4. II. Расчет номинального значения величины магнитного потока.
  5. Абсолютные величины - величины, которые берут из статистических таблиц не преобразовывая их.
  6. ВЕЛИЧИНЫ ПРИПУСКОВ НА ШВЫ И ЗАПАСЫ
  7. ВОСЬМАЯ ЛЕКЦИЯ
  8. ВОСЬМАЯ ЛЕКЦИЯ Базель, 22 сентября 1912 г.
  9. ВТОРАЯ ЛЕКЦИЯ
  10. ВТОРАЯ ЛЕКЦИЯ Базель, 16 сентября 1912г.
  11. ДЕВЯТАЯ ЛЕКЦИЯ
  12. Действие производственного шума на организм человека. Величины, характеризующие шум

Материалы для дистанционного обучения

Дисциплина «Теория вероятностей и математическая статистика»

Факультет МЭО и М МИТСО

Краткое содержание лекционного материала

Лекция №1 Случайные события.

  1. Классификация событий.
  2. Действия над событиями.
  3. Различные подходы к определению вероятности события.
  4. Элементы комбинаторики.
  5. Вероятность суммы совместных и несовместных событий.
  6. Вероятность произведения зависимых и независимых событий.
  7. Формула полной вероятности.
  8. Формула Байеса.
  9. Схема независимых испытаний Бернулли.

Основные понятия темы.

Теория вероятностей – это математическая наука, позволяющая по вероятностям одних случайных событий находить вероятности других случайных событий, связанных каким-либо образом с первыми.

Предметом теории вероятностей является изучение вероятностных закономерностей массовых однородных случайных событий.

Цель вероятностных методов в том, чтобы исследовать законы, управляющие массовыми случайными явлениями, делать прогноз случайных явлений, контролировать и целенаправленно влиять на их ход.

Опытом (испытанием) называется совокупность условий, в результате которых получается тот или иной результат.

Событие – это всякий факт или исход испытания, который может произойти или может не произойти. Кратко: событием называется исход испытания.

Достоверное событие – это событие, которое непременно произойдёт при определённой совокупности условий. Обозначение Ω (или Е, U)

Ω={ω ,…,ω } – пространство элементарных событий ω , i=1, 2, …,n.

Невозможное (пустое) – событие, которое заведомо не произойдет при определённой совокупности условий. Обозначение Ø.

Случайное событие А, В, С,… - событие, которое при определённой совокупности условий может произойти или может не произойти.

- полная группа событий.

Действия (операции) над событиями:

  1. А влечет В А В
  2. Сумма (А или В)
  3. Произведение (А и В)
  4. Разность
  5. Отрицание, событие Ā противоположное событию А (читается «не А»). События А и Ā образуют полную группу событий Ω, т.е. A+Ā=Ω.

Два события А и В называются несовместными, если появление одного из них исключает появление другого события в одном и том же опыте, т.е. они не могут произойти вместе (одновременно) в одном опыте. В противном случае события А и В называются совместными, если появление события А не исключает появление события В.

Независимы события А и В, если вероятность события А не зависит от вероятности появления события В. Зависимые события А и В, условная вероятность р(В/А), если появление события А изменяет вероятность появления события В.

Вероятность – это числовая характеристика степени возможности наступления какого-либо определённого события в определённых повторяющихся неограниченное число раз условиях, которая характерна для массовых процессов. Кратко: вероятность случайного события – это количественная мера объективной возможности его осуществления. Обозначение р.

К лассическое определение вероятности: вероятность любого события А определяется по формуле Лапласа P(A)= , где m – число элементарных исходов испытания, благоприятствующих событию А, n – число всех единственно возможных и равновозможных, образующих полную группу элементарных исходов испытания.

P(Ω)=1 – вероятность достоверного события.

P(Ø)=0 – вероятность невозможного события.

0<P(A)<1 – вероятность случайного события.

0≤P(A)≤1 – вероятность любого события.

P(A)+P(Ā)=1, т.к. A+Ā=Ω.

Статистическая вероятность Р(А) (или W(A) - относительная частота, частость, доля) Р( А)= , где m - число, показывающее, сколько раз событие А появилось в результате n испытаний.

Геометрическая вероятность Р(А)= (или Р(А)= ) – это вероятность попадания точки в область элементарных исходов опыта, которые заполняют некоторую геометрическую область А (мера А – длина, или площадь, или объём области А).

Множества элементов, состоящие из всех n элементов n-элементного множества А и отличающиеся друг от друга только их порядком называются перестановками без повторений элементов (кортежами, выборками из n элементов по n элементов) Число перестановок равно Р = n!, n! =1.2.3.. n.

Размещениями без повторения элементов (упорядоченными подмножествами, выборками из п элементов по к элементов) называются кортежи длины к, составленные из n-элементного множества А. Число размещений без повторений равно А = .

Сочетаниями без повторений из n элементов по к элементов называются k-элементные подмножества n-элементного множества, которые отличаются хотя бы одним элементом и порядок выбора элементов не важен. Число сочетаний без повторений равно C = .

Сложение вероятностей:

  1. Если события А и В несовместимые, то вероятность суммы событий А и В равна сумме вероятностей каждого события:

Р(А+В)=Р(А)+Р(В).

  1. Если события А и В совместимые, то вероятность суммы равна сумме вероятностей этих событий без вероятности их совместного появления:

Р(А+В)=Р(А)+Р(В)-Р(А•В).

Умножение вероятностей:

  1. Если события А и В независимые, то вероятность совместного наступления событий А и В равна произведению вероятностей событий А и В

Р(А•В)=Р(А)•Р(В).

  1. Если события А и В зависимые (условная вероятность), то вероятность совместного наступления событий А и В Равна произведению вероятности одного из них на условную вероятность другого при условии, что первое событие наступило

Р(А•В)=Р(А)•Р(В/А)=Р(В)•Р(А/В).

События Н , Н , …, Н образуют полную группу событий, если они попарно несовместимы и их сумма является достоверным событием. События Н называют гипотезами.

Н •Н =Ø, i≠j, =Ω.

Теорема (формула) полной вероятности

Если событие А может произойти при появлении одной из гипотез Н , i=1, 2, …, n, то его вероятность равна сумме произведений вероятностей каждой гипотезы и соответствующих условных вероятностей события А

Р(А)= .

Теорема гипотез (формула Байеса)

Пусть выполняются условия теоремы полной вероятности. Пусть известно, что событие А наступило. Тогда вероятности гипотез становятся условными вероятностями Р(Н /А) и они могут быть найдены по формуле Байеса

Р(Н /А)= , k=1, 2, …,n.

Производятся испытания, в каждом из которых может появиться событие А или событие Ā. Такие испытания называют схемой Бернулли. Обозначим Р(А)=p, Р(Ā)=q. Вероятность того, что в серии из n независимых испытаний событие А появится ровно k раз и не появится (n-k) раз обозначим P (k),тогда справедлива биномиальная формула Бернулли P (k)=С .p .q .

Число k , которому в схеме Бернулли соответствует максимальная биномиальная вероятность P (k ), называется наивероятнейшим числом появления события А.

np-q k np+p

Вероятность того, что в n опытах схемы Бернулли событие А появится от k до k раз

P (k k k )=

 

Лекция №2 Случайные величины

  1. Дискретные и непрерывные случайные величины.
  2. Закон распределения дискретной случайной величины.
  3. Функция распределения случайной величины.
  4. Плотность распределения непрерывной случайной величины.
  5. Числовые характеристики случайных величин.
  6. Основные законы распределения случайных величин.

Основные понятия темы

Случайной величиной (СВ) называют переменную величину Х, которая в зависимости от исходов испытания принимает значения, зависящие от случая Х(ω )=(Х=х ).

Дискретной случайной величиной (ДСВ) называется СВ, принимающая различные значения, которые можно записать в виде конечной или бесконечной последовательности чисел.

Непрерывной случайной величиной (НСВ) называется СВ, значения которой непрерывно заполняют некоторый (конечный или бесконечный) промежуток.

Рядом распределения СВ (законом распределения, распределением вероятностей) называется соотношение между значениями СВ и их вероятностями Р(Х=х )=p , i=1, 2, …, n. Контроль вычислений .

Закон распределения можно задать таблицей, формулой или графически в виде: многоугольника распределения (полигона), столбцовой диаграммы, столбчатой диаграммы (гистограммы).

Функцией распределения СВ Х (интегральной функцией или интегральным законом) называется функция F(x)=P(X<x).

Свойства F(x):

  1. 0 F(x) 1;
  2. F(x ) F(x );
  3. F(-∞)=0, F(+∞)=1;
  4. P(a X<b)=F(b)-F(a);
  5. F(x)=F(x ).

Плотностью распределения вероятностей f(x) НСВ Х (плотностью распределения, плотностью вероятностей, плотностью) называется производная ее функции распределения.

f(x)=F΅(x).

Свойства плотности распределения:

  1. f(x) 0;
  2. P(a X b)= ;
  3. F(x)= ;
  4. =1.

Числовые характеристики СВ – это числовые параметры, характеризующие отдельные существенные свойства (черты) закона распределения СВ. Характеристики положения: математическое ожидание (центр распределения СВ), мода, медиана; характеристики рассеяния: дисперсия (отклонение значений СВ от её центра), среднее квадратическое отклонение.

Математическим ожиданием (средним значением) ДСВ Х, имеющей закон распределения Р(Х=х )=p , i=1, 2, …, n, называется число, равное сумме произведений всех её значений на соответствующие им вероятности. Обозначения – МХ, М[Х], М(Х), ЕХ, m , a

MX= .

Математическое ожидание НСВ Х с плотностью вероятности f(x), называется число

MX= , где интеграл абсолютно сходится.

Свойства МХ:

  1. Mc=c;
  2. M(cX)=cMX;
  3. M(X+Y)=MX+MY;
  4. M(X-MX)=0;
  5. M(X.Y)=MX.MY.

Дисперсией (рассеянием) СВ Х называется математическое ожидание квадрата её отклонения от своего математического ожидания:

DX=M(X-MX) , или DX=MX -(MX)

Свойства DX:

  1. Dc=0;
  2. DcX=c DX;
  3. D(X+Y)=DX+DY;
  4. D(X+c)=DX;
  5. D(XY)=MX .MY -(MX) .(MY) .

Средним квадратическим отклонением (стандартным отклонением) СВ Х называется квадратный корень из её дисперсии, обозначают через =

Случайную величину Z= называют стандартной СВ. У неё MZ=0, DZ=1.

Z – центрированная (MZ=0) и нормированная (DZ=1) СВ.

Модой ДСВ Х называется её значение, принимаемое с наибольшей вероятностью по сравнению с двумя соседними значениями, обозначается M X. Для НСВ Х мода - точка максимума (локального) плотности распределения. Если мода единственная, то распределение СВ называется унимодальным, в противном случае – полимодальным.

Медианой M X НСВ Х называется такое её значение x , для которого

P(X<x )=P(X>x )=

Биномиальный закон распределения

Дискретная СВ Х имеет биномиальное распределение, если она принимает значения 0, 1, 2, …, n с вероятностями р =P(X=k)=С .p .q , k=1, 2, …., n

Вероятность «не менее k успехов в n независимых опытах» P(X k)=P(X=k)+P(X=k+1)+…+P(X=n) или P(X k)=1-P(X<k), как вероятность противоположного события.

Функция распределения СВ Х, распределенной по биномиальному закону:

F(x)= ;

MX=np;

DX=npq.

Распределение Пуассона

Распределение Пуассона является предельным для биномиального распределения, когда n→∞ и p→0 так, что np=a – постоянно:

р =P(X=k)= ;

MX=DX=a.

Локальная и интегральная теоремы Муавра-Лапласа

В тех случаях, когда число испытаний n велико, а вероятность p не близка к нулю, для вычисления биномиальных вероятностей используются теоремы Муавра-Лапласа:

1. Локальная теорема Муавра-Лапласа

P (k)≈ , где φ(х)= - функция Гаусса и x=

2. Интегральная теорема Муавра-Лапласа

P (k )=Φ()-Φ(), где Φ(х) – функция Лапласа

 

Равномерный закон распределения

НСВ Х имеет равномерное распределение на отрезке [a, b], если её плотность вероятности f(x) постоянна на этом отрезке, а вне его равна нулю:

f(x)= ;

F(x)= = ;

MX= ;

DX= .

Показательный закон распределения

НСВ Х имеет показательный (или экспоненциальный) закон распределения. Если её плотность вероятности имеет вид:

f(x)= ;

F(x)= ;

MX= ;

DX= .

Нормальный закон распределения

Нормальный закон («закон Гаусса») играет исключительную роль в теории вероятностей. Главная его особенность, что он является предельным законом, к которому приближаются, при определённых условиях, другие законы распределения. Этот закон наиболее часто встречается на практике.

НСВ Х имеет нормальное (гауссовкое) распределение с параметрами a и σ>0

(MX=a и D= или сокращённо записывается так: Х~N(a,σ)), если её плотность распределения имеет вид:

f(x)= , x ;

F(x)= dt.

Если a=0 и σ=1, то нормальное распределение называют стандартным. Плотность стандартной СВ Ч имеет вид: φ(х)= .

Функция распределения СВ Х~N(a,σ) имеет вид:

Φ(x)= .

и называется функцией Лапласа. Для упрощения вычислений вводят специальную функцию, называемую нормированной функцией Лапласа:

Φ (х)= ;

Φ(x)=0,5+Φ (х).

Вероятность попадания СВ Х~N(a,σ) в заданный промежуток (α,β):

P (α<X<β)=Φ ()-Φ ().

Через функцию Лапласа Φ (х) выражается и функция распределения F(x) нормально распределённой СВ Х

F(x)=0,5+Φ ().

Вероятность попадания нормально распределённой СВ в интервал, симметричный относительно центра рассеяния а. Пусть таким интервалом будет (a-l, a+l) длины 2l.

P (|X-a|<l)=2Φ ()=2Φ()-1.


1 | 2 | 3 |

Поиск по сайту:



Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Студалл.Орг (0.03 сек.)