1. Вероятностный эксперимент. Пространство элементарных событий.

Вероятностный эксперимент (Е) — испытания, которые могут быть многократно воспроизведены при соблюдении одних и тех же фиксированных условий, результат которых не удается заранее однозначно предсказать.
Пространство элементарных событий — множество всех взаимно или попарно исключающих друг друга исходов случайного эксперимента, которые вместе образуют полную группу событий.
Случайным событиемсобытие, о котором нельзя заведомо точно сказать, произойдёт оно или нет. Случайные события обозначаются заглавными латинскими буквами (A, B, C, D, …).
Элементарное событие ω — любой мысленно возможный неразложимый результат вероятностного эксперимента Е
Достоверное событие — событие, которое всегда происходит, т. е. совпадающее с пространством элементарных событий Ω .
Невозможное событие — событие, которое никогда не произойдёт, т. е. совпадающее с пустым множеством.

2. Операции над событиями.

Сумма событий A и B — третье событие А+В (AB) , состоящее в осуществлении хотя бы одного из событий А или В. Благоприятными событию АВ являются все элементарные события, благоприятные хотя бы одному из событий А или В.
Произведение событий А и В — третье событие АВ(A ∩ B) , состоящее в одновременном осуществлении событий А и В. Благоприятными событию А ∩ В являются все элементарные события, благоприятные одновременно событию А и событию В.
Разность событий А и В — третье событие А–В (А\В), состоящее в осуществлении события А без осуществления события В. Событие А\В состоит из элементарных событий благоприятных событию А, за исключением элементарных событий благоприятных со- бытию В.
Противоположное событие А — событие А , состоящее в не наступлении события А. Событию А благоприятны все возможные элементарные события пространства элементарных событий Ω , кроме тех, которые благоприятны событию А ( А = Ω \ А ).
Несовместное событие А и В — событие, которое не может произойти одновременно, т. е. одновременное осуществление событий А и В есть событие невозможное ( А ∩ В = Ø).

 

3. Вероятность случайного события. Относительная частота случайного события. Понятие вероятности случайного события. Аксиомы теории вероятностей.

Число m называется частотой появления случайного события А, а отношение P =m/nотносительной частотой случайного события А. Относительная частота наступления некоторого случайного события не является постоянной величиной, однако она обладает устойчивостью, стремлением к некоторому постоянному числу и колебания её тем меньше, чем больше проведено экспериментов.
Вероятность случайного события А — числовая функция Р(А), определённая на пространстве элементарных событий Ω , характеризующая меру объективной возможности наступления события А.
А1 (аксиома неотрицательности). Вероятность любого события A есть неотрицательное число:
P(A) ≥ 0, для любого события A.
А2 (аксиома нормированности). Вероятность достоверного события (всего пространства элементарных исходов Ω) равна единице: P(Ω) = 1.
А3 (аксиома аддитивности). Вероятность суммы счетного числа несовместных событий равна сумме вероятностей этих событий: P(A1 A2 A3 …) = P(A1) + P(A2) + P(A3) + …
Основные следствия из аксиом теории вероятностей:
1 Вероятность невозможного события равна нулю: P() = 0.
2 Вероятность любого случайного события есть число, заключенное в отрезке от нуля до единицы:
0 ≤ P(A) ≤ 1.
3 Вероятность события A , противоположного событию A, можно определить следующим образом:
P( A ) = 1 – P(A).


4. Классический метод вычисления вероятностей. Элементы комбинаторики.
Классический метод вычисления вероятностей
Р (А) = m/n , где m – число элементарных исходов, благоприятных событию A;
n – общее число исходов пространства элементарных событий Ω.

Ограничения классического способа:
а) все элементарные исходы вероятностного эксперимента Е должны быть равновозможными, то есть
P (ωi) = P (ωj) , для любых i, j ;
б) множество всех элементарных исходов пространства Ω должно быть конечным.
Комбинаторика – раздел математики, изучающий количество комбинаций, подчинённых некоторым условиям.

Лемма 1 (основная лемма комбинаторики)
Из m элементов первого множества {a1 a2 , , am , } и n элементов второго множества {b1 ,b2 …,bn } можно составить ровно mn различных упорядоченных пар (ai,bj ), содержащих по одному элементу из каждого множества.
Лемма 2
Из n1 элементов первого множества {a1 ,a2 , ,an1 }, n2 элементов второго множества {b1 , b2,.. ,bn2 } и т. д.,
nk элементов k- го множества {x1 , x2,.. ,xnk } можно составить ровно n1 n2 ..nk различных упорядоченных комбинаций (ai ,bj ,.. ,xs ), содержащих по одному элементу из каждого множества.
Перестановки — комбинации n различных элементов и отличающиеся только порядком их расположения. Количество возможных перестановок n различных элементов обозначается P n=n!
Упорядоченные выборки (размещениями) — комбинации, составленные из n различных элементов по m элементов, различающиеся либо составом элементов, либо их порядком. Количество возможных размещений m элементов из n различных элементов обозначается А m n.
Неупорядоченные выборки (сочетаниями) — комбинации, составленные из n различных элементов по m элементов, различающиеся только составом элементов. Количество возможных сочетаний m элементов из n различных элементов обозначается Сnm .

5. Геометрический метод вычисления вероятностей.
Если пространство элементарных событий Ω вероятностного эксперимента Е является несчетным, то для вычисления вероятностей случайных событий может применяться геометрический метод.
Пусть пространство Ω эксперимента E содержит несчетное множество элементарных исходов
ω (т. е. ׀׀ = ∞ ) и их можно трактовать как точки в евклидовом пространстве, а события эксперимента E – как некоторые ограниченные области этого пространства. Тогда вероятность случайного события A может быть определена выражением: P(A)=
где µ(A) – геометрическая мера (длина, площадь, объём) области, соответствующая событию A;
µ(Ω) – геометрическая мера области, соответствующая пространству элементарных событий Ω.

6. Свойства вероятностей случайного события.
Свойство 1. P(Ø) = 0, т. е. вероятность невозможного события равна 0.
Свойство 2. Если в пространстве Ω , содержащем конечное или счётное множество возможных элементарных событий ω1, ω2 , …, ωi ,.. (Ω= { ω1 , ω2 ,.. , ωi ,.. }), заданы вероятности элементарных событий P(ω1) = p1, P(ω2 ) = p2 ,…, P(ωi) = pi , …, то вероятность произвольного события А= { ωj , ωk,… , ωi } равна сумме вероятностей элементарных событий, благоприятных событию А, т. е. P(A) = P(ωi ).

ωi A
Свойство 3. Если A B , то P(B \ A) = P(B) − P(A).
Свойство 4 (следствие свойства 3). Если A B , то P(B) ≤ P(A) .
Свойство 5. P(A) =1− P(A), т.е. сумма вероятностей противоположных событий равна 1.
Свойство 6. 0 ≤ P(A) ≤ 1, т. е. вероятность произвольного слу- чайного события принадлежит отрезку [0,1].
Свойство 7. Вероятность произведения двух несовместных слу— чайных событий равна нулю.
То есть, если события А и В несовместны, то P(A∩ B) = 0 .
Гипотеза — несовместные события H1 H2Hn , , которые образуют полную группу событий.
Свойство 8. Сумма вероятностей гипотез H1 ,H2,…, Hn равна единице.
Гипотезы, вероятности которых равны, называются шансами.

7. Теоремы сложения и умножения вероятностей. Условная вероятность. Независимость событий.

Теорема сложения вероятностей двух событий:
Пусть A и B – произвольные случайные события, принадлежащие пространству Ω, тогда вероятность суммы этих событий равна сумме вероятностей этих событий без вероятности их совместного появления:
P(A B) = P(A) + P(B) − P(A ∩ B)
Следствие. Вероятность суммы двух несовместных событий А и В равна сумме вероятностей этих событий: P(A B) = P(A) + P(B) , т. к. вероятность произведения несовместных событий равна нулю по свойству 7.
Теорема сложения вероятностей трёх произвольных событий:
P (А В С ) = Р (А )+Р (В )+Р (С ) — Р (А∩ В ) Р(А∩С ) Р(В∩С ) (А∩В∩С ).
Теорема умножения вероятностей двух произвольных событий. Вероятность произведения двух произвольных событий равна произведению вероятности одного из событий на условную вероятность другого события при условии, что первое уже произошло:
P(A ∩ B) = P(A)P(B | A) = P(B)P(A| B).
Теорема умножения вероятностей трёх произвольных событий:
P(A ∩ B ∩ C) = P(A)P(B | A)P(C | A ∩ B).
Следствие 1. Если событие A не зависит от B, то и событие B не зависит от A.
Следствие 2. Вероятность произведения двух независимых событий равна произведению вероятностей этих событий. То есть, если события A и B независимы, то P(A ∩ B) = P(A)P(B).
Если наступление события A не изменяет вероятности появления B, событие B называется независимым от события A.
Условной вероятностью P(B | A) (или PА (B) ) называют вероятность наступления события B при условии, что событие A уже произошло.

8. Формула полной вероятности. Формула Байеса.

Формула полной вероятности является следствием теорем сложения и умножения вероятностей. Пусть требуется определить вероятность некоторого случайного события А, которое может произойти только с одной из гипотез H1, H2,…, Hn . Тогда вероятность указанного события можно вы-числить по формуле
Р(А) (Р(Нi)P(A׀Hi)) , т.е. как сумму произведений вероятности каждой гипотезы на условную вероятность события А при условии наступления этой гипотезы. В формуле n – число гипотез.
Формула Байеса является следствием теорем сложения и умножения вероятностей и формулы полной вероятности. Применяется фор- мула Байеса для переопределения вероятностей гипотез, сопутствующих (предшествующих) некоторому случайному событию А, о котором стало известно, что оно произошло.

где P(Hi | A) – апостериорная (послеопытная) вероятность гипотезы Hi при условии, что событие A произошло;P (Hi ) – априорная (доопытная) вероятность гипотезы Hi , i = 1, n ; P(A |Hi ) – условная вероятность события A при условии справедливости гипотезы Hi ; P(A) > 0 – безусловная вероятность случайного события A, определяемая по формуле полной вероятности

9. Испытания Бернулли. Схема Бернулли. Формула Бернулли.

Испытаниями Бернулли называются повторные независимые испытания, в каждом из которых возможны два исхода (условно именуемые “успехом” и “неудачей”), вероятности которых не меняются от испытания к испытанию. Примерами испытаний Бернулли являются: многократное подбрасывание монеты (успех – выпадение герба); стрельба по мишеням в биатлоне (если считать вероятность попадания неизменной); проверка автобусов перед выходом на линию (успех – автобус исправен). Вероятность успеха в каждом испытании Бернулли будем обозначать символом p (P(успех) = P (у) = p), а вероятность неудачи – символом q (P(неудача) = P (н) = q) . Естественно, что p + q =1, как сумма вероятностей противоположных событий.
Схемой Бернулли называется проведение заранее определенного числа n испытаний Бернулли. Примером схемы Бернулли является проверка 10 автобусов перед выходом на линию.
Проводятся n опытов, в каждом из которых может произойти определенное событие («успех») с вероятностью p (или не произойти — «неудача» — с вероятностью q=1-p).
Задача — найти вероятность получения ровно k успехов в этих n опытах.
Формула Бернулли — формула в теории вероятностей, позволяющая находить вероятность появления события A при независимых испытаниях. Формула Бернулли позволяет избавиться от большого числа вычислений — сложения и умножения вероятностей — при достаточно большом количестве испытаний.

где P(k) — вероятность появления события A ровно k раз при n независимых испытаний, p — вероятность появления события A при каждом испытании.

10. Предельная теорема Пуассона. Локальная и интегральная теоремы Муавра-Лапласа.

Предельная теорема Пуассона
Пусть число экспериментов Бернулли велико ( n → ∞ ), а вероятность наступления события A в каждом испытании очень мала ( p → 0, p < 0,1 ), тогда вероятность того, что событие A появится в серии из n испытаний ровно m раз, приближенно равна

(m = ,2,1,0 … ), где произведение a = n p = const .

Локальная теорема Лапласа. Если вероятность p появления события A в каждом испытании постоянна и отлична от нуля и единицы (0 < p < 1), то вероятность того, что событие A появится в серии из n испытаний ровно m раз приближенно равна (тем точнее, чем больше n) значению функции:

Функция ϕ(x) является четной функцией, то есть ϕ(– x) = ϕ(x), для всех x ≥ 4 принимается ϕ( x) = 0. Таким образом, вероятность того, что событие A появится в n независимых испытаниях ровно m раз, приближенно равна:


Интегральная теорема Лапласа. Если вероятность p наступления со- бытия A в каждом испытании постоянна и отлична от нуля и единицы (0 < p < 1), то вероятность того, что событие A появится в серии из n испытаний от k1 до k2 раз, приближенно равна:


11. Понятие одномерной случайной величины (СВ)
Случайной величиной называют переменную величину, которая в зависимости от исхода испытания принимает значения, зависящие от случая. Случайные величины принято обозначать прописными буквами латинского алфавита: X, Y, Z, …, либо буквами греческого алфавита: ξ, η, θ, …, а их значения – строчными буквами латинского алфавита: x, y, z.
12. Закон распределения СВ
законом распределения случайной величины X называется любое соотношение, устанавливающее связь между возможными значениями этой случайной величины и соответствующими им вероятностями.
Законом распределения дискретной случайной величины называется соответствие между значениями х1, х2,х3.. этой величины и их вероятностями р1,р2,р3,…
Закон распределения дискретной случайной величины может быть задан с помощью формул или таблично.
Для полного описания исследуемого вероятностного эксперимента недостаточно задать только пространство элементарных событий Ω. К этому необходимо добавить также: а) для дискретной случайной величины – правило, сопоставляющее каждому возможному значению случайной величины хi вероятность того, что случайная величина X примет в результате эксперимента это значение:
б) для непрерывной случайной величины – правило, позволяющее поставить в соответствие любой измеримой области ∆X возможных значений случайной величины X вероятность попадания значения случайной величины в эту область:

13. Функция распределения СВ и ее свойства
Универсальным способом задания закона распределения произвольной случайной величины является функция распределения.
Функцией распределения F(x) случайной величины ξ в точке x называется вероятность того, что величина ξ примет значение меньше x, т. е. функция распределения определяет вероятность события {ξ < x}:
F(x) = P(ξ < x) .
Функция распределения произвольной случайной величины ξ обладает свойствами:
Свойство 1. F(x) ≥ 0 , т. е. функция распределения – неотрицательная функция.
Свойство 2. F(−∞) = 0 .
Свойство 3. F(∞) =1.
Свойство 4. Если x1 < x2 , то F (x1) ≤ F (x2) , т. е. функция распределения – неубывающая функция.
Свойство 5. Если , x1 < x2 то P( x1 ≤ ξ < x2) = F (x1) − F (x2) , т. е. вероятность того, что случайная величина примет значение, принадлежащее полуинтервалу [ х12 ) , равна приращению функции распределения на этом полуинтервале.
Свойство 6. F(x − )0 = F(x), т. е. функция распределения непрерывна слева.





14. Функция плотности распределения СВ и ее свойства.

Плотностью распределения вероятностей непрерывной случайной величины X в точке x называется производная ее функции распределения в этой точке: f(x) = F ′(x).
По своему смыслу значения функции f(x) пропорциональны вероятности того, что исследуемая случайная величина примет значение где-то в непосредственной близости от точки x. Функция плотности распределения f(x), как и функция распределения F(x), является одной из форм задания закона распределения, но она применима только для непрерывных случайных величин. Функцию плотности распределения вероятностей f(x) еще называют дифференциальной функцией распределения, тогда как функцию распределения F(x) называют, соответственно, интегральной функцией распределения.
Свойство 1. Плотность распределения вероятностей – неотрицательная функция: f(x) ≥ 0. Кривая распределения лежит не ниже оси абсцисс
Свойство 2. Вероятность попадания значения случайной величины на участок от α до β определяется по формуле: эта вероятность равна площади криволинейной трапеции, ограниченной кривой f(x), осью Ох и прямыми x = α и x = β
Свойство 3 площадь фигуры, ограниченной кривой распределения и осью абсцисс, равна единице
В частности, если все возможные значения случайной величины принадлежат отрезку [a, b], то:

Свойство 4. Функция распределения F(x) может быть найдена по известной функции плотности распределения следующим образом:


15. Числовые характеристики СВ. Математическое ожидание, дисперсия, мода, медиана, среднеквадратическое отклонение, коэффициент асимметрии, коэффициент эксцесса.

Характеристики, выражающие в сжатой форме наиболее существенные особенности распределения случайной величины, называются числовыми характеристиками случайной величины.
Математическое ожидание характеризует среднее значение случайной величины, вокруг которого группируются все ее значения. Термин «математическое ожидание» связан с начальным периодом развития теории вероятностей, когда она развивалась на примерах и задачах азартных игр и игрока интересовал средний выигрыш, то есть среднее значение ожидаемого выигрыша. Для дискретных и непрерывных случайных величин математическое ожидание вычисляется, соответственно, по формулам :

Свойства математического ожидания:
а) математическое ожидание постоянной величины равно этой постоянной: M[C] = C;
б) постоянный множитель можно выносить за знак математического ожидания: M[CX] = C M[X];
в) математическое ожидание алгебраической суммы конечного числа случайных величин равно алгебраической сумме их математических ожиданий. Например, для трех случайных величин X1, X2, X3 M[X1 ± X2 ± X3] = M[X1] ± M[X2] ± M[X3];
г) если P(α ≤ Х < β)=1, то M[X] [α;β], то есть математическое ожидание произвольной случайной величины X принадлежит интервалу между минимальным и максимальным возможными значениями случайной величины X;
д) математическое ожидание произведения конечного числа независимых случайных величин равно произведению их математических ожиданий. Напр., для трех независимых случайных величин X1, X2, X3 M[X1 X2 X3] = M[X1] M[X2] M[X3].
Дисперсия является мерой рассеивания значений случайной величины относительно ее математического ожидания. Для дискретных и непрерывных случайных величин дисперсию можно вычислить по формулам:

 

 

Свойства дисперсии: а) дисперсия постоянной величины равна нулю: D[C] = 0;
б) постоянный множитель можно выносить за знак дисперсии, возводя его в квадрат: D[CX] = C2 D[X];
в) дисперсия алгебраической суммы нескольких независимых случайных величин равна сумме их дисперсий. Например, для трех случайных величин X1, X2, X3 D[X1 ± Х2 ± Х3] = D[X1] + D[Х2] + D[Х3];

г) D[С ± Х] = D[X].
Модой дискретной случайной величины X (обозначается xmod) называется ее наиболее вероятное значение, то есть то значение, для которого вероятность pi достигает максимума. Моду дискретной случайной величины можно определить графически по столбцовой диаграмме, как абсциссу столбца, имеющего наибольшую высоту.
Модой непрерывной случайной величины X (обозначается xmod) называется то ее возможное значение, которому соответствует локальный максимум плотности распределения. В частности, если распределение имеет два максимума, то распределение называется двумодальным.
Медианой случайной величины X называется такое ее значение xmed, для которого
P(X < xmed) = P(X ≥ xmed) = 0,5, то есть одинаково вероятно, примет ли случайная величина значение, большее или меньшее медианы. Геометрически: медиана – это координата той точки на оси абсцисс, для которой площади фигур, ограниченных кривой f(x) и осью абсцисс, находящихся слева и справа от неё, одинаковы и равны 0,5. Учитывая определение функции распределения, F(xmed ) = 0,5 . Эта характеристика применяется, как правило, только для непрерывных случайных величин. Для дискретных случайных величин множество значений х, удовлетворяющих свойству медианы F(xmed ) = 5,0 , либо бесконечно, либо является пустым.
Для того чтобы получить характеристику разброса значений случайной величины относительно математического ожидания, имеющую такую же размерность, как и сама случайная величина, используют корень квадратный из дисперсии, взятый с положительным знаком. Полученная величина называется средним квадратическим отклонением и обозначается
Чем больше разброс значений случайной величины Х вокруг М[Х], тем больше σ[X ] и D[X ].
Коэффициент асимметрии (обозначается A[X]) характеризует скошенность распределения случайной величины относительно математического ожидания. Для симметричных относительно математического ожидания распределений A[X] = 0. Если в распределении случайной величины преобладают положительные отклонения, то A[X] > 0, если отрицательные, то A[X] < 0. Значение коэффициента асим- метрии для дискретных и непрерывных случайных величин вычисляется, соответственно по формулам:

Коэффициент эксцесса (обозначается Ex[X]) характеризует островершинность графика функции плотности распределения вероятностей f(x). Своеобразным началом отсчета при измерении степени островершинности служит нормальное распределение, для которого Ex[X] = 0. Как правило, распределения с более высокой и более острой вершиной кривой плотности распределения имеют положительное значение коэффициента эксцесса, а с более низкой и пологой – отрицательное значение. Для вычисления значений коэффициента эксцесса дискретных и непрерывных случайных величин используются формулы:

16. Законы распределения СВ. Биномиальный закон распределения.

Биномиальное распределение
Дискретная случайная величина X распределена по биномиальному закону, если возможные значения этой случайной величины 0, 1, 2,…, n, а вероятность каждого из значений определяется по формуле Бернулли:
где 0 ≤ p ≤ 1; q = 1 – p; m = 0, 1, 2,…, n.
Постоянные p и n, входящие в формулу, называются параметрами биномиального распределения.
На практике биномиальное распределения возникает при следующих условиях: пусть производится серия из n независимых испытаний, в каждом из которых событие A может осуществиться с вероятностью p. Тогда случайная величина X, определяющая число появлений события A в серии из n испытаний, распределена по биномиальному закону. Закон называется «биномиальным» потому, что правую часть равенства можно рассматривать как общий член разложения бинома Ньютона:



17. Законы распределения СВ. Закон распределения Пуассона.

Дискретная случайная величина X распределена по закону Пуассона, если ее возможные значения:
0, 1, 2, …, m,… , а соответствующие им вероятности задаются формулой:
(m =0 ,1,2 … ).
Закон распределения Пуассона зависит от одного параметра: a. Доказано, что для случайной величины, распределенной по закону Пуассона
Условия, при которых возникает распределение Пуассона.
1 Распределение Пуассона с параметром a = np можно приближенно применять вместо биномиального распределения, когда число испытаний n достаточно велико, а вероятность появления события в каждом испытании p очень мала (p < 0,1), то есть в каждом отдельном опыте событие A появляется крайне редко.
2 По закону Пуассона распределена случайная величина, описывающая число событий простейшего потока, произошедших в течение промежутка времени t.
Простейший поток событий. Потоком событий называется последовательность однородных событий, наступающих одно за другим в случайные моменты времени.
Интенсивностью потока λ называется среднее число событий, происходящих за единицу времени.

18. Законы распределения СВ. Геометрический закон распределения.

Геометрическое распределение возникает при следующих условиях: пусть производится серия независимых опытов, в каждом из которых может произойти событие А с одной и той же вероятностью p. Опыты продолжаются до первого появления события А. Тогда случайная величина X, определяющая число неудач, предшествующих успеху, распределена по геометрическому закону. Возможные значения этой случайной величины: 0, 1, 2, …, n, …, а вероятность каждого из этих значений определяется по формуле:
, где 0 ≤ p ≤ 1; q = 1 – p; m = 0, 1, 2, …, n, … .
Геометрическое распределение зависит от параметра p.

19. Законы распределения СВ. Равномерный закон распределения.
Непрерывная случайная величина, которая принимает значения, только принадлежащие отрезку [a, b] с постоянной плотностью распределения, называется распределенной по равномерному закону. Функция плотности распределения вероятностей определяется соотношением:

Найдем функцию распределения данной случайной величины:

Графики функций f(x) и F(x):

Математическое ожидание случайной величины X, распределенной по равномерному закону на участке
[a, b], как следует из механической интерпретации (центр массы), равно абсциссе середины участка:
M[X] = (a + b)/2.
Среднее квадратическое отклонение равномерно распределенной случайной величины:

Примером случайной величины, которая имеет равномерный закон рас- пределения, является время ожидания регулярных событий, например, вре— мя ожидания поезда в метрополитене, время ожидания автобуса определен- ного маршрута на остановке.

20. Законы распределения СВ. Показательный закон распределения. Лемма об «отсутствии памяти» у показательного распределения.

Случайная величина ξ имеет показательное распределение, т. е. ξ ~ E(λ), если она непрерывна, принимает только положительные значения и имеет функцию распределения

и функцию плотности распределения
где λ – единственный параметр показательного распределения, λ > 0 .
Основные числовые характеристики случайной величины ξ , имеющей показательный закон распределения, определяются выражениями:

Примерами случайных величин, имеющих показательный закон распределения, являются: время простоя вагона в ожидании ремонта, интервалы времени между поездами, прибывающими на станцию, время наработки на отказ электронных систем тепловоза и другие, поэтому показательное распределение имеет важное значение в теории надежности и теории массового обслуживания. Случайная величина, распределенная по показательному закону, обладает важным свойством, называемым «отсутствием памяти».
Лемма об «отсутствии памяти» у показательного распределения.
Пусть ξ имеет показательное распределение с параметром λ (т. е. ξ ~ E(λ)). Тогда для любых t > 0 и τ > 0 вероятность того, что величина ξ примет значение меньше, чем (τ + t) при условии, что ξ приняла значение не меньше, чем τ , равна безусловной вероятности того, что случайная величина ξ примет значение меньшее, чем t :

21. Законы распределения СВ. Нормальный закон распределения.

Случайная величина X называется распределенной по нормальному закону, если ее плотность распределения вероятностей задается формулой: где σ > 0 и m – параметры распределения.
Основные свойства нормального распределения:
1 Нормальное распределение полностью определяется двумя параметрами: m и σ. Вероятностный смысл этих параметров таков: m – математическое ожидание, σ – среднее квадратическое отклонение рассматриваемой случайной величины. То есть для нормального распределения:

2. Медиана и мода случайной величины, распределенной по нормальному закону, совпадают и равны математическому ожиданию m, xmod = xmеd = M[X] = m.
3 Коэффициенты асимметрии и эксцесса нормально распределенной случайной величины равны нулю:
A[X] = 0; Eх[X] = 0.

22. Законы распределения СВ. Закон распределения Эрланга.

Пусть случайные величины ξ1 , ξ2 , , ξк независимы и имеют показательный закон распределения с одинаковым параметром λi = λ , т. е. ξi ~E (λ), i = 1 . Тогда случайная величина ξ = ξ1 + ξ2 + + ξk имеет закон распределения Эрланга k -го порядка с параметром λ , т. е. ξ ~ ER(λ, k). Очевидно, что величина ξ не- прерывна и принимает лишь положительные значения.

При k = 1 распределение Эрланга совпадает с показательным распределением. Основные числовые характеристики случайной величины ξ , имеющей закон распределения Эрланга, определяются выражениями:

23. Предельные теоремы теории вероятностей
Предельные теоремы делятся на две группы: закон больших чисел, центральная предельная теорема.
Теоремы, относящих к закону больших чисел: неравенство Чебышева, теоремы Чебышева и Бернулли.
Теорема Лягунова отн. к центральной предельной теоремы.
Неравенство Чебышева

Если случайная величина X имеет конечное математическое ожидание и дисперсию, то для любого положительного числа τ справедливо неравенство P{|X−M(X)|τ}>1−D[X]/τ2, то есть вероятность того, что отклонение случайной величины X от своего математического ожидания по абсолютной величине не превосходит τ и больше разности между единицей и отношением дисперсии этой случайной величины к квадрату τ. Неравенство Чебышева справедливо для любого закона распределения случайной величины X

и применимо как к положительным, так и к отрицательным случайным величинам.
Теорема Чебышева
При достаточно большом числе независимых испытаний n с вероятностью, близкой к единицы, можно утверждать, что разность между средним арифметическим наблюдавшихся значений случайной величины X

и математическим ожиданием этой величины M(X) по абсолютной величине окажется меньше сколь угодно малого числа τ>0 при условии, что случайная величина X имеет конечную дисперсию:
P{|X−M(X)|τ}>1−η, где η — положительное число, близкое к единице.
Теорема Чебышева позволяет с достаточной точностью по средней арифметической судить о математическом ожидании или, наоборот, по математическому ожиданию предсказывать ожидаемую величину средней. Так, на основании этой теоремы можно утверждать, что если проведено достаточно большое количество измерений определённого параметра прибором, свободным от систематической погрешности, то средняя арифметическая результатов этих измерений сколь угодно мало отличается от истинного значения измеряемого параметра.
Теорема Бернулли

Теорема устанавливает связь между относительной частотой появления события и его вероятностью.

При достаточно большом числе независимых испытаний n с вероятностью, близкой к единице, можно утверждать, что разность между относительной частой появления события A в этих испытаниях е го вероятностью в отдельном испытании по абсолютной величине окажется меньше сколь угодно малого числа τ, если вероятность наступления этого события в каждом испытании постоянна и равна p.

Утверждение теоремы Бернулли можно записать в виде неравенства P{m/n−p∣⩽τ}>1−η, где r,η— любые сколь угодно малые положительные числа.

24. Понятие многомерной СВ.

Многомерной случайной величиной называется функция X (ω), определенная на множестве элементарных событий Ω , которая каждому элементарному исходу ω ставит в соответствие n действительных чисел. Таким образом многомерная случайная величина является совокупностью n одномерных величин.
Все компоненты многомерной дискретной случайной величины – одномерные дискретные случайные величины. Все компоненты многомерной непрерывной случайной величины – одномерные непрерывные случайные величины. Многомерные смешанные случайные величины содержат как дискретные, так и непрерывные компоненты. Основной характеристикой многомерной случайной величины является закон распределения, который может быть задан таблично, графически или аналитически (функция распределения, функция плотности распределения и т. д.).

25. Функция распределения двумерной СВ.
Функцией распределения двумерной случайной величины (ξ , η) называется функция F ξ η (x, y) , равная вероятности того, что компонент ξ примет значение меньшее, чем x , а компонент η – значение меньшее, чем y ,
Таким образом, функция распределения двумерной случайной величины F ξ η (x, y) в точке (x, y) определяет вероятность, с которой двумерная случайная величина примет значение в нижнем левом квадранте относительно точки (x, y)

26. Функция плотности распределения двумерной СВ.
Функция распределения F ξ η (x, y) – наиболее универсальная форма закона распределения многомерных случайных величин как дискретных, так непрерывных и смешанных. Кроме этого, закон распределения непрерывных многомерных случайных величин может быть задан с помощью функции плотности распределения. Двумерная случайная величина называется непрерывной, если ее функция распределения
F ξ η (x, y)- непрерывная функция, дифференцируемая по каждому из аргументов, у которой существует вторая смешанная производная
Аналогично тому, как была определена функция плотности распределения одномерной случайной величины, определим функцию плотности распределения F ξ η (x, y) непрерывной двумерной случайной величины как предел отношения вероятности попадания значения случайной величины (ξ , η) в элементарный прямоугольник, примыкающий к точке (x, y), к площади этого прямоугольника, когда оба его размера стремятся к нулю:


27. Понятие зависимости многомерных СВ.

28. Числовые характеристики двумерной СВ.
Для описания многомерных случайных величин используются числовые характеристики ее составляющих, а также параметры, характеризующие зависимость между компонентами многомерной величины. Одна из таких характеристик – корреляционный момент (ковариация).
Корреляционным моментом η двух случайных величин ξ и η называют математическое ожидание произведения отклонений этих величин от своих математических ожиданий:

Корреляционный момент имеет размерность, равную произведению размерностей величин ξ и η. Часто пользуются безразмерной характеристикой – коэффициентом корреляции случайных величин, который определяется по формуле: