Основные понятия

Событие — это явление, которое происходит в результате осуществления какого-либо события.

Классификация

  1. Случайное — может произойти или не произойти в результате испытания A,B,,Z.A,B,\ldots,Z.

  2. Достоверное — обязательно произойдет в результате испытания.

  3. Невозможное — никогда не произойдет в результате испытания.

  4. Совместное — появление одного не исключает появление другого.

  5. Несовместное — появление одного исключает появление другого.

  6. Противоположное — появление одного в результате опыта влечет появление другого A,B,,Z.\overline A, \overline B, \ldots, \overline Z.

  7. Благоприятствующее — появление одного влечет появление другого.

Полная группа событий — это группа событий, в которой в результате испытания происходит только одно из них и любые два из них несовместны.

Противоположные события образуют полную группу событий.

Операции над событиями

Сумма событий — события, состоящие в наступлении хотя бы одного из них в результате испытания.

Произведение событий — сложное событие, состоящее в наступлении всех этих событий.

Вероятности

Классическое определение — численная мера объективной возможности наступления событий. P(A)=MANP(A)=\frac{M_A}{N}, где MAM_A — общее число исходов испытания, благоприятствующих событию A.A.

A, P(A)=0A \in \emptyset, ~P(A)=0AΩ, P(A)=1A \in \Omega, ~P(A)=1P(A)(0,1)P(A) \in (0,1)

Статистическое определение предполагает, что число испытаний бесконечно. На практике такой подход не работает, как правило количество испытаний определено. При этом их количество должно быть не мало. В этом случае возникает статистическая устойчивость результатов P=mn.P=\frac{m}{n}.

Комбинаторика

Комбинаторика — это раздел математики, изучающий методы решения задач, на подсчет числа различных комбинаций.

Перестановки

Перестановка — это способ последовательного расположения элементов с учетом порядка.

Pn=n!=12nP_n=n!=1\cdot2\cdot\ldots\cdot n

Сколько трехзначных чисел можно составить из чисел 1, 2, 3 без повторений?

=3!=123=6***=3!=1\cdot 2\cdot 3=6

Размещения

Размещение из n элементов по m элементов AnmA_n^m — это упорядоченный набор из m различных элементов, взятых из некоторого множества с мощностью n, где mn.m\leq n. То есть некая перестановка некоторых m выбранных элементов n.

Anm=n!(nm)!A_n^m=\frac{n!}{(n-m)!}

Сколько трехзначных чисел можно составить из чисел 1, 2, 3, 4, 5 без повторений?

A53=3!2!=3A_5^3=\frac{3!}{2!}=3

Сочетания

Сочетание из n элементов по m элементов CnmC_n^m — это неупорядоченный набор из m различных элементов, взятых из некоторого множества с мощностью n, где mn.m\leq n. То есть набор для которого порядок не имеет значения.

Cnm=n!m!(nm)!C_n^m=\frac{n!}{m!\cdot(n-m)!}

Сколькими способами можно извлечь любые 3 карты из колоды в 36 карт?

n=36, m=3, C363=36!3!33!=7140n=36, ~m=3, ~C_{36}^3=\frac{36!}{3!\cdot33!}=7140

В ящике 12 писем из них 7 иногородних и 5 городских, какова вероятность, что из взятых на удачу 4 писем, окажется 1 городское?

12 писем \to7 иногородних5 городских
\downarrow\downarrow\downarrow
4 письма \to3 иногородних1 городское
N=C124=12!4!8!=495N=C_{12}^4=\frac{12!}{4!\cdot 8!}=495MA=C73C51=175M_A=C_7^3 \cdot C_5^1 = 175P(A)=MAN=175495=0.3535P(A)=\frac{M_A}{N}=\frac{175}{495}=0.3535

Теоремы

Теорема сложения

Вероятность суммы двух несовместных событий равняется сумме их вероятностей.

P(B)+P(A)=P(A+B)P(B) + P(A)= P(A+B)

При определении вероятностей часто сложные события представляются в виде комбинаций более простых, при этом применяются операции сложения и умножения. Если события образуют полную группу событий, то их вероятность = 1.

i=1nP(Ai)=1\sum\limits_{i=1}^n P(A_i)=1

Так как A1,A2,,AnA_1, A_2, \ldots, A_n образуют полную группу событий, то появление хотя бы одного из них — достоверное событие.

Для совместных событий вероятность того, что произойдет хотя бы одно из двух событий AA или BB, равна сумме вероятностей каждого из этих событий, за вычетом вероятности того, что оба события произойдут одновременно.

P(A+B)=P(A)+P(B)P(AB)P(A+B)=P(A)+P(B)-P(A\cdot B)

Событие AA называется независимым от события BB если вероятность события AA не зависит от того наступило BB или нет.

P(A)PB(A)P(A) \neq P_B(A)P(A)=PB(A)P(A) = P_B(A)

Теорема умножения

Вероятность произведения двух событий равна произведению одного из них на условную вероятность другого, вычисленную при условии, что первое наступило.

P(AB)=P(A)PA(B)P(A \cdot B) = P(A)\cdot P_A(B)

Вероятность совместного наступления событий AA и BB равна произведению вероятностей каждого из этих событий, при условии, что они независимы.

P(AB)=P(A)P(B)P(A\cdot B)=P(A)\cdot P(B)

Методами математической индукции теорему можно обособить для любого конечного числа событий.

Pi=1n(Ai)=i=1n(P(Ai))P \prod\limits_{i=1}^n (A_i)=\prod\limits_{i=1}^n (P(A_i))

Пусть требуется определить вероятность некоторого события AA, которое может произойти вместе с одним из событий H1,H2,,HnH_1, H_2, \ldots, H_n — называемыми гипотезами. При этом событие HiH_i образует полную группу событий.

P(A)=i=1nP(Hi)PHi(A)P(A)=\sum\limits_{i=1}^n P(H_i)\cdot P_{H_i}(A)

Теорема гипотез

H1,H2,,HiH_1, H_2, \ldots, H_i — гипотезы, их вероятности до опыта известны P(H1),P(H2),P(Hi).P(H_1), P(H_2),\ldots P(H_i). Произведён опыт, в результате которого событие AA произошло. Как следует изменить вероятности гипотез в связи с появлением события A?A? Необходимо найти вероятность гипотезы при условии, что событие AA наступило.

PA(Hi)=P(Hi)PHi(A)P(A)P_A(H_i)=\frac{P(H_i) \cdot P_{H_i}(A)}{P(A)}

В больницу в среднем поступают 50% пациентов с заболеванием — xx, 20%  — yy, 30% — zz. Вероятность полного излечения болезни xx — 0.7, yy — 0.9, zz — 0.8. Пациент, поступивший в больницу был выписан здоровым. Найти вероятность, что он страдал болезнью x.x.

P(H1)=0.5, P(H2)=0.2, P(H3)=0.3P(H_1)=0.5, ~P(H_2)=0.2, ~P(H_3)=0.3PH1(A)=0.7, PH2(A)=0.9, PH3(A)=0.8P_{H_1}(A)=0.7, ~P_{H_2}(A)=0.9, ~P_{H_3}(A)=0.8PA(H1)=P(H1)PH1(A)P(H1)PH1(A)+P(H2)PH2(A)+P(H3)PH3(A)=0.50.70.50.7+0.20.9+0.30.8=0.45P_A(H_1)=\frac{P(H_1) \cdot P_{H_1}(A)}{P(H_1) \cdot P_{H_1}(A) + P(H_2) \cdot P_{H_2}(A) + P(H_3) \cdot P_{H_3}(A)}=\frac{0.5\cdot0.7}{0.5\cdot0.7+0.2\cdot0.9+0.3\cdot0.8}=0.45

Повторные независимые испытания

При решении вероятностных задач часты ситуации в которых одно и то же событие повторяется многократно (стрелок с места несколько раз стреляет в мишень), вопрос нахождения вероятности в отдельном испытании рассмотрен ранее. Представляет интерес нахождение вероятности появления конкретного события определенного числа в n-испытаниях. Несколько событий называют независимыми относительно события AA если вероятность события AA в каждом из них не зависит от исхода других испытаний.

P(A)=p=constP(A)=p=constP(A)=1p=q=constP(\overline A)=1-p=q=constPm,n(A)? (mn)P_{m,n}(A) - ? ~(m\leq n)

При этом важно, что не требуется определенная последовательность появления события A.A.

A,A,Am,,A,A,Anm=pmqnm\underbrace{A,A,A}_m, \ldots, \underbrace{\overline A, \overline A, \overline A}_{n-m} = p^m \cdot q^{n-m}

Формула Бернулли

Число различных комбинаций, в которых событий AA наступает mm раз из nn возможных определяется формулой сочетания комбинаторики.

Pm,n(A)=CnmpmqnmP_{m,n}(A)=C_n^m \cdot p^m \cdot q^{n-m}

30% изделий предприятия высшего сорта. Какова вероятность того, что из 6 изделий предприятия 4 — высшего сорта?

n=6, m=4n=6, ~m=4P(A)=0.3=pP(A)=0.3=pP(A)=10.3=0.7=qP(\overline A)=1-0.3=0.7=qP4,6=C640.340.72=0.198P_{4,6}=C_6^4\cdot0.3^4\cdot0.7^2=0.198

Формула Пуассона

Применяется если вероятность наступления события AA в каждом испытании постоянна, но близка к нулю, а число повторных независимых испытаний достаточно велико.

nn \to \inftyP(A)=p0P(A)=p\to0Pm,n(A)=ameam!, a=np, e=2.72P_{m,n}(A)=\frac{a^m \cdot e^{-a}}{m!}, ~a=n\cdot p, ~e=2.72

Вероятность появления на ферме ондатры альбиноса — 0.001. Найти вероятность того, что из 1000 выращенных животных < 2 — альбиносы.

n=1000, m<2n=1000, ~m<2P(A)=0.001P(A)=0.001a=np=1a=n\cdot p=1Pm<2, 1000(A)=P0, 1000(A)+P1, 1000(A)=0.3679+0.3679=0.7578P_{m<2,~1000}(A)=P_{0,~1000}(A)+P_{1,~1000}(A)=0.3679+0.3679=0.7578

Формула Лапласа

Применяется если вероятность наступления события AA в каждом из nn независимых испытаний — постоянно, событие не является маловероятным, а число испытаний велико.

Pm,n=f(x)npxP_{m,n}=\frac{f(x)}{\sqrt{npx}}f(x)=12πe, x=mnpnpqf(x)=\frac{1}{\sqrt{2\pi}}\cdot e, ~x=\frac{m-np}{\sqrt{npq}}

При определенном технологическом процессе происходит 10 обрывов нити на 100 веретён в час. Определить вероятность того, что в течение часа на 80 веретенах произойдет 7 надрывов нити.

n=80, m=7n=80, ~m=7P(A)=10100=0.1=pP(A)=\frac{10}{100}=0.1=pP(A)=10.1=0.9=qP(\overline A)=1-0.1=0.9=qx=0.3731, P7,80=0.37262.68=0.139x=0.3731, ~P_{7,80}=\frac{0.3726}{2.68}=0.139

Случайные величины

На практике приходится сталкиваться с величинами, которые в результате опыта могут принимать различные заранее неизвестные значения (число солнечных дней, количество положительных оценок в сессии, число пассажиров в маршрутке). Случайной называется величина, которая в результате опыта может принять то или иное значение неизвестное заранее, но обязательно одно.

Классификация

  1. Дискретные — принимают целые значения.

  2. Непрерывные — принимают значения из некоторого конечного или бесконечного интервала.

Закон распределения случайной величины

Появление тех или иных значений случайной величины можно рассматривать как события, а им соответствуют различные вероятности. Пусть дискретная величина XX имеет значения: x1,x2,,xn.x_1,x_2,\ldots,x_n. В результате опыта случайная величина принимает одно и только одно значение.

X=x1X=x2X=xn}i=1nP(X=xi)=1 \left. \begin{aligned} X=x_1\newline X=x_2\newline X=x_n \end{aligned} \right\} \Rightarrow \sum\limits_{i=1}^n P(X=x_i)=1

Определив все возможные значения случайной величины и правило нахождения соответствующих вероятностей, можно получить полное представление о случайной величине. Всякое соотношение, устанавливающее связь между возможными значениями случайной величины и соответствующими вероятностями, называется законом распределения случайной величины.

Рассмотрим табличный способ задания закона распределения.

xix_ix1x_1x2x_2\ldotsxnx_n
PiP_iP1P_1P2P_2\ldotsPnP_n

Также ряд распределения случайной величины может быть представлен графически.

Операции над случайными величинами

Случайные величины X,YX, Y — называются независимыми, если закон распределения одной не зависит от того, какие возможные значения принимает другая величина. Иначе они называются зависимыми. Случайные величины X,YX, Y — называются одинаково распределенными, если их законы распределения одинаковы.

xi, yjx_i, ~y_jx1, y1x_1, ~y_1x2, y2x_2, ~y_2\ldotsxn, ymx_n, ~y_m
Pxi, PyjP_{x_i}, ~P_{y_j}Px1, Py1P_{x_1}, ~P_{y_1}Px2, Py2P_{x_2}, ~P_{y_2}\ldotsPxn, PymP_{x_n}, ~P_{y_m}
i=1nPxi=1, nm\sum\limits_{i=1}^n P_{x_i}=1, ~n\neq mj=1nPyj=1, j=1,m\sum\limits_{j=1}^n P_{y_j}=1, ~j= \overline{1,m}

Произведение случайной величины XX на постоянный множитель CC — это новая случайная величина ZZ, которая с теми же вероятностями что и XX принимает значения равные произведению константы на постоянный множитель C.C.

CxiCx_iCx1Cx_1Cx2Cx_2\ldotsCxnCx_n
PxiP_{x_i}Px1P_{x_1}Px2P_{x_2}\ldotsPxnP_{x_n}

kk-ая степень — это новая случайная величина WW, которая с теми же вероятностями что и XX принимает значения равные kk-ой степени её значений.

xikx_i^kx1kx_1^kx2kx_2^k\ldotsxnkx_n^k
PxiP_{x_i}Px1P_{x_1}Px2P_{x_2}\ldotsPxnP_{x_n}

Сумма случайных величин X,YX, Y — это новая случайная величина QQ, которая принимает все значения вида: (xi+yj)(i=1,n, j=1,m)(x_i + y_j)(i=\overline{1,n}, ~j=\overline{1,m}) с вероятностями Pi,j=P(X=xi, Y=yj)=PxiPyj.P_{i,j}=P(X=x_i, ~Y=y_j)=P_{x_i}\cdot P_{y_j}.

xi+yjx_i+y_jx1+y1x_1+y_1x2+y2x_2+y_2\ldotsxn+ynx_n+y_n
Pi,jP_{i,j}Px1Py1P_{x_1}P_{y_1}Px2Py2P_{x_2}P_{y_2}\ldotsPxnPynP_{x_n}P_{y_n}

Способы задания распределения случайной величины

Функция распределения

Для характеристики появления случайных величин целесообразно использовать вместо события P(X=xi), P(X<x).P(X = x_i), ~P(X<x). Если число xx будет меняться произвольно то и вероятности выполнения неравенства X<xX<x тоже будет меняться, следовательно вероятность есть функция аргумента. Эту функцию будем обозначать F(x)=P(X<x).F(x) = P(X<x).

Геометрически это вероятность того, что случайная точка на числовой оси будет расположена левее заданной точки x.x. Функция распределения применима как к непрерывным, так и к дискретным случайным величинам.

xix_i00112233
PiP_i0.20.20.10.10.40.40.30.3
F(x)={0;x00.2;0x10.2+0.1=0.3;1x20.2+0.1+0.4=0.7;2x30.2+0.1+0.4+0.3=1;x>3 F(x)=\begin{cases} 0; & x \leq 0 \newline 0.2; & 0 \leq x \leq 1\newline 0.2 + 0.1 = 0.3; & 1 \leq x \leq 2\newline 0.2 + 0.1 + 0.4 = 0.7; & 2 \leq x \leq 3\newline 0.2 + 0.1 + 0.4 + 0.3 = 1; & x > 3 \end{cases}

Графически является разрывной линией, не ограниченной слева, совершающей скачки в точках возможных значений случайной величины.

F(x)={0;x<0x236;0x61;x>6 F(x)=\begin{cases} 0; &x<0 \newline \frac{x^2}{36}; &0\leq x \leq 6\newline 1; &x>6 \end{cases}
F(x)[0;1],xF(x) \in [0;1], \forall xP(αXβ)=F(β)F(α)P(\alpha \leq X \leq \beta) = F(\beta) - F(\alpha)

Плотность распределения

Плотность вероятности используется только для непрерывных случайных величин.

f(x)=F(x)=limΔx0D(x+Δx)F(Δx)Δx=limΔx0P(x<X<x+Δx)Δxf(x)=F'(x) = \lim\limits_{\Delta x\to 0} \frac{D(x+ \Delta x)-F(\Delta x)}{\Delta x} = \lim\limits_{\Delta x\to 0} \frac{P(x<X<x+\Delta x)}{\Delta x}P(α<X<β)=αβf(x)dxP(\alpha < X < \beta) = \int\limits_\alpha^\beta f(x)dx

Геометрически интерпретация этой формулы вытекает из геометрического смысла определенного интеграла. Вероятность попадания случайной величины (α;β)(\alpha; \beta) — численно равна площади формулы, ограниченной кривой распределения, осью oxox и прямыми x=α, x=β.x=\alpha, ~x=\beta.

f(x)={0;x<0x6;0x40;x>4 f(x)=\begin{cases} 0; &x<0 \newline \frac{x}{6}; &0 \leq x \leq 4 \newline 0; &x>4 \end{cases} P(1<X<3)=13x6dx=1613xdx=16x2213=164=23P(1<X<3)=\int\limits_1^3 \frac{x}{6} dx = \frac{1}{6} \cdot \int\limits_1^3 xdx = \frac{1}{6} \cdot \frac{x^2}{2} \Bigg\vert_1^3 = \frac{1}{6} \cdot 4 = \frac{2}{3}
f(x)dx=1\int\limits_{-\infty}^\infty f(x)dx=1F(x)=P(X<x)=P(<X<x)=xf(x)dxF(x)=P(X<x)=P(-\infty < X < x)=\int\limits_{-\infty}^x f(x)dx

Числовые характеристики случайной величины

Для решения многих практических задач совсем не обязательно знать все возможные значения случайной величины и соответствующие вероятности. Достаточно указать отдельные числовые характеристики, отражающие важные черты закона распределения.

Математическое ожидание

Возможные задания случайной величины могут быть сосредоточены вокруг некоторого центра — среднего значения. Математическое ожидание — это среднее значение случайной величины, взвешенное по вероятности.

M(X)=i=1nxiPi=1M(X)=\sum\limits_{i=1}^n x_i P_i = 1M(X)=xf(x)dxM(X)=\int\limits_{-\infty}^{\infty} xf(x)dxM(X±Y)=M(X)±M(Y)M(X\pm Y)=M(X)\pm M(Y)M(XY)=M(X)M(Y)M(X \cdot Y)= M(X) \cdot M(Y)M(constX)=constM(X)M(const \cdot X)=const \cdot M(X)M(const)=constM(const)=constM(XM(X))=0M(X-M(X))=0

Дисперсия

Целесообразно находить меру рассеивания значений случайной величины вокруг её математического ожидания.

D(X)=M(X2)M2(X)D(X)=M(X^2)-M^2(X)D(X±Y)=D(X)+D(Y)D(X\pm Y)=D(X)+D(Y)D(constX)=const2D(X)D(const \cdot X)=const^2 \cdot D(X)D(const)=0D(const)=0

Среднеквадратическое отклонение

Показывает вариацию значения случайной величины вокруг среднего.

σ(X)=D(X)\sigma(X) = \sqrt{D(X)}

Конкретные законы распределения

Конкретным называется закон дифференциальная функция, которого исследована и найдены формулы для вычисления числовых характеристик.

Равномерный закон распределения

XR[a,b]X \sim R \in [a, b]f(x)={0;x<a1ba;axb0;x>b f(x)=\begin{cases} 0; &x<a \newline \frac{1}{b-a}; &a \leq x \leq b \newline 0; &x>b \end{cases}
F(x)={0;x<axaba;axb1;x>b F(x)=\begin{cases} 0; &x<a \newline \frac{x-a}{b-a}; &a \leq x \leq b \newline 1; &x>b \end{cases}
M(X)=b+a2, D(X)=(ba)212, σ(X)=ba23M(X)=\frac{b+a}{2}, ~D(X)=\frac{(b-a)^2}{12}, ~\sigma(X) = \frac{b-a}{2\sqrt{3}}P(α<X<β)=βαbaP(\alpha<X<\beta) = \frac{\beta - \alpha}{b - a}

Показательное распределение

XExp(λ)X \sim Exp(\lambda)f(x)={0;x<0λeλx;x0 f(x)=\begin{cases} 0; &x<0 \newline \lambda e^{-\lambda x}; &x \geq 0 \end{cases}
F(x)={0;x<01eλx;x0 F(x)=\begin{cases} 0; &x<0 \newline 1-e^{-\lambda x}; &x \geq 0 \end{cases}
M(X)=σ(X)=1λ, D(X)=1λ2M(X)=\sigma(X) = \frac{1}{\lambda}, ~D(X)=\frac{1}{\lambda^2}P(α<X<β)=eλαeλβP(\alpha < X < \beta) = e^{-\lambda \alpha} - e^{-\lambda \beta}

Нормальное распределение

Распределение наиболее часто встречается, является предельным законом к которому стремятся другие законы распределения при часто встречающихся аналогичных условиях.

XN(a, σ)X \sim N (a, ~\sigma)f(x)=1σ2πe(xa)22σ2f(x)=\frac{1}{\sigma \sqrt{2 \pi}} \cdot e^{-\frac{(x-a)^2}{2 \sigma^2}}
F(x)=1σ2πe(xa)22σ2F(x)=\frac{1}{\sigma \sqrt{2\pi}} \int\limits_{-\infty}^\infty e^{-\frac{(x-a)^2}{2 \sigma^2}}
M(X)=a, D(X)=σ2, σ(X)=σM(X)=a, ~D(X)=\sigma^2, ~\sigma(X)=\sigmaP(α<X<β)=Φ(βaσ)Φ(αaσ), Φ(x)=12πx ex22dxP(\alpha < X < \beta) = \Phi\left(\frac{\beta - a}{\sigma}\right) - \Phi\left(\frac{\alpha - a}{\sigma} \right), ~\Phi(x)=\frac{1}{\sqrt{2 \pi}} \int\limits_{-\infty}^x ~e^{-\frac{x^2}{2}} dxP(Xaξ)=2Φ(ξσ)P(|X-a|\leq \xi)=2\Phi \left(\frac{\xi}{\sigma}\right)

Предельные теоремы теории вероятности

Результаты отдельных наблюдений при относительно равенстве условий их проведения всё же отличаются друг от друга, хотя средний результат обнаруживает значительную устойчивость. Условия при которых проявляется такая закономерность рассматриваются в предельных теоремах.

Закон больших чисел

Среднее значение конечной выборки из фиксированного распределения близко к математическому ожиданию этого распределения.

Неравенство Маркова

Применяется если XX принимает только не отрицательные значения и имеет конечное математическое ожидание.

P(Xξ)>1M(X)ξP(X\leq\xi)> 1 - \frac{M(X)}{\xi}P(X>ξ)<M(X)ξP(X>\xi)<\frac{M(X)}{\xi}

Неравенство Чебышева

В основном случайная величина XX принимает значения, близкие к своему среднему.

P(XM(X)ξ)>1D(X)ξ2P(|X-M(X)|\leq\xi)>1 - \frac{D(X)}{\xi^2}

Теорема Чебышева

Если X1,X2,,XnX_1, X_2, \ldots, X_n — независимые случайные величины, имеющие определенные математические ожидания M(Xi)=ai, i=1,nM(X_i)=a_i, ~i=\overline{1, n} и ограниченные дисперсии D(Xi)const,D(X_i) \geq const, то при nn\to \infty, среднее значение P1.P \to 1.

limn(P(XM(X))ξ)=1\lim\limits_{n\to\infty}(P(|\overline X - \overline{M(X)}|)\leq \xi)=1

Теорема Бернулли

При многократном повторении независимого эксперимента с двумя возможными исходами относительная частота успешных исходов стремится к вероятности успеха, если количество испытаний стремится к бесконечности.

limnP(mnpξ)=1\lim\limits_{n\to\infty}P(|\frac{m}{n}-p|\leq\xi)=1

Теорема Пуассона

Теорема Пуассона описывает распределение вероятностей для количества событий, происходящих в фиксированный промежуток времени или пространства, при условии, что эти события происходят с постоянной средней частотой и независимо друг от друга.

Pn(k)=λkk!eλP_n(k)=\frac{\lambda^k}{k!} \cdot e^{-\lambda}

Центральная предельная теорема

Имеет смысл если M(X), D(X)M(X), ~D(X) — конечные и ни одна из случайных величин по своим значениям резко не отличается от остальных.

i=1nXi(X=1,nN), n\sum\limits_{i=1}^n X_i (X=\overline{1,n} \sim N), ~n\to \inftyP(Xaξ)=2Φ(ξ2nσ)P(|\overline X - a|\leq\xi)=2\Phi(\frac{\xi\sqrt{2n}}{\sigma})