-
Notifications
You must be signed in to change notification settings - Fork 0
/
chapter-1.tex
463 lines (428 loc) · 31.9 KB
/
chapter-1.tex
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
\chapter{Исчисление вероятностей случайных событий}
\section{Соотношение между случайными событиями}
Пусть имеется фиксированный комплекс условий, воспроизводимый любое количество раз, в том числе и неограниченное.
\begin{definition}
Комплекс испытаний будем называть \textit{экспериментом}.
\end{definition}
\begin{definition}
Явления в результате испытаний обозначим как \textit{события}.
\end{definition}
Рассмотрим связанную с этим комплексом условий \textit{систему событий}.
\[
\{A, B, C, \dots\},
\{A_1, A_2, \dots, A_n\}
\]
\subsection{Соотношения между событиями}
\begin{enumerate}
\item $U$ --- \textit{достоверное событие}, в результате испытаний происходит всегда.
\item $V$ --- \textit{невозможное событие}, никогда не происходит.
\item \textit{Сумма событий} ($\sum\limits_{i=1}^n A_i$) --- событие, происходящее тогда и только тогда, когда происходит хотя бы одно из связанных событий.
\item \textit{Произведение событий} ($\prod\limits_{i=1}^n A_i$) --- событие, происходящее тогда и только тогда, когда происходят все из связанных событий.
\item Событие $A$ --- \textit{частный случай} события $B$, если с появлением $A$ появляется и $B$ ($A \subset B$). Если $A$ влечёт $B$ и $B$ влечёт $A$, то события $A$ и $B$ равносильны ($A = B$).
\end{enumerate}
\begin{proof}
$A \subset B \Rightarrow A\cdot B = A, A + B = B.$
$B = A \Rightarrow B + A = A, A + A = A.$
\end{proof}
\begin{enumerate}
\setcounter{enumi}{5}
\item $\bar{A}$ --- \textit{противоположное событие}, если оно происходит только тогда, когда $A$ не происходит.
\[
A , \bar{A} \text{ противоположны} \Leftrightarrow
\begin{cases}
A\cdot \bar{A} = V \\
A + \bar{A} = U
\end{cases}
\]
\item События $A$ и $B$ называются \textit{несовместными}, если их одновременное появление невозможно.
$$A\cdot B = V$$
\item \textit{Разность событий} $A$ и $B$ состоит в том, что $A$ происходит, а $B$ нет. ($A - B$).
\end{enumerate}
\subsection{Свойства событий}
\textbf{Коммутативность.} $A + B = B + A, \; A\cdot B = B\cdot A$ \\
\textbf{Ассоциативность.} $A + (B + C)=(A + B) + C, \; A\cdot (B\cdot C) = (A\cdot B)\cdot C$ \\
\textbf{Дистрибутивность.} $(A + B)\cdot C = A\cdot C + B\cdot C, \; A + B\cdot C = (A + B)\cdot (A + C)$
\subsection{Некоторые тождества}
\begin{enumerate}
\item $A + A\cdot B = A$
\end{enumerate}
\begin{proof}
\textit{Самостоятельно.}
\end{proof}
\begin{enumerate}
\setcounter{enumi}{1}
\item{$A + B = A + \bar{A}\cdot B$}
\end{enumerate}
\begin{proof}
\textit{Самостоятельно.}
\end{proof}
\begin{enumerate}
\setcounter{enumi}{2}
\item Формула инверсий (законы Де Моргана).
\smallskip
$\overline{(A\cdot B)} = \overline{A} + \overline{B}$, можно обобщить до $\overline{\prod\limits_{i=1}^n A_i} = \sum\limits_{i=1}^n \overline{A_i} $
$\overline{(A + B)} = \overline{A}\cdot \overline{B}$, можно обобщить до $\overline{\sum\limits_{i=1}^n A_i} = \prod\limits_{i=1}^n \overline{A_i} $
\end{enumerate}
События $A_1 \dots A_n$ образуют \textit{полную группу событий}, если при каждом испытании произойдёт хотя бы одно из них.
\smallskip
\example $A, \overline{A}$ --- полная группа.
\example Событие $A_k$ --- событие $A$ произошло $k$ раз в серии из $n$ испытиание. Тогда $A_0, \ldots, A_n$--- полная группа.
\section{Классическое определение вероятности}
Пусть результат испытания --- одно из попарно несовместных образующих полную группу равновозможных событий. Такая группа называется элементарной, а её результат --- элементарным исходом. \\
$E_1, \dots, E_n$ --- элементарные события $\Leftrightarrow$ $E_k\cdot E_i = V,$ где $i, k = \ZTo n$, $i \not= k$, при этом $\sum\limits_{i = 1}^n E_i = U$
\definition $E_n$ называется благоприятствующим для некоторого события $A$, если $E_n$ влечёт $A$.
\definition Вероятностью появления события $A$ будем называть отношение числа элементарных благоприятных событий $m$ к числу исходов $n$.
\begin{equation}
\Prob (A) = \frac{m}{n} \hfill
\end{equation}
\addition При расчёте вероятности события $A$ по формуле (1) выбор системы элементарных событий можно произвести различными способами.
\conclusion $\Prob(U) = 1, \; \Prob(V) = 0.$
\conclusion $\forall A \quad 0 \leqslant \Prob(A) \leqslant 1.$
\section{Вероятность и относительная частота}
\begin{definition}
Пусть при одних и тех же условиях произведено $N$ испытаний, в результате которых интересующее событие произошло $M$ раз.
\end{definition}
Относительной частотой появления события $A$ назовём число
\begin{equation}
\tilde{\Prob}(A) = \frac{M}{N}
\end{equation}
Относительная частота является величиной, рассчитываемой по факту произошедшего эксперимента, и, вообще говоря, не является оценкой вероятности, однако при достаточно большом количестве испытаний относительную частоту можно считать приближённо равной вероятности этого события.
Очевидно, что
$$\tilde{\Prob}(V) = \Prob(V) = 0,$$
$$\tilde{\Prob}(U) = \Prob(U) = 1.$$
Но из равенства $\tilde{\Prob}(A) = 0$ не следует, что $\Prob(A) = 0$, как и в случае с $\tilde{\Prob}(A) = 1$.
\[
\Prob(A) = \xcancel {\lim_{n\to\infty} \tilde{\Prob}(A)} = \lim_{N\to\infty} \frac{M}{N}.
\]
При увеличении числа опытов отклонения (большие) относительной частоты $\tilde{\Prob}(A)$ от вероятности $\Prob(A)$ будут попадаться реже. На практике относительная частота $\tilde{\Prob}(A)$ может быть принята за вероятность $\Prob(A)$ при достаточно большом количестве испытаний.
\section{Геометрические вероятности}
Пусть $\chi_0$ --- номинальный размер некоторой детали. С учётом погрешности изготовления этой детали реальный размер $\chi \in (\chi - 4; \chi + 4)$. Получено несчётное пространство, и классическое определение вероятности, заданное для счётных пространств событий, не может быть использовано для вычислений в данном случае.
\subsection{Геометрический подход}
Пусть имеется ограниченное евклидово множество, имеющее объём. \\
Рассмотрим $S$ --- систему подмножеств исходного множества $\Omega$, имеющих объём. Положим
\[
\forall A \in S \quad \Prob(A) = \frac{\vert {A} \vert}{\vert \Omega \vert}
\]
Тройка объектов $ \big<\Omega, S, \Prob\big> $ служит моделью задач, в которых точку бросают в область $\Omega$.
\smallskip
При этом вероятность того, что некоторая точка попала в область $A$, пропорциональна объёму $A$.
\subsection{Парадоксы}
\begin{itemize}
\item Геометрическая вероятность попадания в какую-либо точку отрезка равна нулю.
То есть, вероятность невозможного события равна нулю, однако обратное не является верным.
\item Взаимно однозначное преобразование может существенно изменить вероятность.
\end{itemize}
\subsubsection{Парадокс Бертрана}
Для некоторой окружности случайно выберем хорду. Найдём вероятность того, что хорда длиннее стороны правильного треугольника, вписанного в эту окружность. $A$ --- интересующее нас событие.
\begin{description}[leftmargin=0cm]
\item[Метод «случайного центра».] Выберем наудачу произвольную точку внутри круга и построим хорду с центром в выбранной точке. Хорда длиннее стороны равностороннего треугольника, если выбранная точка находится внутри круга, вписанного в треугольник. Площадь вписанного круга есть 1/4 от площади большего, значит, исходная вероятность равна 1/4.
\begin{figure}[ht]
\centering
\def\svgwidth{8em}
\input{fig/Bertrand/1-4.pdf_tex}
\caption{Случайные хорды, выбранные в случае 1.}
\end{figure}
\[
\Prob(A) = \frac{\pi \frac{R^2}{4}}{\pi R^2} = \frac{1}{4}.
\]
\item[Метод «случайных концов».] Наудачу выберем две точки на окружности и проведём через них хорду. Чтобы посчитать искомую вероятность, представим, что треугольник повёрнут так, что одна из его вершин совпадает с концом хорды. Заметим, что если другой конец хорды лежит на дуге между двумя другими вершинами треугольника, то длина хорды больше стороны треугольника. Длина рассмотренной дуги равна трети длины окружности, следуя классическому определению, искомая вероятность равна 1/3.
\begin{figure}[ht]
\centering
\def\svgwidth{8em}
\input{fig/Bertrand/1-3.pdf_tex}
\caption{Случайные хорды, выбранные в случае 2.}
\end{figure}
\[
\Prob(A) = \frac{2\pi \frac{R}{3}}{2 \pi R} = \frac{1}{3}.
\]
\item[Метод «случайного радиуса».] Зафиксируем радиус окружности, наудачу выберем точку на радиусе. Построим хорду, перпендикулярную зафиксированному радиусу, проходящую через выбранную точку. Для нахождения искомой вероятности представим, что треугольник повёрнут так, что одна из его сторон перпендикулярна зафиксированному радиусу. Хорда длиннее стороны треугольника, если её центр ближе к центру, чем точка пересечения треугольника с зафиксированным радиусом. Сторона треугольника делит пополам радиус, следовательно вероятность выбрать хорду длиннее стороны треугольника --- 1/2.
\begin{figure}[ht]
\centering
\def\svgwidth{8em}
\input{fig/Bertrand/1-2.pdf_tex}
\caption{Случайные хорды, выбранные в случае 3.}
\end{figure}
\[ \Prob(A) = \frac{\frac{R}{2}}{R} = \frac{1}{2}. \]
\end{description}
Возможны различные выборы равномерным образом, и каждый метод использует свой выбор.
\section{Условная вероятность. Теорема умножения вероятностей. Независимость событий}
Пусть $A, B$ --- события, при этом $B \not= V$.
\begin{definition}
Вероятность $A$, вычисляемая при условии, что $B$ произошло, называется условной вероятностью $A$ относительно $B$.
\end{definition}
\[ \Prob(A \mid B) \]
Если $\Prob(A \mid B) = \Prob(A)$, то $A$ не зависит от $B$. В противном случае $A$ зависит от $B$.
\subsection{Теорема умножения вероятностей}
Рассмотрим систему $n$ элементарных событий $\{E_i\}_{i = \To n}$. Событию $A$ благоприятствуют $m$ элементарных событий, событию $B$ --- $k$ событий, $A\cdot B$ --- $l$ событий ($m, k, l \leqslant n$). Тогда
\[ \Prob(A) = \frac{m}{n},\;\Prob(B) = \frac{k}{n},\;\Prob(A\cdot B) = \frac{l}{n}. \]
\[ \Prob(B \mid A) = \frac{l}{m} = \frac{\frac{l}{n}}{\frac{m}{n}} = \frac{\Prob(A \times B)}{\Prob(A)},\]
\[ \Prob(A \mid B) = \frac{\frac{l}{n}}{\frac{k}{n}}, \text{ то есть} \]
\[ \Prob(A \times B) = \Prob(A) \cdot \Prob(B \mid A) = \Prob(B) \cdot \Prob(A \mid B) \]
Установлена теорема умножения двух любых событий, хотя бы одно из которых является возможным. \\
Пусть $A$ не зависит от $B$. Тогда
\[
\Prob(A) \cdot \Prob(B \mid A) \overset{\makebox[0pt]{\mbox{*}}}{=} \Prob(B) \cdot \Prob(A) \Rightarrow \text{$B$ не зависит от $A$}
\]
\subsection{Независимость событий}
\begin{definition}
Два события $A$ и $B$ независимы $\Leftrightarrow \Prob(A \cdot B) = \Prob(A) \cdot \Prob(B)$ (также верно, если одно из событий является невозможным).
\end{definition}
\begin{example}
Пусть имеется колода из 36 карт, из неё случайным образом вытаскиваем одну карту. Пусть событие $A$ -- <<вытянут \texttt{A} (туз)>>, событие $B$ -- <<вытянута карта масти {\color{red} $\blacklozenge$}>>. Тогда событие $A \cdot B$ -- вытянута карта ${\color{red} \blacklozenge} \texttt{A}$.
\[
\Prob(A) = \frac{4}{36} = \frac{1}{9}, \Prob(B) = \frac{9}{36} = \frac{1}{4},
\]
\[
\Prob(A \cdot B) = \frac{1}{36}
\]
\end{example}
Приведём теорему об умножении $n$ любых событий, хотя бы одно из которых возможно
\[
\Prob(A_1 \cdot \ldots \cdot A_n) = \Prob(A_1) \cdot \Prob(A_2 \mid A_1) \cdot \Prob(A_3 \mid A_1 \cdot A_2) \cdot \dots
\]
\[
\ldots \cdot \Prob(A_n \mid \prod\limits_{k = 1}^{n-1} A_k)
\]
\begin{proof}
\textit{Самостоятельно.}
\end{proof}
\[ \begin{split}
\Prob(A_1 \cdot A_2 \cdot A_3) &= \Prob(A_1 \cdot A_2) \cdot \Prob(A_3 \mid A_1 \cdot A_2) = \\
&= \Prob(A_1) \cdot \Prob(A_2 \mid A_1) \cdot \Prob(A_3 \mid A_1 \cdot A_2)
\end{split} \]
Попарная независимость событий
\begin{equation}\label{1-5-3}
\left\{ \begin{aligned}
&\Prob(A_1 \cdot A_2) = \Prob(A_1) \cdot \Prob(A_2) \\
&\Prob(A_1 \cdot A_3) = \Prob(A_1) \cdot \Prob(A_3) \\
&\Prob(A_2 \cdot A_3) = \Prob(A_2) \cdot \Prob(A_3)
\end{aligned} \right.
\end{equation}
При независимости событий (в совокупности):
\begin{equation}\label{1-5-4}
\Prob(A_1 \cdot A_2 \cdot A_3) = \Prob(A_1) \cdot \Prob(A_2) \cdot \Prob(A_3)
\end{equation}
\subsection{Парадокс Бернштейна}
Рассмотрим испытание, в результате которого бросаются две монеты. Пусть
\begin{itemize}
\item событие $A$ -- <<на первой монете выпал орёл>>,
\item событие $B$ -- <<на второй монете выпал орёл>>,
\item событие $C$ -- <<только на одной монете выпал орёл>>.
\end{itemize}
Установим систему элементарных событий $\Omega$, равную \{О--О, Р--Р, Р--О, О--Р\}.
\[
\Prob(A) = \Prob(B) = \Prob(C) = \frac{1}{2}
\]
\[ \Prob(A \cdot B) = \frac{1}{4} = \Prob(A) \cdot \Prob(B), \]
\[ \Prob(A \cdot C) = \frac{1}{4} = \Prob(A) \cdot \Prob(C), \]
\[ \Prob(B \cdot C) = \frac{1}{4} = \Prob(B) \cdot \Prob(C). \]
\[ \Prob(A \cdot B \cdot C) = 0 \not= \Prob(A) \cdot \Prob(B) \cdot \Prob(C)\]
\textbf{Вывод:} попарная независимость (\ref{1-5-3}) $\cancel{\Rightarrow}$ независимость в совокупности (\ref{1-5-4}). \\
События независимы в совокупности $\Leftrightarrow$ (\ref{1-5-3}) и (\ref{1-5-4}) выполняются.
\begin{definition}
$A_1, \dots, A_n$ независимы в совокупности, если
\[
\Prob(A_{i_1} \cdot \dots A_{i_k}) = \Prob(A_{i_1}) \cdot \ldots \cdot \Prob(A_{i_n}), \text{ где}
\]
\[
1 \leqslant i_1 < i_2 < \ldots < i_k \leqslant n
\]
\end{definition}
$\boxed{2^n - C_n^1 - C_n^0}$ -- число соотношений для проверки независимости событий в совокупности. Если нам заранее известно, что $A_1, \dots, A_n$ независимы в совокупности, то
\[
\Prob(\prod\limits_{k = 1}^n A_k) = \prod\limits_{k = 1}^n \Prob(A_k)
\]
\section{Теорема сложения вероятностей}
Рассмотрим события $A$ и $B$.
\begin{itemize}
\item $A$ -- $m$ элементарных событий из $n$,
\item $B$ -- $k$ элементарных событий из $n$,
\item $A \cdot B$ -- $l$ элементарных событий из $n$.
\end{itemize}
\[
\Prob(A + B) = \frac{m + k - l}{n} = \Prob(A) + \Prob(B) - \Prob(A \cdot B)
\]
Установлена теорема о сложении двух любых событий.
Для несовместных событий:
\[
A \cdot B = V \Rightarrow \Prob(A + B) = \Prob(A) + \Prob(B)
\]
Если $B$ = $\overline{A}$, то
\[
\underbrace{\Prob(A + \overline{A})}_{\Prob(U) = 1} = \Prob(A) + \Prob(\overline{A}) \Rightarrow \Prob(\overline{A}) = 1 - \Prob(A)
\]
По теореме о сложении:
\[ \Prob(A_1 + A_2 + A_3) = \Prob(A_1 + A_2) + \Prob(A_3) - \]
\[ - \Prob((A_1 + A_2) \cdot A_3) = \Prob(A_1) + \Prob(A_2) + \Prob(A_3) - \]
\[ - \Prob(A_1 \cdot A_2) - \Prob(A_1 \cdot A_3) - \Prob(A_2 \cdot A_3) + \]
\[ + \Prob(A_1 \cdot A_2 \cdot A_3) \]
Обобщённая формула:
\[ \Prob(\sum\limits_{k=1}^n A_k) = \sum\limits_{k=1}^n \Prob(A_k) - \sum\limits_{k=1}^{n-1} \sum\limits_{j=k+1}^n \Prob(A_k \cdot A_j) + \]
\[
+ \sum\limits_{k=1}^{n-2} \sum\limits_{j=k+1}^{n-1} \sum\limits_{i=j+1}^n \Prob(A_k \cdot A_j \cdot A_i) - \ldots
\]
\[
\ldots + (-1)^{n-1} \cdot \Prob(\prod\limits_{k=1}^n A_k)
\]
Для попарно несовместных событий:
\[
\underset{i \not= j}{A_i \cdot A_j} = V \Rightarrow \Prob(\sum\limits_{k=1}^n A_k) = \sum\limits_{k=1}^n \Prob(A_k)
\]
Если $A_1, \dots, A_n$ независимы в совокупности, то справедлива следующая формула:
\[
\Prob(\sum\limits_{k=1}^n A_k) = 1 - \Prob(\overline{\sum\limits_{k=1}^n A_k}) = 1 - \Prob(\prod\limits_{k=1}^n \overline{A_k}) =
\]
\[ = 1 - \prod\limits_{k=1}^n \Prob(\overline{A_k}) = 1 - \prod\limits_{k=1}^n(1 - \Prob(A_k)). \]
Если вероятности исходных событий не зависят от номеров и определяются только числом сомножителей, то
\[ \begin{split}
\Prob(\sum\limits_{k=1}^n A_k) &= C_n^1 \Prob(A_1) - C_n^2 \Prob(A_1 \cdot A_2) + \\
&+ C_n^3 \Prob(A_1 \cdot A_2 \cdot \cdot A_3) - \ldots + (-1)^{n-1} C_n^n \Prob(\prod\limits_{k=1}^n A_k)
\end{split} \]
\begin{proof}
\textit{Самостоятельно.}
\end{proof}
\[ \Prob(\prod\limits_{k=1}^n A_k) = \sum\limits_{k=1}^n \Prob(A_k) - \sum\limits_{k=1}^{n-1} \sum\limits_{j=k+1}^{n} \Prob(A_k + A_j) + \]
\[ + \sum\limits_{k=1}^{n-2} \sum\limits_{j=k+1}^{n-1} \sum\limits_{i=j+1}^{n} \Prob(A_k + A_j + A_i) - \ldots + (-1)^{n-1} \Prob(\sum\limits_{k=1}^n A_k) \]
\begin{proof}
\textit{Самостоятельно.}
\end{proof}
\section{Формула полной вероятности и формула Байеса}
\subsection{Формула полной вероятности}
Пусть имеется $n$ попарно несовместных событий, составляющих полную группу, $H_1, \dots, H_n$ --- назовём их гипотезами.
\begin{itemize}
\item $\sum\limits_{i=1}^n H_i = U$,
\item $H_i \cdot H_j = V,$ где $i, j = \To n,$ при этом $i \not= j$.
\end{itemize}
В силу попарной несовместности
\[
\Prob(\sum\limits_{i=1}^n H_i) = \sum\limits_{i=1}^n \Prob(H_i) = 1
\]
Рассмотрим событие $A$:
\[ A = U \cdot A = \left( \sum\limits_{i=1}^n H_i \right) \cdot A = \sum\limits_{i=1}^n H_i \cdot A \]
\[
\Prob(A) = \Prob(\sum\limits_{i=1}^n H_i \cdot A) = \sum\limits_{i=1}^n \underbrace{\Prob(H_i \cdot A)}_{\underset{\text{зав. от опыта}}{\textit{a posteriori}}} = \underbrace{\sum\limits_{i=1}^n \Prob(H_i) \cdot \Prob(A \mid H_i)}_{\underset{\text{не зав. от опыта}}{\textit{a priori}}}
\]
\captionof*{figure}{\textbf{Формула полной вероятности.}}
\[\boxed{\Prob(A) = \sum\limits_{i=1}^n \Prob(H_i) \cdot \Prob(A \mid H_i)} \]
\subsection{Формула Байеса}
Получим формулу Байеса:
\[ \Prob(A \cdot H_k) = \Prob(A) \cdot \Prob(H_k \mid A) = \Prob(H_k) \cdot \Prob(A \mid H_k) \]
\[ \Prob(H_k \mid A) = \frac{\Prob(H_k) \cdot \Prob(A \mid H_k)}{\Prob(A)} = \frac{\Prob(H_k) \cdot \Prob(A \mid H_k)}{\sum\limits_{i=1}^n \Prob(H_i) \cdot \Prob(A \mid H_i)}
\]
\captionof*{figure}{\textbf{Формула Байеса.}}
\[ \boxed{\Prob(H_k \mid A) = \frac{\Prob(H_k) \cdot \Prob(A \mid H_k)}{\sum\limits_{i=1}^n \Prob(H_i) \cdot \Prob(A \mid H_i)}} \]
\section{Последовательность испытаний Бернулли. Биномиальный закон распределения вероятностей. Закон распределения вероятностей Пуассона}
\subsection{Последовательность испытаний Бернулли}
Пусть производится серия из $n$ испытаний, имеется $k$ исходов. Исходы образуют полную группу событий и являются попарно независимыми событиями. В рамках данного параграфа $k = 2$.
\begin{definition}
Испытания независимы, если все исходы этих испытаний независимы в совокупности.
\end{definition}
\begin{definition}
$n$ испытаний образуют последовательность испытаний Бернулли, если
\begin{enumerate}
\item Они независимы
\item У каждого из этих испытаний 2 исхода: $\{\underset{\text{успех}}{A}, \underset{\text{неудача}}{\overline{A}} \}$
\item Вероятность появления исхода во всех испытаниях не изменяется.
\end{enumerate}
\end{definition}
$A_i$ -- появление $A$ в $i$-ом испытании. Тогда
\[ \forall i=\To n \quad \Prob(A_i) = p \Rightarrow \Prob(\overline{A_i}) = 1 - p = q \]
Пусть имеется $n$ испытаний с $k=2$ исходами. $B_m$ --- событие $A$ произошло $m$ раз, $0 \leqslant m \leqslant n$.
\[B_m = \overbrace{A_1 \cdot A_2 \cdot \ldots \cdot A_{m-1} \cdot A_m}^{m} \cdot \overline{A_{m+1}} \cdot \ldots \]
\[ \ldots \cdot \overline{A_n} + \ldots + \underbrace{\overline{A_1} \cdot \overline{A_2} \cdot \dots \cdot \overline{A_{n-m}}}_{n-m} \cdot \overbrace{A_{n-m+1} \cdot \ldots \cdot A_n}^m.\]
Число слагаемых --- $C_n^m$.
Будем обозначать $\Prob_m^{(n)} = \Prob(B_m)$.
\captionof*{figure}{\textbf{Формула Бернулли}}
\[
\boxed{\Prob_m^{(n)} = C_n^m p^m q^{n-m}}
\]
\[
\sum\limits_{m=0}^n \Prob_m^{(n)} = (p + q)^n = 1
\]
Рассмотрим вероятность того, что в $n$ испытаниях Бернулли событие $A$ произойдёт не менее $m$ раз.
\[
R_m^{n} = \sum\limits_{k = m}^n \Prob_k^{(n)} = 1 - \sum\limits_{k=0}^{m-1} P_k^{(n)}
\]
\begin{example}
Вероятность того, что при $n$ испытаний $A$ произойдёт хотя бы 1 раз:
\[ R_1^{(n)} = 1 - \Prob_0^{(n)} = 1 - q^n \]
\end{example}
\subsection{Закон распределения вероятностей Пуассона}
Рассмотрим последовательность испытаний Бернулли, когда число испытаний $n \to \infty$, при этом $p = \Prob(A_i) \to 0$, $np = a$ --- константа
\[
\Prob_m \equiv \lim_{n \to \infty} C_n^m p^m (1-p)^{n-m}
\]
\[ p = \frac{a}{n} \]
\[ \Prob_m = \lim_{n \to \infty} \frac{n!\ a^m (1 - \frac{a}{n})^n}{(n-m)!\ m!\ n^m (1 - \frac{a}{n})^m} = \frac{a^m}{m!} \cdot e^{-a}, m = 0, 1, 2, \dots \]
\captionof*{figure}{$\underset{(\textit{редких событий})}{\textbf{Закон распределения вероятностей Пуассона}}$}
\[ \boxed{\sum\limits_{m=0}^\infty \Prob_m = \sum\limits_{m=0}^\infty \frac{a^m}{m!} \cdot e^{-a} = 1}\]
\begin{example}
Пусть $n$ --- число атомов в веществе, время распада --- 1 секунда. Тогда $p \approx 10^{-12}$.
\end{example}
\section{Полиномиальное распределение вероятностей}
Пусть имеется $n$ испытаний с $k \geqslant 2$ исходами. $A_1, \dots, A_k$ --- исходы.
\begin{itemize}
\item $A_i \cdot A_j = V$, где $i \not = j$, $i, j = \To k$
\item $\sum\limits_{i=1}^k A_i = U$
\item $p_1, \dots, p_k$ --- вероятности исходов. От испытания к испытанию не изменяются, $\sum\limits_{i=1}^k p_i = 1$, где $\forall i \; p_i \geq 0$
\end{itemize}
Через $\Prob_{m_1, \dots, m_k}^{(n)}$ обозначим вероятность того, что события $A_1, \dots, A_k$ будут происходить соответственно $m_1, \dots, m_k$ раз,
\[
\sum\limits_{i=1}^k m_i = n, \quad m_i \geqslant 0, \quad m_i \in \mathbb{Z}.
\]
\begin{description}[leftmargin=0cm]
\item[$k = 2$:] $\Prob_{m_1, m_2}^{(n)} = \frac{n!}{m_1 !\ m_2 !} p_1^{m_1} \cdot p_2^{m_2}$
\item[$k \geqslant 2$:] $\Prob_{m_1, \ldots, m_k}^{(n)} = \frac{n!}{m_1 ! \ldots m_k !} \cdot p_1^{m_1} \cdot p_2^{m_2} \cdot \ldots \cdot p_k^{m_k}$ \\
Любое событие представимо в виде суммы несовместных. Пусть
\[ A_k = A’_k + A’_{k+1}, A’_k \cdot A’_{k+1} = V \]
\[ p’_k + p’_{k+1} = p_k, \]
\[ m’_k + m’_{k+1} = m_k, \]
\[ {\Prob’}_{k}^{m’_{k}} \cdot {\Prob’}_{k+1}^{m'_{k+1}} \]
\[ C_{m_k}^{{m’}_k} \cdot \overbrace{ C_{\underbrace{{m_k - {m’}_k}}_{{m’}_{k+1}}}^{{m’}_{k+1}} }^{\text{= 1}} = \frac{m_k !}{{m’}_k !\ {m’}_{k+1} !} \]
Тогда $ \forall i : m_i \geqslant 0, m_i \in \mathbb{Z}; \sum\limits_{i=1}^k m_i = 0$ :
\captionof*{figure}{\textbf{Полиномиальный закон распределения вероятностей}}
\[
\boxed{\Prob_{m_1, \dots, m_k}^{(n)} = \frac{n!}{{m}_1 ! \ldots {m’}_k !\ {m’}_{k+1} !} \cdot p_1^{m_1} \cdot p_2^{m_2} \cdot \dots \cdot {p’}_k^{{m’}_k} \cdot {p’}_{k+1}^{{m’}_{k+1}}}
\]
\end{description}
\section{Вероятностные производящие функции}
Производящие функции можно определить для любой числовой последовательности (имея в виду счётный набор).
\begin{definition}
Производящей функцией числовой последовательности называется сумма ряда:
\[ \sum\limits_{k=0}^\infty a_k u^k, \text{ где $a_0, \dots, a_k$ --- числовой ряд, $u \in \mathbb{R}$ }\]
если такой ряд сходится.
\end{definition}
\[
{\{p_i\}}_{i = 0, 1, \dots} : p_i \geqslant 0, \forall i : \sum\limits_{i=0}^\infty p_i = 1
\]
\setcounter{equation}{0}
Производящая функция:
\begin{equation}\label{1-10-1}
G(u) = \sum\limits_{i = 0}^\infty p_i u^i
\end{equation}
\begin{equation}\label{1-10-2}
p_i = \frac{1}{i!} \cdot \frac{d^{\textit{i}} G(u)}{d u^i} \Bigm |_{u = 0}
\end{equation}
Между соотношениями закона распределения (\ref{1-10-1}) и (\ref{1-10-2}) устанавливают взаимно однозначное соответствие.
\begin{example}
$B[n, p]$ --- биномиальное распределение. \\ $G(u) = \sum\limits_{m=0}^n C_n^m \cdot p^m \cdot q^{n-m} \cdot u^m = (pu + q)^m$.
\end{example}
\begin{example}
$P[a]$ --- закон Пуассона. \\ $G(u) = \sum\limits_{m=0}^\infty \frac{a^m e^{-a}}{m!} u^m = e^{au} \cdot e^{-a}$.
\end{example}
Пусть имеется $n$ испытаний, $k > 2$ исходов
\[
\underset{u_i \in \mathbb{R}}{G_n(u_1, \dots, u_k)} = \underset{ \underset{m_i \geqslant 0, m_i \in \mathbb{Z}}{m_1, \dots, m_k : \sum\limits_{i=1}^k m_i = n}} {\sum \Prob_{m_1, \dots, m_k}^{(n)}} \cdot u_1^{m_1} \cdot \ldots \cdot u_k^{m_k}
\]
Если имеется $n_1 + n_2 = n$ испытаний, то выполняется мультипликативное свойство
\[
G_{n_1 + n_2} (\overline{u}) = G_{n_1} (\overline{u}) \cdot G_{n_2} (\overline{u}).
\]
\begin{example}
$B[n, p]$ --- биномиальный закон распределения вероятностей. \\
$G_1(u) = q + pu, G_n(u) = (q + pu)^n$\\
\[
G(u) = \prod\limits_{i=1}^n (p_i u + q_i)
\]
Пусть $p_1, \dots, p_n$ --- все разные, $q_i = 1 - p_i$. Как определить производящие функции для такой последовательности разных испытаний?
\end{example}