Теория:

Вспомним, что при вычислении математического ожидания случайную величину \(X\), равную числу успехов в \(N\) испытаниях Бернулли, мы представляли как сумму индикаторов: X=X1+X2+...+Xn.
 
Дисперсию биномиального распределения можно найти всё тем же методом индикаторов.
 
Каждая из величин X1,X2,...,Xn равна единице, если соответствующее ей испытание завершилось успехом, и равна нулю — если неудачей.
 
Отсюда: D(X1)=D(X2)=...=D(XN)=p(1p)=pq.
 
Из независимости испытаний Бернулли следует независимость случайных величин X1,X2,...,Xn, поэтому D(X)=D(X1)+D(X2)+...+D(XN)=pq+pq+...+pq+...=Npq.
Таким образом, мы получили формулу для дисперсии биномиального распределения: D(X)=Npq.
Попробуем её использовать на примерах.
Пример:
монету бросают 25 раз. Чему равна дисперсия числа выпавших орлов?
Это испытания Бернулли, где \(N = 25\), а вероятность успеха и неудачи равны, то есть \(p = 0,5\) и \(q = 0,5\). А случайная величина \(X\) — количество выпавших орлов.
 
Тогда E(X)=Np=2512=12,5; D(X)=Npq=251212=6,25.
Разберем ещё пример, где вероятности успеха и неудачи не являются равными.
Пример:
кубик бросают 2500 раз. Чему равна дисперсия числа выпавших единиц?
Это также испытания Бернулли, в которых \(N = 2500\) и \(p =\) 16. Случайная величина \(X\) — количество выпавших единиц.
 
Тогда E(X)=250016=Np416,7; D(X)=Npq=25001656347,2.
Обрати внимание!
Как видим, дисперсия биномиального распределения при pq меньше, чем для симметричного случая p=q.
Дисперсия— это мера разброса значений случайной величины относительно её среднего значения (математического ожидания).
 
Если взять выборку, то дисперсия покажет разнородность результатов относительно среднего значения.
Пример:
в одной компании людей почти все кареглазые. А в другой половина — кареглазые, вторая половина — голубоглазые и зеленоглазые. Как видим, вторая группа разнороднее, нежели первая, а значит, дисперсия в ней выше.
Также дисперсия даёт вероятность того, что данный рассматриваемый результат далёк от среднего.
Пример:
в реальной жизни оценивать риски для компании или оценивать риски для продвижения — всё это возможно с дисперсией.
Чем ниже дисперсия, тем значения стабильнее, риск предсказуем. Высокая дисперсия — больше разброс, высокая неопределённость и риск.