Чтобы посчитать энтропию опыта, надо вычислить вероятности исходов и применить формулу
H = - ∑ pᵢ log₂ pᵢ
Например, для первого извлечения имеем исходы белый шар (вероятность 10/100 = 0,1), красный (0,2), синий (0,3) и зелёный (0,4). Подставляем в формулу и получаем H₁ = 1,846 бит.
Для второго извлечения вероятности исходов зависят от исходов первого извлечения, соответственно, в формулу надо подставлять условные вероятности.
Ну и энтропия обоих извлечений есть сумма энтропий первого и второго извлечений.