Ты можешь эту кость один раз бросить. Рассмотрать событие: выпало такое-то число. И спросить себя: насколько это событие информативно.
Очевидно, если кость заменить на монетку, информация о выпадении орла или решки кодируется одним битом. Если бросить монетку два раза, двумя битами (при двух бросках может получиться 4 равновероятных исхода). Три раза - тремя битами (8 равновероятных исходов).
Вообще, если продолжить аналогию, то заметишь, что событие выпадения какого-то исхода из 2^n (равновероятных и образующих полную группу событий) несет n битов информации.
Значит, событие о выпадении чего-то на кости (при броске 1 раз) несет log2(6) ~= 2.585 битов информации, что логично.
Вообще, если попытаться строго построить аксиоматическое (а не конструктивное) определение информации и информационной энтропии, получится как-то вот так:
https://ru.wikipedia.org/wiki/Информационная_энтропия#Определение_по_Шеннону