Почему бит считается минимальной единицей измерения информации?
На уроке информатики задали такой вот вопрос.
Ответить никто не смог, хотелось бы узнать ответ))
Единица измерения количества информации называется БИТ (от англ. bit, сокращенно от binary digit – двоичная цифра) .
Бит - самое короткое слово двоичного алфавита и самая маленькая единица измерения информации, причем символы 0 и 1 равноправны. Для удобства введена более крупная единица измерения количества информации, принятая Международной системой СИ за основную, - БАЙТ (англ. byte).
потому, что меньше уже некуда.
либо данное имеет I либо O
сие бит {1} или {0}, значений тут два
сие байт, значение от {00000000} до {11111111} единици и нули можно менять местами, значений тут аж 256!!!
разницу чуишь?
И "зовётся" всё это- машинный (цифровой) код
Кодировать симфол возможно в байте (8 бит) , Он принимает значения от 0 до 255
Бит какие значения может принимать? 0 или 1. Меньше только отсутствие информации. Это на физическом уровне обусловлено - либо есть напряжение 5 вольт (1), либо его нет (0).