В чём отличие между четностью числа в теории информации от определения четности в арифметике?
Как определяется четность числа в теории информации и программировании и чем это определение существенно отличается от определения четности в арифметике?
По дате
По рейтингу
просто колоссальная.
В арифметике четным считается число, которое делится на 2 без остатка.
В информатике (и для процессора) четным считается число, у которого в последнем полубайте (4-х битах) четное количества единиц . Например число 4 (в десятичной СС) будет 0100 (в двоичной) и будет считаться нечетным, так как у него нечетное кол-во единиц. А число 3(10) будет четным 0011(2) - четное кол-во единиц
У процессора даже в регистре состояний есть специальный флаг четности.
а ты как думаешь?
Фистинг