Почему в программировании используют шестнадцатеричную систему счисления 0x, разве десятичная не легче?
Потому что машинные слова состоят из байт (8,16, 32, 64 бита) и адресация памяти выполнена этими "словами".
А вообще используют (и использовали) разные системы счисления.
>Почему в программировании используют шестнадцатеричную систему счисления 0x,
На самом деле используют двоичную. Шестнадцатиричная - просто более короткая форма записи.
>разве десятичная не легче?
Нет, разумеется. 2 уровня сигнала надежно реализовать гораздо легче, чем 10.
Ооо. Только вчера об этом читал в книге по Терминалу Линукса. Там короче было так сказано. У людей ведь на руках десять пальцев, вот мы и используем в повседневности десятичную форму счисление, потому что мы уже к ней с рождения привыкли.
А вот у компьютера "один палец", фигурально. И он только два сигнала понимает, только две цифры, 0 и 1. В самых первых компьютерах использовали это форму, двоичную. Нооо.
010110101111101010110111 - и вот так ещё по несколько тысяч раз. Тут даже математики уровня Мира задолбаются. И если хотя бы один 0 или 1 пропусти, то это всё.
И для удобства ради, математики создали восьмеричную и шестнадцатеричную ( если честно, то их дофига счислений, просто эти наиболее используемые). И стало намного удобней.
Ноо. Комп всё равно не понимает, ни восьмеричную, ни десятичную, ни шестнадцатеричную. А только двоичную систему. Просто есть программа, которая переводит всё, вот прям всё, что есть на компе, в двоичную систему. Даже музыку, видео, игры и т. д. Это называется машинный код - только его понимает компьютер. А всё остальное просто ради удобства для человека
Десятичная не легче, она привычней.
Шестнадцатеричную используют для сокращения записи двоичной.
Чем больше основание сс, тем короче символьная запись числа. Использование для наглядности