Ілона
Искусственный Интеллект
(115741)
5 лет назад
В юникод переводятся символы
style))Ученик (119)
5 лет назад
ну вот смотрите. К примеру кто то придумал язык программирования, и написал его. Он что написал слово ( Привет) и обозначил его типа цифрами 220? То есть если я к примеру сижу через виндоус, то написав слово привет, процессор это понимает в виде 010100100, и потом переводит виндоусу в 220, а уже виндоус понимает это как слово (привет?) ???
The Cat
Искусственный Интеллект
(116202)
5 лет назад
Тема такая. Комп работает строго в двоичной системе, 0 и 1. Символы, которые вы выдите на экране, имеют двоичный код (например ASCII). На бумаге двоичный код выглядит ужасно и громоздко, поэтому его преобразуют бородатые дядьки-программисты в 16-ричный код, благо это делается очень легко -- разбивай двоичное число на тетрады и переводи в цифры 0...F. А десятеричная система удобна исключительно человеку, который пользуется компутером.
Metotron
Искусственный Интеллект
(115026)
5 лет назад
Система счисления — это то, как число видит человек, а по сути это всего ли число. Хоть в какой системе счисления запиши чило 20, оно останется числом 20, и компьютер внутри себя знает, что это число 20, а ещё он знает, какой символ выводить для такого числа, потому что имеет в наличии кодовые таблицы символов, одна из которых выбрана для отображения.
Десятичную систему придумали за столетия до компьютеров. Может быть, потому что у человека 10 пальцев, не знаю, но даже в языке названия чисел (и количество цифр) идут от десятичной системы. Лично я исключением знаю только римские цифры.
Шестнадцатеричная используется, когда нужно представить цифровые данные человеку. При этом трудно читать длинные последовательности нулей, а вот разбить их по 8 штук и отобразить группами по две "цифры" — уже удобнее. Конечно, бывают и длинные шестнадцатеричные числа, и они тоже лучше, чем в 4 раза более длинная последовательность нулей и единиц, потому что различаемость чисел, состоящих из 16 разных знаков, выше, чем различаемость чисел из двух знаков.
Вопрос 1. Допустим я нажал на какую та кнопку на клавиатуре, и прежде чем она покажется на экране, инструкции посылаются в оперативную память, затем через шины адреса в процессор, а там он видит Ее в своём двоичном коде. Но, когда я уже увидел на экране ту самую букву, мне интересно узнать, в какую систему счисления он мне Ее переводит. Если в десятеричную, то зачем? Кто вообще придумал переводить в десятеричную систему? И если ещё существует и шестнадитиричная система, то в каких же случаях она применяется ?