Лиза
Профи
(599)
10 лет назад
Алгоритм такой:
Для перевода чисел из десятичной системы в двоичную нужно разделить число на 2, где 2 — основание двоичной системы, и записать остаток от деления. Полученное частное снова разделить на 2 и также записать остаток. Повторять действия, пока частное не станет равным 0. Записать все остатки в обратном порядке.
Leonid
Высший разум
(389299)
10 лет назад
Ровно так же, как он переводит десятичные числа в двоичные: деля число на основание системы счисления и записывая остатки (справа налево, если потом смотреть на запись числа) .
Там на самом деле не всё так просто. Десятичные числа учатствуют только в приёме информации от человека и в выоде информации в человек-читаемом формате. Компьютеру десятичные числа на фиг не нужны, он работет с двоичными. Стало быть, десятичные числа присутствуют именно как ТЕКСТОВАЯ, визуально воспринимаемая информация. То есть фактически компьютер преобразует в двоичное (внутреннее) представление не число, а ТЕКСТ. Ну а текст преобразовать не штука. Каждая цифра, от 0 до 9, представляется в ASCII-коде определённым числом - от 48 до 57 (в десятичном эквиваленте) . Вот по этой информации компьютер и строит число - каждая очередная цифра вычисляется из считанного кода по простой формуле D = код-48 (не штука написать это и в двоичной арифметике) . Ну и потом по сходной формуле - при выводе ТЕКСТА - можно преобразовать число из двоичной формы в двоично десятичную, вычисляя каждую очередную цифру по формулам
цифра = N MOD 10
N := N DIV 10
код_цифры = 48+цифра
(MOD - операция вычисления остатка от делениия, DIV - операция целочисленного деления) . Вот символ с кодом "код_цифры" и визуализируется как текстовый символ.
У меня вопрос такой, только пожалуйста отвечайте если на самом деле знаете ответ, потому что я сам не глупый и продвинут в этой области.
Вопрос касается десятичной и двоичной систем счисления.
Как компьютер переводит десятичные числа в двоичные? Если учитывать, что когда мы складываем десятичные числа на компьютере, то компьютер переводит их в двоичные и складывает уже двоичные цифры, потом компьютер этот двоичный результат переводит в десятичный. Вопрос такой:
Как компьютер переводит двоичный результат в десятичный?