Как калькулятор в компьютере (или переносном устройстве) переводит числа из двоичной системы в десятичную?
Построил калькулятор в MineCraft и застопорился на моменте с переводом двоичного сигнала в десятичный вывод на дисплее из ламп.
Вычислительная техника работает в двоичной системе с числами, представленными значениями в диапазоне от 0 до 1. Десятичный вывод является только лишь текстом, который понимает человек и мне непонятно как именно вычислительные устройства переводят числа в десятичную систему исчисления.
Единственное, что приходит в голову - создать таблицу (физическое устройство) проверки сигнала, где при соответствии с табличным значением "12" двоичного сигнала 1100 на дисплей подается вывод соответствующего таблице числа 12. - То есть проверять отдельно КАЖДЫЙ сигнал на отдельное число.
Разумеется, это как-то неправильно, ведь тогда придется проверять все возможные числовые значения (калькулятор считает до 2³²), что звучит как-то бредово.
Как работает перевод в десятичную систему в реальных устройствах?
Точно так же, как ты переводишь числа из двоичной системы в десятичную ручкой на листе бумаги: последовательным многократным делением на 1010 (двоичное) с остатком.
P.S. В полноценном обучении программированию преобразование значений между позиционными системами счисления изучают в обязательном и первоочередном порядке.
так сейчас в компьютере заложены все системы счисления
я тока в паскале лет десять назад рядные суммирования писал всякие тангенсы котангенсы первый второй курс.
в теории справа на лево 2^n
и все суммируется по порядку, переводя из двоичной в десятиричную. где n-номер разряда двоичного числа
Судя по "представленными значениями в диапазоне от 0 до 1. "
Ты это никогда не поймешь.