Как компьютер понимает команды?
Например возьмём калькулятор. Каким образом программа понимает, что должна сложить два числа? Я знаю, что они состоят из двоичного кода, но как компьютеру на двоичном коде объяснить, что он должен умножать числа, например
Любой машинный код это наборы битов. Битами выражены как данные с которыми ты работаешь, так и выражены идентефикикаторы самих инструкций (они строго фиксированны по обозначению а дешифровывает сами инструкции интерпретатор). Чтобы понять проще, в пример язык ассемблера, на уровень выше от машинного кода. Им ты просто описываешь идентефикатор инструкции и операнды. Сами инструкции которые должны идти и данные к ним хранятся в памяти. Книга Чарльза Петцольда - Код. Тайный язык информатики. Описывает это на всех уровнях, от сложения 2 и 3, до переключения каждого транзистора в сумматоре.


У каждого своя собственная ментальная модель в голове, в реальности мало кто знает
Есть прекрасная книжка: "Код. Тайный язык информатики".
Позволяет выкинуть из головы детские фантазии и начать изучение с реальности.
Из 0 и 1 все в компе состоит и этот большй порядок из 0 и 1 говорит че пк делать
....
Ты ещё спроси нас, каким образом сингулярность поняла, что ей нужно стать вселенной...🤦♂️