


Сколько байт требуется на один символ ?
в ASCII таблице, естественно
в общем, почти все ответчики перепутали информационную мощность алфавита,
с количеством информации в одном символе
Для ответа на ваш вопрос нужно определиться, что такое символ. Если это аглицкая буква, то 1 байта за глаза хватит. Если же символ - это китайский иероглиф, то минимум 2 байта нужно. Если же смотреть все буквы всех ныне используемых алфавитов, то я даже и не знаю. Дохрена!
ASCII - не 256 символов, а 128 - нет такой вещи как "расширенный ASCII" - это (ошибочный) жаргон далёких времён 1989-1997
Есть "старые" кодировки" и есть Unicode и ответ - разный:
ASCII
ASCII (английские буквы, точка, запятая,... ) - 1 байт
Эти же символы в Unicode:
- 1 байт в UTF-8
- 16 бит значение в UTF-16 (UCS-2)
Европейские языки
(немецкий, русский, польский,... )
"старые кодировки: символ - 1 байт (русский, немецкий, ..)
Это таблица в 256 знаков, где первые 128 - ASCII, а следующие 128, в зависимости от кодировки:
- кодировка Latin1 (1252 под Windows) - Западная Европа- там немецкие, французские, итальянские буквы в той части таблицы, что после 128
- 1250 - польские, чешские
- 1251 - кириллица там
- ..
в Unicode:
- UTF-16 - все символы, будь то русский/немецкий/японский -
16 бит значение
- UTF-8:
- акцентированные европейские и кириллица - 2 байта
***
Японские/китайские/корейские - 3 байта в UTF-8, 16бит значение в UTF-16
если не-Unicode то - 2 байта, правда, некоторые японские бывают 1 байт под Windows, а другие - 3 байта под Unix
Зависит от шрифта, и программы в которой Вы печатаете. Кодировка требует тем больше бит, чем больше максимальное количество символов. В кириллице 6 бит на 1 букву.
1 бит это 1 символ в байте 8 битов. осталось посчитать