1) Для начала подсчитаем общее кол-во символов.
350 * 60 * 18 = 378000 символов
Теперь подсчитаем информационный вес одного символа по формуле N = 2^i.
128 = 2^i
i = 7 бит
Теперь найдем информационный вес всех символов.
378000 * 7 = 2646000 бит = 323 Кбайт (приблизительно)
2) Найдем информационный вес 1 символа первого алфавита.
N = 2^i
512 = 2^i
i = 9 бит
Найдем информационный вес 1 символа второго алфавита.
N = 2^i
64 = 2^i
i = 6 бит
Найдем количество символов первого ( и 2 ) алфавита.
640Кбайт = 5242880 бит
5242880 / 9 = 58320 символов
Теперь найдем информационный объем второго алфавита.
58320 * 6 = 349920 бит = 43 Килобайт ( приблизительно)
3) 1Кбайт = 8192 бит
8192 / 1024 = 2^13 / 2^10 = 2^3 = 8 бит
Я тебя понимаю я тоже не понимаю мы в одной щколе?
Может быть и неправильно, проверь при переписывании
Если символ кодируется одним байтом, то количество символов = 128/1 = 128.
Если символ кодируется двумя байтами, то количество символов = 128/2 = 64.
Потому что в ASCII всего 2^8 = 256 символов (обычно это цифры, символы, латиница большие и маленькие буквы, национальный алфавит большие и маленькие буквы)
в юникоде же все сложнее. UTF-16 действительно занимает 16 бит на символ и имеет в себе 2^16 = 65`536 символов, куда помещается множество алфавитов разных языков, в том числе куча иероглифов, которые в ASCII просто не помещались. Описание наборов символов есть на вики
но есть еще и UTF-8 юникодная кодировка которая организована куда сложнее, занимает по 8 бит на символ для латиницы, но дальше идет расширение. Например символы кириллицы занимают уже по 16 бит
в юникоде есть и другие типы кодировок типа UTF-32LE соответственно 32 бита на символ
так что утверждение что "<span>код Unicode-2 байта на символ</span>" вообще говоря сомнительно без уточнения конкретной кодировки.