В алфавите
русском: 33 буквы
английском: 26
значит всего: (33 + 26)*2 + 10 + 15 = 143 символа. Значит каждый символ кодируется
битами или одним байтом.
значит весь текст имеет объем:
64*32*100*1 байт = 204800 байт = 200 кБайт
Потому что в ASCII всего 2^8 = 256 символов (обычно это цифры, символы, латиница большие и маленькие буквы, национальный алфавит большие и маленькие буквы)
в юникоде же все сложнее. UTF-16 действительно занимает 16 бит на символ и имеет в себе 2^16 = 65`536 символов, куда помещается множество алфавитов разных языков, в том числе куча иероглифов, которые в ASCII просто не помещались. Описание наборов символов есть на вики
но есть еще и UTF-8 юникодная кодировка которая организована куда сложнее, занимает по 8 бит на символ для латиницы, но дальше идет расширение. Например символы кириллицы занимают уже по 16 бит
в юникоде есть и другие типы кодировок типа UTF-32LE соответственно 32 бита на символ
так что утверждение что "<span>код Unicode-2 байта на символ</span>" вообще говоря сомнительно без уточнения конкретной кодировки.
Ответ:
var
a: array [1..3] of Integer;
i, imin: Integer;
begin
for i := Low (a) to High (a) do begin
Write (i, ' число: ');
ReadLn (a [i]);
end;
imin := 0;
for i := Low (a) to High (a) do begin
if a [i] mod 2 = 0 then
if imin = 0 then
imin := i
else if a [i] < a [imin] then
imin := i;
end;
if imin <> 0 then
WriteLn ('Наименьшее четное = ', a [imin])
else
WriteLn ('Четных чисел нет.');
ReadLn;
end.
И вот это проходят в 1-4 классах, ну нифига себе.
//Pascal ABC.NET v3.1 сборка 1219
Var
a,b,c:integer;
begin
read(a,b,c);
if a+b+c>100 then writeln('Сумма больше 100=',a+b+c) else writeln('Сумма=',a+b+c);
end.
Пример ввода:
200
50
8
Пример вывода:
Сумма больше 100=258