Вот вставь проверь там напишет при каких значениях
var x, L, M,i,i1: integer;
begin
for i:=0 to 1000 do
begin
i1:=i;
L:=0;
M:=0;
while i1 > 0 do
begin
L:=L+1;
if M < i1 then
begin
M:= (i1 mod 10) * 2;
end;
i1:= i1 div 10;
end;
writeln(L);
write(M);
end;
readln;
end.<span>
</span>
Сначало складываешь все в диапозоне от А1 до В2(А1+А2+В1+В2) и потом + С3
Определяем мощность (количество символов) использующегося алфавита. 12 букв и 10 цифр составляют 22 символа. В 1 байте допустимо запоминать 256 комбинаций, поэтому "минимальное количество байтов" для кодирования символа равно 1. Номер из 6 символов займет 6 байт.
А для 32 номеров потребуется 32×6 = <em>192 байта.</em>
Я встречал эту задачу в несколько ином виде: Каждый символ кодируется одинаковым и минимально возможным количеством не байтов, а бит. А номер кодируется минимально возможным количеством байт. Тогда получается 5 бит на символ (2⁴ < 22 < 2⁵), 6 символов требуют 5×6 = 30 бит = 30/8 ≈ 4 байта. А 32 номера занимают 32×4 = 128 байт.
а) ADD14 (16) + 356DC (16) = E33F0 (16)
б) 8A6D5 (16) - 9DDF (16) = 808F6 (16)