<span>Program m21;
var i:integer;
begin i:=-10;
while i<=20 do
begin write (i,' ');
i:=i+5;
end;
end.
</span>
Вся информация, которую обрабатывает компьютер должна быть представлена двоичным кодом с помощью двух цифр 0 и 1. Эти два символа принято называть двоичными цифрами или битами. С помощью двух цифр 0 и 1 можно закодировать любое сообщение. Это явилось причиной того, что в компьютере обязательно должно быть организованно два важных процесса: кодирование и декодирование.<span><u>Кодирование</u> – преобразование входной информации в форму, воспринимаемую компьютером, т.е. двоичный код.</span><span><u>Декодирование</u> – преобразование данных из двоичного кода в форму, понятную человеку.</span>С точки зрения технической реализации использование двоичной системы счисления для кодирования информации оказалось намного более простым, чем применение других способов. <span>
</span>
24*800*600=11520000 бит = 1 440 000 байт = 1 406,25 кбайт = 1,37 мбайт
64=2^6, т.е. для кодирования символа используется 6 бит.
<span>10*32*64*6 = 122880 бит = 15360 байт</span>