Один раз отмерь, один раз отрежь!
33 символа
1 символ кодируется 16 битами
33*16=528 бит=66 байт
*В формуле это выглядит так
i=16 бит
K=33
-------
I-?
I=Ki=33*16=528 бит=66 байт
1.Информационный <span>объем цифрового моно звукового файла длительностью 1 сек:
1 байт * 48000 =48000 байт
2. Длительностью 5 мин:
5*60*48000=14400000 байт ≈13.7 Мбайт</span>
Шестнадцатиричное число отображается в двоичную систему счисления путем представления каждой шестнадцатиричной цифры в виде тетрады - группы из четырех двоичных цифр. В самой левой тетраде незначащие двоичные нули отбрасываются.
Наименьшее четырехзначное шестнадцатиричное число - это 1000(16). Его двоичная запись 0001 0000 0000 0000(2) или 1 0000 0000 0000(2).
Но по условию нулей должно быть не 12, а семь, поэтому "лишние" пять нулей заменяем единицами. Поскольку число должно быть наименьшим, единицы ставим справа: 1 0000 0001 1111(2).
Осталось заменить каждую тетраду шестнадцатиричной цифрой: 101F(16)
<u><em>Ответ:</em></u> 101F
var
a : array of real := (3.2,2.5,0,0.7,0,-1.3,4.3,-2.9,0,-0.4,-5.2,3.4);
n : integer;
s : real;
begin
writeln('массив a = ', a);
write('номера элементов равных 0: ');
for var i :=0 to a.Length-1 do begin
if a[i] = 0 then write(' ', i);
if a[i] > 0 then begin
n += 1;
s += a[i];
end;
end;
writeln;
writeln('s = ', s/n);
end.
Ответ:
1. изменить кодовую страницу
2. ASCII каждый символ занимает 1 байт, поэтому можно закодировать максимум 256 различных символов. Для отображения всех алфавитов разработан Unicode
3. В китайском языке количество иероглифов превышает 256 (смотри вопрос №2)
Объяснение: