I = K*i, где I - информационный объём, K - количество символов, i - вес одного символа
i вычисляется по формуле Шеннона (N=2^i, где N - мощность алфавита), то есть для решения надо знать количество символов в файле и мощность алфавита
удачи :D
Что такое информация - это философский вопрос. Информация - это физическая субстанция, которую можно померять. Информация тесно связана с таким понятием, как вероятность - вероятность события.
Информация - это всё новое, неизведанное, всё, что может быть использовано для осознанного действия - действяи по улудшению своего состояния в этом мире.
Информация пропорциональна вероятности того, что событие произойдёт. При чём, чем больше вероятность, темменьше информации.
Тоесть I~1/P
Но информация должна обладать эффектом аддитивности. Тоесть информация о суммарном событии должна быть равна сумме информация о каждом из (независимых!!!) событий:
I(Q1*Q2)= 1/P(Q1*Q2) = 1/(P(Q1) * P(Q2)) не равно I(Q1)+I(Q2)
Что бы добиться равинства, надо взять логорифм:
I(Q1*Q2) = I(Q1) + I(Q2) = log(1/(P(Q1) * P(Q2))) = log(1/P(Q1)) + log(1/P(Q2)) = -log(P(Q1)) - log(P(Q2))
Основание логорифма определяет единицу измерения информации. Если основание "2", то единица измерения "бит".
Таким образом мы определяем что такое 1 бит информации:
1 = log2(P(Q)) => P(Q) = 1/2
1 бит - это информация о событии, вероятность которого равна 1/2.
Program Z_n;
var a:array[1..10] of byte;
i:byte;
Begin
writeln;
Randomize;
For i:=1 to 10 do begin
a[i]:=random(10);
write(a[i],' ');
if (a[i] mod 2)=0 then a[i]:=a[i]+1;
end;
writeln;
For i:=1 to 10 do
Write(a[i],' ');
end.