...
writeln(abs(power(10,5) +3));
...
1. Норберт Винер - американский ученый, основоположник кибернетики и теории искусственного интеллекта. У него была идея о необходимости создании единой науки, изучающей процессы хранения и переработки информации, управления и контроля.
2.Клод Шеннон - американский инженер, является основателем теории информации, нашедшие применения в современных высокотехнологических системах связи. Предложил использовать слово бит для обозначения информации.
3. В 1962 году, был придуман Тедом Нельсоном, а опубликован в 1965 году
4. Официально годом рождения WWW можно считать 1989 год. Изобретатель Тим Бернс-Ли
5.Эйлер- ученый математик,астроном, родился в 1707 году в семье базельского пастора Пауля Эйлера
Program n1;
const n=10;
var a: array[1..n] of integer;
i,k,sum: integer;
begin
randomize;
sum:=0;
k:=0;
for i:=1 to n do
begin
a[i]:=random(21);
sum:=sum+a[i];
end;
for i:=1 to n do if a[i] > sum/n then k:=k+1;
writeln(k);
end.
Var a,s:integer;
begin
read(a);
while a<>0 do
begin
if (a>=10)and(a<=99)and(a mod 8 = 0) then s:=s+a;
read(a);
end;
writeln(s);
<span>end.
Пример:
123 16 468 87 12 88 536 0
<span>104</span></span>
Количество информации можно определить как -log2(p), где p - вероятность данного события. Оно измеряется в битах.
Также можно использовать равносильное выражение log2(1/p)
Вероятность взятия чёрного шара равна 10/20 = 0,5, белого - 4/20 = 0,2, жёлтого такая же - 0,2, красного - в 2 раза меньше - 0,1.
Значит, если мы взяли чёрный шар, мы получили кол-во информации log2(1/0,5) = log2(2) = 1 бит,
если белый, то log2(1/0,2) = log2(5) = 2,3219 бит
если жёлтый, то столько же 2,3219 бит
если красный, то log2(1/0,1) = log2(10) = 3,3219 бит
<span>Чем меньше вероятность события, тем большее количество информации мы получаем, когда это событие наступает.
</span>