№2)
56(8), 57(8), 60(8), 61(8), 62(8), 63(8), 64(8).
47(16), 48(16), 49(16), 4A(16), 4B(16), 4C(16), 4D(16)
№3)
10111(2)=1*2^4+0*2^3+1*2^2+1*2^1+1*2^0=16+4+2+1=23(10)
156(8)=1*8^2+5*8^1+6*8^0=64+40+6=110(10)
35A(16)=3*16^2+5*16^1+10*16^0=768+80+10=858(10)
№4)
делим последовательно на основание новой системы счисления, остатки от деления выписываем, начиная с конца.
образец:
584:2=292 ост 0
292:2=146 ---- 0
146:2= 73 ---- 0
73:2= 36 ---- 1
36:2= 18 ---- 0
18:2= 9 ---- 0
9:2= 4 ---- 1
4:2= 2 ---- 0
2:2= 1 ---- 0
1:2= 0 ---- 1
584(10)=1001001000(2)
584(10)=1110(8)
584(10)=248(16)
400(10)=110010000(2)
400(10)=620(8)
400(10)=190(16)
№5)
1 0 1 0 1
+ 1 1 0 1
--------------
1 0 0 0 1 0
1 0 1 0
+ 1 0 1 0
-------------
1 0 1 0 0
№6)
14(х)=9(10)
1*x^1+4*x^0=9
x+4=9
x=5
14(5)=9(10)
Как и сказал, смог только первый.
Для начала нужно ввести числа квадратного уравнения в строку. То есть, числа вместо a, b и c. А потом надо ввести в строку число "х", чтобы проверить его на наличие решения.
Вот сам код:
program name;
var a, b, c, d, x1, x2, x3: real;
begin
writeln('Введите коэффициенты квадратного уравнения') ;
readln(a, b, c);
d:=sqr(b) - (4*a*c);
x1:= (-b-sqrt(d)) / 2*a;
x2:= (-b+sqrt(d)) / 2*a;
Writeln('Введите число х, чтобы проверить, является ли оно корнем уравнения') ;
readln(x3);
If x3 = x1 then
Writeln('Число ', x3, ' является корнем уравнения.')
Else If x3 = x2 then
Writeln('Число ', x3, ' является корнем уравнения.')
Else
Writeln('Число ', x3, ' не является корнем уравнения.') ;
End.
1. Изначально каждый символ кодировался одним байтом, в результате перекодировки стал кодироваться двумя - объем сообщения удвоился. Таким образом, в исходном сообщении 2*1024*1024/2 символов.
2. Аналогично - 8000 битов.
3. Берешь таблицу символов и декодируешь
4. ceil(8192/32/40)=7 листов (ceil - округление до ближайшего БОЛЬШЕГО целого)
5. ceil(12*1024/64/32)=6 листов
6. 2^(10240*8/(40*32*8))=2^8=256 (^ - возведение в степень)
<span>7. 14400*8/(3*40*60)=16 битов.</span>