<span>Алфавит имеет 256 символов. Для точного указания каждого из них в двоичном коде нужно 8 бит (или 1 байт) , потому что 2 ^ 8 = 256. То есть диапазон двоичных чисел, соответствующих символам, будет от 00000000 до 11111111. Значит, для записи любого символа достаточно 8 бит (1 байт) информации.
Следовательно ответ : 15*32*64*1=30720 бит=3840 байт</span>
Первый компьютер и был, и не был. Не был потому, что его автор Чарльз Бэббидж<span>не смог его построить: в то время (он начал свою работу в 1834 году) подобная машина могла быть только механической. Но точность изготовлении деталей была слишком высока по их меркам. Поэтому финансирование проекта прекратилась. Но все же первый компьютер был - не осуществленный, но продуманный до мелочей и тщательно вычерченный. Кроме чертежей, осталась еще и подробное словесное описание, составленной сотрудницей </span>Бэббиджа Августой Адой Лавлейс, разработанная ею язык программирования и несколько первых в истории программ (перфокарты, машина Бэббиджа была способна выполнять программы). Его основные части были теми же, что и в каждом современном компьютере: устройства ввода данных (клавиатура); запоминающее устройство, способное хранить исходные данные; арифметическое устройство (-,+,·,:<span>); устройство для вывода результата.</span>
Выкидываем буквы, получаем кан сер
Выходит сканер
Var s,a:integer;
i:byte;
begin
s:=0;
For i:=1 to 3 do
begin
readln (a); // цена тетради
s:=s+a; // прибавление к общей стоимости тетрадей
end;
writeln (s);
end.
смогли я Вам чем-нибудь помочь?
4) С:\учёба\математика\2013\Расписание