RGB = 256*256*256 цветов = 16`777`216 цветов = 2^(8*3) = 2^24 т.е. 24 бита на пиксель
24*40*40 бит = 38`400 бит = 4`800 байт
Const n=10;
var
a: array[1..n] of real;
s, k: real;
i, m: integer;
begin
//считываем данные в массив
for i:=1 to n do
readln(a[i]);
k:=0; m:=0;
//находим сумму и количество целых элементов
for i:=1 to n do
if a[i] = int(a[i]) then
begin
k:=k+a[i];
inc(m);
end;
//находим среднее арифметическое
s := k/m;
writeln(s);
<span>end.</span>
int
main<span>()
{
</span>int
chislo<span>
= 968; // может быть любое число
</span>int
desyatkov
= chislo<span>
/ 10;
</span>chislo
= chislo<span>
% 10;
</span>cout<span>
<< </span>chislo
<< endl<span>;
</span>return<span>
0;
}</span>
А вот и нет. Монитор позволяет, а видеокарта может быть в режиме RGBA - Тогда 4 байта. А может быть в режиме 16 цветов, и т.д. ответ того челика не верный. Так что зависит не от монитора, а от видео режима, установленного ОС.