Размер алфавита = 26+10 = 36 символов, ближайшая степень двойки, которая больше или равна 36 - 6 (2^6=64), значит, каждый символ кодируется 6 битами. 180*6=1080 бит.
Блок-схема - в прилагаемом файле.
Программа:
#include <stdio.h>
int main()
{
int s;
for (int i=10; i<=99; i++){
s = i / 10 + i % 10;
if (s*s*s == i*i) printf("%d ",i);
}
return 0;
}
Результат:
27
512 и 1818
159, 172, 11,824 не подходят, потому что нужен порядок возрастания
1619,519 тоже не подходят, потому что максимальная сумма цифр может быть 18, а тут 19